Dabar turime gerų naujienų. Remiantis nauju tyrimu, kuriam vadovavo kompiuterių mokslininkai Iryna Gurevych iš Darmštato technikos universiteto Vokietijoje ir Harish Tayyar Madabushi iš Bato universiteto Jungtinėje Karalystėje, šie modeliai nesugeba sukčiauti.

Tiesą sakant, jie yra pernelyg apriboti savo programavimo, nesugeba įgyti naujų įgūdžių be nurodymų, todėl išlieka kontroliuojami žmogaus, rašo „Science Alert“.

Tai reiškia, kad nors ir išlieka galimybė panaudoti modelius nedoriems tikslams, patys LMM savaime gali būti saugūs ir nesukelti rūpesčių.

„Buvo baiminamasi, kad modeliams vis didėjant, jie galės spręsti naujas problemas, kurių šiuo metu negalime numatyti, o tai kelia grėsmę, kad šie didesni modeliai gali įgyti pavojingų gebėjimų, įskaitant mąstymą ir planavimą“, – sako H. T. Madabushi.

„Mūsų tyrimas rodo, kad baimė, jog modelis ims ir padarys kažką visiškai netikėto, novatoriško ir potencialiai pavojingo, yra nepagrįsta.“

Per pastaruosius kelerius metus LLM sudėtingumas išaugo iki stulbinančio lygio. Dabar jie geba vesti gana nuoseklų pokalbį tekstu, kuris atrodo natūralus ir žmogiškas.

Jie nėra tobuli – kadangi iš tikrųjų jie nėra intelekto forma, daugeliu atvejų jiems trūksta kritinių įgūdžių, reikalingų norint atskirti gerą informaciją nuo blogos. Tačiau jie vis tiek gali įtikinamai perteikti blogą informaciją.

Neseniai kai kurie mokslininkai tyrė galimybę, kad vadinamuosius atsirandančius gebėjimus LLM išvysto savarankiškai, o ne sąmoningai užkoduoti jo programavimo metu. Vienas konkretus pavyzdys – LLM, kuris sugebėjo atsakyti į klausimus apie socialines situacijas, nors nebuvo aiškiai apmokytas tų situacijų.

Buvo pastebėta, kad LLM didėjant, jie tampa vis galingesni ir gali atlikti daugiau užduočių. Nebuvo aišku, ar toks mastelio didinimas taip pat reiškia elgesio riziką, kuriai galime būti nepasirengę. Todėl tyrėjai atliko tyrimą, siekdami išsiaiškinti, ar tokie atvejai iš tiesų yra naujai atsirandantys, ar programa tiesiog sudėtingai veikia savo kodo ribose.

Jie eksperimentavo su keturiais skirtingais LLM modeliais, skirdami jiems užduotis, kurios anksčiau buvo įvardytos kaip atsirandančios. Ir jie nerado jokių diferencijuoto mąstymo raidos įrodymų, taip pat nerado įrodymų, kad kuris nors iš modelių galėjo veikti ne pagal savo programą.

Visų keturių modelių atveju gebėjimas sekti instrukcijas, įsiminimas ir kalbinis išprusimas galėjo paaiškinti visus LLM pasireiškiančius gebėjimus. Mums nėra ko baimintis, kad LLM savarankiškai veiktų.

Kita vertus, žmonės yra mažiau patikimi. Mūsų pačių dirbtinio intelekto naudojimas, reikalaujantis daugiau energijos ir keliantis iššūkį viskam, pradedant autorių teisėmis ir baigiant tuo, kaip išvengti savo paties skaitmeninės taršos, – tampa tikra problema.

„Mūsų atlikto tyrimo rezultatai nereiškia, kad dirbtinis intelektas apskritai nekelia grėsmės, – sako I. Gurevych.

„Veikiau parodome, kad tariamas sudėtingų mąstymo įgūdžių, susijusių su konkrečiomis grėsmėmis, atsiradimas nėra pagrįstas įrodymais ir kad vis dėlto galime labai gerai kontroliuoti LMM mokymosi procesą.“

Tyrimas paskelbtas 62-ojo metinio Kompiuterinės lingvistikos asociacijos („Association for Computational Linguistics“) metinio susitikimo medžiagoje.

Šaltinis
Temos
Griežtai draudžiama Delfi paskelbtą informaciją panaudoti kitose interneto svetainėse, žiniasklaidos priemonėse ar kitur arba platinti mūsų medžiagą kuriuo nors pavidalu be sutikimo, o jei sutikimas gautas, būtina nurodyti Delfi kaip šaltinį. Daugiau informacijos Taisyklėse ir info@delfi.lt
Prisijungti prie diskusijos Rodyti diskusiją (2)