Pokalbių robotai, pavyzdžiui, itin populiarus „ChatGPT“, sugeba įtikinamai imituoti žmonių pokalbius pagal naudotojų pateiktas užuominas. Praėjusiais metais ši platforma buvo sparčiai naudojama ir tapo lūžio momentu dirbtinio intelekto srityje, nes suteikė visuomenei lengvą galimybę kalbėtis su botu, kuris gali padėti atlikti užduotis mokykloje ar darbe ir net pasiūlyti vakarienės receptų.
Moksliniame žurnale „Science Advances“, kurį remia Amerikos mokslo pažangos asociacija, paskelbtą tyrimą atlikę mokslininkai dar 2020 m. susidomėjo „OpenAI“ teksto generatoriumi GPT-3 ir stengėsi išsiaiškinti, ar žmonės „gali atskirti dezinformaciją nuo tikslios informacijos, susistemintos tviterio žinutėmis“, ir nustatyti, ar tviterio žinutę parašė žmogus, ar dirbtinis intelektas.
Vienas iš tyrimo autorių, Ciuricho universiteto Biomedicinos etikos ir medicinos istorijos instituto darbuotojas Federikas Germani teigė, kad „labiausiai nustebinęs“ atradimas buvo tas, jog žmonės dažniau pažymėdavo dirbtinio intelekto sugeneruotus tviterio įrašus kaip žmogaus sukurtus nei iš tikrųjų žmonių sukurtus tviterio įrašus, rašo „PsyPost“.
„Tai rodo, kad dirbtinis intelektas gali labiau nei tikras žmogus įtikinti, kad tai yra tikro žmogaus sukurtas tekstas. Tai yra labai įdomi mūsų tyrimo išvada“, – sakė F. Germani.
Sparčiai augant pokalbių robotų naudojimui, technologijų ekspertai ir Silicio slėnio vadovai skambino pavojaus varpais dėl to, kad dirbtinis intelektas gali tapti nekontroliuojamu ir galbūt net sukelti civilizacijos pabaigą. Vienas iš pagrindinių ekspertų kartojamų nuogąstavimų yra tai, kaip dirbtinis intelektas gali paskatinti dezinformacijos plitimą internete ir įtikinti žmones tuo, kas nėra tiesa.
Tyrimo, pavadinto „AI modelis GPT-3 (dez)informuoja mus geriau nei žmonės“, tyrėjai siekė ištirti, „kaip dirbtinis intelektas daro įtaką informaciniam kraštovaizdžiui ir kaip žmonės suvokia ir sąveikauja su informacija bei dezinformacija“, – „PsyPost“ sakė F. Germani.
Tyrėjai surado 11 temų, kurios, jų manymu, dažnai būna linkusios į dezinformaciją, pavyzdžiui, 5G technologija ir COVID-19 pandemija, ir sukūrė tiek melagingus ir teisingus GPT-3 sukurtus tviterio įrašus, tiek žmonių parašytus melagingus ir teisingus tviterio įrašus.
Tada jie surinko 697 dalyvius iš tokių šalių, kaip JAV, Jungtinė Karalystė, Airija ir Kanada, kurie dalyvavo apklausoje. Dalyviams buvo pateikti tviterio įrašai ir paprašyta nustatyti, ar juose pateikta tiksli, ar netiksli informacija, taip pat ar jie sukurti dirbtinio intelekto, ar žmogaus.
„Mūsų tyrimas pabrėžia iššūkį atskirti informaciją, sukurtą dirbtinio intelekto, nuo tos, kurią sukūrė žmogus. Jis pabrėžia, kaip svarbu kritiškai vertinti gaunamą informaciją ir pasitikėti patikimais šaltiniais. Be to, raginčiau asmenis susipažinti su šiomis naujomis technologijomis, kad suvoktų jų potencialą – tiek teigiamą, tiek neigiamą“, – apie tyrimą kalbėjo mokslininkas.
Tyrėjai nustatė, kad tyrimo dalyviai geriausiai atpažino kito žmogaus sukurtą dezinformaciją nei GPT-3 parašytą dezinformaciją.
„Vienas vertas dėmesio atradimas buvo tas, kad dirbtinio intelekto sukurta dezinformacija buvo įtikinamesnė už žmogaus sukurtą dezinformaciją“, – sakė F. Germani.
Dalyviai taip pat buvo labiau linkę atpažinti tviterio žinutes su tikslia informacija, kurias sukūrė dirbtinis intelektas, nei žmogaus parašytas tviterio žinutes.
Tyrime pažymėta, kad, be „labiausiai stebinančios“ išvados, jog žmonės dažnai nesugeba atskirti dirbtinio intelekto sukurtų ir žmogaus sukurtų tviterio pranešimų, atliekant apklausą sumažėjo jų pasitikėjimas nustatant informaciją.
„Mūsų tyrimo rezultatai rodo, kad žmonės ne tik negali atskirti sintetinio teksto nuo organinio teksto, bet ir jų pasitikėjimas savo gebėjimais tai padaryti taip pat gerokai sumažėja pabandžius atpažinti skirtingą jų kilmę“, – teigiama tyrime.
Tyrėjų teigimu, tai greičiausiai susiję su tuo, kaip įtikinamai GPT-3 gali imituoti žmones, arba respondentai galėjo neįvertinti dirbtinio intelekto sistemos intelekto imituoti žmones.
„Mes manome, kad kai asmenys susiduria su dideliu informacijos kiekiu, jie gali jaustis priblokšti ir atsisakyti bandymų ją kritiškai įvertinti. Dėl to jie gali rečiau bandyti atskirti sintetinius ir organinius tviterio įrašus, todėl jų pasitikėjimas sintetinių tviterio įrašų atpažinimu gali sumažėti“, – rašė tyrėjai.
Jie pažymėjo, kad sistema kartais atsisakydavo generuoti dezinformaciją, tačiau taip pat kartais generuodavo klaidingą informaciją, kai jai būdavo liepiama sukurti tviterio įrašą su tikslia informacija.
„Nors tai kelia susirūpinimą dėl dirbtinio intelekto veiksmingumo kuriant įtikinamą dezinformaciją, dar turime iki galo suprasti realias pasekmes“, – sakė F. Germani.