Tačiau po savaitės S. Altmanas žurnalistams Londone porino jau kitokią istoriją.

„ChatGPT“ sukūrusios kompanijos vadovas sakė, kad stengsis laikytis Europos Sąjungos (ES) taisyklių, bet jei tai pasirodys pernelyg sudėtinga, jo kompanija tiesiog „nutrauks veiklą“ bloke. Dėl šios pastabos vidaus rinkos komisaras Thierry Bretonas apkaltino S. Altmaną „bandymu šantažuoti“. Kitą dieną S. Altmanas savo pastabas patikslino, o praėjusią savaitę susitikę asmeniškai generalinis direktorius ir komisaras sutarė, kad jų nuomonės dėl reguliavimo sutampa.

Dirbtinio intelekto kūrimas sparčiai žengia į priekį. Vien per pirmuosius keturis šių metų mėnesius sektorius pritraukė daugiau kaip 1 milijardą JAV dolerių rizikos kapitalo lėšų, o jo sukurtos sistemos jau dabar naudojamos visose įmanomose srityse – nuo dantų šepetėlių iki dronų. Kaip toli ir kaip greitai viskas judės toliau, tiesiogiai priklausys nuo to, ar vyriausybės imsis veiksmų.

Didžiosios technologijų kompanijos tikina, kad nori reguliavimo. Iš tikrųjų viskas sudėtingiau. „Google“, „Microsoft“, IBM ir „OpenAI“ prašė JAV įstatymų leidėjų prižiūrėti dirbtinį intelektą, nes, pasak jų, tik taip būtų užtikrintas saugumas ir konkurencingumas Kinijos atžvilgiu. Tuo tarpu ES, kurios politikai neseniai balsavo už teisės akto projektą, kuriuo būtų apibrėžtos generatyvinio dirbtinio intelekto naudojimo ribos, tų pačių kompanijų lobistai priešinasi priemonėms, kurios, jų nuomone, be reikalo suvaržytų karščiausią naują technologijų sektorių.

Samas Altmanas

Abipus Atlanto technologijų sektorių tvarkantys reglamentai smarkiai skiriasi. ES jau daugiau nei penkerius metus galioja išsamūs duomenų apsaugos įstatymai ir šiuo metu įgyvendinamos griežtos konkurencijos bei turinio moderavimo gairės. Tuo tarpu JAV daugiau nei du dešimtmečius iš esmės nebuvo jokio reguliavimo. Pasak daugelio pareigūnų, kuriančių būsimąjį bloko DI įstatymą (angl. AI Act), raginimas vykdyti priežiūrą didžiosioms technologijų kompanijoms buvo būdas pagerinti ryšius su visuomene, pakreipiant Europos teisės aktus jiems palankesne linkme.

Technologijų kompanijos žino, kad negali ignoruoti ES, juo labiau, kad bloko socialinės žiniasklaidos ir duomenų apsaugos taisyklės tapo pasauliniais standartais. ES dirbtinio intelekto aktas, kuris turėtų būti priimtas per ateinančius dvejus ar trejus metus, bus pirmasis Vakarų šalių vyriausybių bandymas reguliuoti dirbtinį intelektą, ir už jo pažeidimą bus numatytos rimtos sankcijos. Jei kompanijos nusižengs taisyklėms, blokas gali skirti 6 proc. metinės apyvartos dydžio baudas ir neleisti jų produktams veikti ES – kuri, kaip manoma, apima 20–25 proc. pasaulinės DI rinkos, o jos vertė po dešimties metų, kaip prognozuojama, viršys 1,3 trilijono JAV dolerių.

Taigi sektorius atsiduria keblioje padėtyje. Jei įstatymo projektas taps įstatymu, kaip sakė Gry Hasselbalch, viena iš ekspertų grupės „DataEthics“ įkūrėjų, didžiausi dirbtinio intelekto teikėjai „privalės iš pagrindų peržiūrėti savo veiklos skaidrumą, rizikos valdymą ir modelių diegimą“.

Rizikingas verslas

Priešingai nei technologijų vystymasis, teisės aktų leidyba juda vėžlio žingsniu. 2021 m. Europos Komisija paskelbė pirmąją DI įstatymo projekto versiją, taip pradėdama procesą, kuriame dalyvauja trys vyriausybinės institucijos, 27 šalys ir dešimtys lobistų, o vienas kitą sekantys derybų etapai greičiausiai baigsis šiais metais. Pasiūlyme laikomasi „rizika pagrįsto“ požiūrio, draudžiant naudoti DI kraštutiniais atvejais – įskaitant tokiam socialiniam reitingavimui kaip Kinijoje, kai piliečiai uždirba kreditus remiantis jų stebima elgsena, – ir leidžiant didžiajai daliai DI veikti beveik arba visai be priežiūros.

Europos Sąjunga

Įstatymo projekte daugiausia dėmesio skiriama taisyklėms, taikomoms „didelės rizikos“ atvejais. Pavyzdžiui, kompanijų, kuriančių dirbtinio intelekto sistemas, skirtas nusikaltimams prognozuoti arba darbo paraiškoms rūšiuoti, būtų reikalaujama naudoti tik aukštos kokybės duomenis ir teikti rizikos įvertinimą. Be to, įstatymas įpareigotų užtikrinti skaidrumą dėl giluminių klastočių ir pokalbių robotų: žmonės turėtų būti informuojami, kai jie bendrauja su DI sistema, o sugeneruotas arba suklastotas turinys turėtų būti atitinkamai pažymėtas. Tekste niekur neminimas generatyvinis dirbtinis intelektas – skėtinė mašininio mokymosi algoritmų, galinčių kurti naujus vaizdus, vaizdo įrašus, tekstus ir programavimo kodus, kategorija.

Didžiosios technologijų kompanijos tokiam požiūriui iš principo pritarė, tačiau pamėgino sušvelninti nubrėžtas ribas. Nors įstatymo projekte teigiama, kad kūrėjai būtų atsakingi už tai, kaip naudojamos jų sukurtos sistemos, kompanijos ir pramonės asociacijos tvirtino, jog atsakomybė turėtų tekti ir naudotojams. „Microsoft“ pareiškė, kad dėl generatyvinio dirbtinio intelekto potencialo kompanijos negali „numatyti visų jo panaudojimo scenarijų ir su jais susijusios rizikos“, todėl ypač svarbu „sutelkti dėmesį į tai, kaip faktiškai naudojama konkreti DI sistema“. Uždaruose susitikimuose technologijų kompanijų atstovai iškėlė ir pabrėžė idėją, jog dirbtinis intelektas tėra įrankis, atspindintis naudotojo ketinimus.

Dar svarbiau tai, kad IBM siekė užtikrinti, jog „bendrosios paskirties DI“ – dar platesnė kategorija, apimanti vaizdų ir kalbos atpažinimą, garso ir vaizdo įrašų generavimą, šablonų identifikavimą, klausimų atsakymą ir vertimą – nebūtų įtrauktas į reguliavimo sritį arba, „Microsoft“ atveju, kad reguliavimo patikrinimus atliktų patys naudotojai, kaip matyti iš įstatymų leidėjams nusiųstų projekto pakeitimų.

Daugelis kompanijų laikosi tokios pat pozicijos. Užuot bandę „kontroliuoti technologiją kaip monolitą, – rašė IBM ES reikalų vadovas Jeanas-Marcas Leclercas, – mes raginame ir toliau laikytis rizika pagrįsto požiūrio“.

Vis dėlto mintis, kad kai kurios galingiausios DI sistemos gali išvengti bet kokios priežiūros, kelia pramonės stebėtojų susirūpinimą. Ne pelno siekianti organizacija „Future of Life“, tarp kurios ankstyvųjų finansuotojų buvo ir Elonas Muskas, rašė, kad „ateities dirbtinio intelekto sistemos bus netgi dar bendresnės už GPT-3“ ir jas būtina nuosekliai reguliuoti. Užuot „skirstęs jas į kategorijas pagal ribotą numatomų tikslų rinkinį, – pažymėjo „Future of Life“ prezidentas Maxas Tegmarkas, – projektas turėtų reikalauti išsamaus visų numatomų panaudojimo būdų (įskaitant numatomus netinkamus panaudojimo būdus) rizikos įvertinimo.“

Grėsmės įvertinimas

Panašu, kad didžiosios technologijų kompanijos gavo tai, ko norėjo, vienu metu šalys netgi svarstė galimybę apskritai neįtraukti bendrosios paskirties dirbtinio intelekto į įstatymo projekto tekstą – iki 2022 m. pavasario, kai politikai pradėjo nerimauti, jog nepakankamai įvertino jo keliamą riziką. Daugiausia Prancūzijos raginimu ES valstybės narės pradėjo svarstyti galimybę reguliuoti visus bendrosios paskirties dirbtinius intelektus, neatsižvelgiant į jų panaudojimą.

Būtent tada „OpenAI“, anksčiau nedalyvavęs Europos teisėkūros procese, nusprendė įsitraukti į diskusiją. 2022 m. birželio mėnesį kompanijos viešosios politikos vadovas susitiko su pareigūnais Briuselyje. Netrukus po to „OpenAI“ išsiuntė Komisijai ir kai kuriems nacionaliniams atstovams kompanijos poziciją nušviečiantį dokumentą, apie kurį pirmą kartą pranešė „Time“ ir kuriame ji teigė esanti „susirūpinusi“, jog kai kurie pasiūlymai „gali netyčia nulemti, kad visos mūsų bendrosios paskirties dirbtinio intelekto sistemos liks įstrigusios pradinėje vystymosi stadijoje.“

Vis dėlto ES šalys galiausiai ėmėsi veiksmų ir įpareigojo visas bendrosios paskirties dirbtinio intelekto sistemas atitikti tam tikrus esminius reikalavimus, tokius kaip rizikos įvertinimas, o detalės esą bus patikslintos vėliau. Įstatymo projektas, kuriame minima tokia formuluotė, buvo patvirtintas gruodžio mėnesį – praėjus vos savaitei po „ChatGPT“ paleidimo.

Dirbtinio intelekto plėtros reguliavimai

Sugluminti pokalbių roboto gebėjimų ir precedento neturinčio išpopuliarėjimo, Europos Parlamento nariai tolesnėje įstatymo projekto versijoje nutarė laikytis dar griežtesnio požiūrio. Šioje naujausioje versijoje, patvirtintoje prieš dvi savaites, nurodoma, kad tokių „pamatinių modelių“ kūrėjai, kaip antai „OpenAI“, privalo pateikti autorių teisių saugomą medžiagą, naudojamą mokyti dideliems kalbos modeliams, įvertinti riziką, kurią sistema gali kelti demokratijai ir aplinkai, bei kurti tokius produktus, kurie negalėtų generuoti neteisėto turinio.

„Jei apibendrintume, iš generatyvinių dirbtinio intelekto modelių bus reikalaujama šiokio tokio skaidrumo“, – paaiškino Dragosas Tudorachė, vienas iš dviejų pagrindinių dirbtinio intelekto įstatymo autorių. Jei kyla pavojus, kad „algoritmai susidurs su negerais dalykais, tuomet kūrėjai turėtų pasistengti numatyti ir apsaugos priemones.“

Nors „Meta“, „Apple“ ir „Amazon“ iš esmės į diskusiją nesikišo, kiti pagrindiniai DI kūrėjai tokiems pakeitimams priešinasi. Komentaruose įstatymų leidėjams „Google“ pareiškė, kad kontrolės priemonės bendrosios paskirties dirbtinį intelektą traktuotų kaip didelės rizikos, o juk taip nėra. Kompanijos taip pat protestavo, kad naujosios taisyklės gali kirstis su šiuo metu galiojančiomis, o kelios teigė jau įgyvendinusios savo kontrolės priemones. „Jau vien žalos kompanijos reputacijai galimybė yra pakankama paskata masiškai investuoti į naudotojų saugumą“, – pabrėžė pramonės grupės CCIA atstovas Boniface‘as de Champris.

Dideli kalbos modeliai

Visuomenei realiu laiku stebint generatyvinio dirbtinio intelekto kliaudas, technologijų kompanijos vis garsiau reikalauja priežiūros ir, pasak pareigūnų, vis noriau derasi dėl taisyklių. Po to, kai S. Altmanas ir „Google“ vadovas Sundaras Pichai’jus gegužės pabaigoje pradėjo susitikimų su ES reguliavimo institucijomis turą, konkurencijos vadovė Margrethe Vestager pripažino, jog didžiosios technologijų kompanijos pradeda suvokti skaidrumo ir rizikos reglamentavimo būtinybę.

Sundaras Pichai'jus

Toks požiūris „labai pragmatiškas“, sakė D. Tudorachė ir pridūrė, kad kūrėjai, kurie nutartų priešintis reguliavimui, atsidurtų „neteisingoje istorijos pusėje ir rizikuotų savo verslo modeliu“.

Kai kurie kritikai taip pat pažymėjo, kad taisyklių laikymasis nuo pat pradžių didžiosioms technologijų kompanijoms gali būti būdas užsitikrinti dominavimą rinkoje. „Jei vyriausybė pradės kištis jau dabar, – paaiškino Berlyno Hertie mokyklos etikos ir technologijų profesorė Joanna Bryson, – jos galės įtvirtinti savo pranašumą ir būti aiškiai informuotos, kas jų laukia.“

Jei paklaustumėte technologijų kompanijų, jos pasakytų, kad nėra nusiteikusios prieš patį reguliavimą – joms tiesiog nepatinka kai kurie pasiūlymai. „Nuo pat pradžių buvo aišku, kad „Microsoft“ bus reguliuojamas net keliais lygmenimis; tikrai nebėgame nuo reguliavimo“, – rašė kompanijos atstovas spaudai, išsakydamas daugelio kūrėjų nuomonę. Kompanija taip pat išreiškė paramą naujos DI priežiūros agentūros, kuri užtikrintų saugos standartus ir išduotų licencijas, įsteigimui.

Kita vertus, technologijų kompanijos ir pramonės asociacijos toliau priešinasi parlamento ir šalių narių pasiūlytiems DI įstatymo pakeitimams. Kūrėjai reikalauja pateikti daugiau informacijos apie tai, kaip toks reguliavimas atrodytų praktiškai, ir kaip, tarkim, „OpenAI“ turėtų įvertinti „ChatGPT“ poveikį demokratijai ir aplinkai. Kai kuriais atvejais jie sutiko su tam tikrais parametrais, bet kvestionavo kitus.

Asociatyvioji nuotrauka

Pvz., „OpenAI“ balandžio mėnesį raštu kreipėsi į įstatymų leidėjus, išreikšdamas paramą stebėjimo ir testavimo sistemoms bei naujam bendrosios paskirties dirbtinio intelekto standartų rinkiniui, kaip matyti iš komentarų, kuriuos skaitė „Bloomberg“. Tuo tarpu „Google“ – neseniai pasisakęs už „stipino ir stebulės“ (angl. spoke-and-hub) reguliavimo modelį JAV, prašydamas, kad priežiūra būtų paskirstyta keletui skirtingų agentūrų, o ne vienai centralizuotai, – pritarė rizikos įvertinimui, tačiau ir toliau palaikė rizika pagrįstą požiūrį. „Google“ į prašymus pakomentuoti neatsiliepė.

Vis aiškiau atsiskleidžiant dirbtinio intelekto potencialui uždirbti daug pinigų, kai kurie politikai pradeda pritarti pramonės atstovų nuomonei. Buvęs Prancūzijos skaitmeninių technologijų ministras, praėjusį mėnesį tapęs technologijų konsultantu, Cedricas O įspėjo, jog pernelyg griežtas reguliavimas gali pakenkti Europos konkurencingumui. Jam antrino ir Prancūzijos prezidentas Emmanuelis Macronas, kuris Prancūzijos technologijų konferencijoje iškart po parlamento balsavimo pareiškė, jog ES neturėtų imtis perteklinio dirbtinio intelekto reguliavimo.

Kol neįvyko galutinis balsavimas dėl DI įstatymo, nėra aišku, kokiu mastu ES galiausiai nuspręs reguliuoti šią technologiją. Tačiau, net jei derybininkai tarsis sparčiau, kompanijoms šio teisės akto nereikės laikytis maždaug iki 2025 m. O kol kas sektorius sparčiai juda į priekį.