Manymas, kad dirbtinis intelektas pasitarnaus sukčiams, kol kas yra nepagrįstas, nes žmonės savo slaptažodžius ar PIN kodus ir taip padiktuoja, jei gražiai paprašai, rašo theregister.com

Dėl to mes dar ir nematome sukčių, kurie atrodo kaip kompanijų prezidentai, influenceriai, ar kolegos darbe, įsitikinęs J. Shieras.

Efektyviausias sukčiavimo būdas – fišingas (angl. phishing) – tai socialinės inžinerijos sukčiavimo forma, kai apsimetama kitu asmeniu, ar taikomi kiti apgaulės būdai, rašant elektrononius laiškus, SMS žinutes, skambinant telefonu ar pan.

Dirbtinio intelekto sugeneruoti vaizdo įrašai jau gali atrodyti autentiškai. Skambinantis asmuo gali ir atrodyti, ir skambėti kaip jūsų artimasis, ar vadovas, ar bet koks kitas asmuo. Vadinamieji „Deepfake“ paklūsta programuotojų norams – ir vaizdą, ir balsą galima susimuliuoti kokį tik nori. Tačiau tam reikia įdėti pastangų, tam prireikia nemažai kompiuterinių skaičiavimo išteklių. O paprasčiausias fišingas yra pigus ir efektus.

Pirmąsyk „sukčiai“ netikrus vaizdo įrašus panaudojo tapatybės vagystei. 2018 m. tyrėjai pademonstravo „suklastotą“ buvusį JAV prezidentą Baracką Obamą, išplatinę apgaulę internete.
Deepfake technologija vis populiaresnė, perspėja T. Stamulis

Tačiau tai, kad sukčiai dar nenaudoja suklastotų vaizdo įrašų, dar nereiškia, kad taip negali atsitikti. Pirmiausia grėsmė kyla romantinių sukčių aukoms – tai sukčiavimo būdas, kai internetu nusikaltėliai bando užmegzti artimą ryšį su savo auka, taip paskatinant pervesti pinigus. Vaizdo įrašai tokiems sukčiams suteiktų galimybę atrodyti patikimiau.

Tačiau pirmiausia, ko gero, „giliąsias klastotes“ panaudos gerai organizuoti nusikaltėliai sudėtingesnėms sukčiavimo schemoms.

„Dirbtinio intelekto ekspertai vertina, kad dar liko keleri metai, kol matysime didžiulį poveikį. Per tą laiką pamatysime gerai organizuotas nusikaltėlių grupuotes, vykdančias visai kito lygio sukčiavimą, kad apgaule priverstų žmones pervesti pinigus“, – dėsto J. Shieras.

O kol kas netikri vaizdo įrašai labiau buvo naudojami bandant suklastoti pornografinį turinį – galimai bandant kompromintuoti moteris.

J. Shieras yra ne vienintelis tyrėjas, pastaruoju metu susirūpinęs dėl „deepfake“ vaizdo įrašų poveikio.

„Microsoft“ vyriausiasis mokslininkas Ericas Horvitzas praėjusį mėnesį paskelbė akademinį straipsnį „Horizonte: interaktyvios ir kompozicinės klastotės“. Šiame straipsnyje jis vertina, kad netolimoje ateityje nebegalėsime būti tikri, ar asmuo, su kuriuo kalbamės vaizdo skambučiu, yra tikras, ar vis tik tai apgavikas. „Giliosios klastotės“ taps vis prieinamesnės ir lengviau naudojamos.

„Šiandien jau yra atvirojo kodo įrankių rinkinių, skirtų „deepfake“ klastotėms gaminti, todėl sumažėja reikalingų žinių kartelė, kad būtų galima jas kurti ir vėliau žaibiškai platinti socialinėje žiniasklaidoje. Galime tikėtis, kad gilumines klastotes bus sunku atskirti nuo tikrovės“, – perspėja mokslininkas.

Giliosios klastotės naudojamos ir fiktyviems darbo pokalbiams pradėti. Birželio mėnesį JAV Federalinis tyrimų biuras perspėjo, kad Šiaurės Korėjos piliečiai apsimeta rimtais programuotojais ir bando įsidarbinti įmonėse, gauti prieigas prie svarbių duomenų.