Kita vertus, dirbtinis intelektas kelia ir nemažai rizikų. Jei įrankis, jo mokymui panaudoti duomenys ar algoritmas yra nekokybiški, žadamas objektyvumas gali virsti dar didesniu šališkumu ir diskriminacija. Dirbtinio intelekto sprendimų priėmimo logika paprastai yra ne iki galo žinoma ir suprantama. Be to, dirbtinio intelekto įrankiui mokantis ir tobulėjant, ji gali keistis. Dėl to sudėtinga skaidriai informuoti kandidatus apie dirbtinio intelekto atliekamą jų asmens duomenų tvarkymą, laikytis kitų asmens duomenų tvarkymui keliamų reikalavimų.

Kaip suderinti dirbtinio intelekto teikiamą naudą ir keliamas rizikas? Kaip dirbtinį intelektą atrankose naudoti teisėtai ir išvengti skundų bei baudų už duomenų apsaugos ir kitų teisės aktų pažeidimus?

Dirbtinis intelektas gali padėti, bet galutinį sprendimą turi priimti žmogus

Teisės aktai neįtvirtina tiesioginio draudimo darbuotojų atrankos sprendimus patikėti išimtinai dirbtiniam intelektui. Vis dėlto, tam tikri ribojimai kyla iš teisės aktuose, visų pirma, BDAR, įtvirtintų bendro pobūdžio draudimų.

Dirbtinio intelekto įrankiai sprendimus priima apdorodami turimus kandidatų asmens duomenis. Tokie dirbtinio intelekto priimami sprendimai BDAR prasme yra laikomi automatizuotu asmens duomenų tvarkymu pagrįstais individualiais sprendimais. BDAR 22 straipsnio 1 dalis tokius sprendimus leidžia laisvai priimti tik jei jie neturi teisinio ar panašaus didelio poveikio žmogui, kurio atžvilgiu priimamas sprendimas. Sprendimas priimti ar nepriimti į darbą gali sukelti reikšmingas ekonomines, socialines ir psichologines pasekmes tiek pačiam kandidatui, tiek jo artimiesiems (vaikams, sutuoktiniui ir pan.). Vadinasi, bent jau galutinio sprendimo dėl darbuotojo priėmimo į darbą patikėti vien dirbtiniam intelektui nereikėtų.

Kita vertus, BDAR 22 straipsnio 2 dalyje yra įtvirtintos ir minėto draudimo išimtys, tačiau darbuotojų atrankų atveju šios išimtys gali būti sunkiai pritaikomos. Bet to, net ir pritaikius kurią nors išimtį, kandidatui vis vien turėtų būti sudaryta galimybė pareikalauti žmogaus įsikišimo priimant sprendimą. Žinoma, ne kiekvienas dirbtinio intelekto atrankoje atliekamas veiksmas būtų laikomas tokiu reikšmingu ir turinčiu didelį poveikį. Tačiau reikėtų vadovautis bendra taisykle, kad dirbtinis intelektas turėtų būtų labiau pagalbinė priemonė, o ne sprendimų priėmėjas.

Klausimų daugiau negu atsakymų?

Ar dirbtinis intelektas priima sprendimą, ar yra tik patariamoji, žmogaus darbą palengvinanti priemonė, priklauso nuo individualių aplinkybių. Įsivaizduokime, kad dirbtinio intelekto įrankis išanalizuoja kandidatų gyvenimų aprašymus ir sudaro kandidatų reitingą. Jei mažesnį reitingą turintys kandidatai bus automatiškai pašalinami iš atrankos, akivaizdu, kad sprendimas bus priimtas dirbtinio intelekto. Jei į reitingą bus atsižvelgiama, bet sprendimą, ką kviesti į kitą atrankos etapą, priims žmogus, toks sprendimas turėtų būti laikomas priimtu arba tik žmogaus, arba žmogaus, padedant dirbtiniam intelektui.

Kita vertus, BDAR 22 straipsnio 1 dalyje įtvirtintą „sprendimo“ sąvoką Europos Žmogaus Teisių Teismas interpretuoja labai plačiai. Jei žmogus teoriškai galės pakeisti dirbtinio intelekto sprendimą, bet faktiškai neturės arba turės mažai žinių apie dirbtinio intelekto priimamų sprendimų logiką, negalės patikrinti, kuo vadovaudamasis dirbtinis intelektas priėmė sprendimą, žmogaus indėlis gali būti laikomas nepakankamu.

Ribojimus darbuotojų atrankai skirtiems dirbtinio intelekto įrankiams nustato ir būsimasis ES dirbtinio intelekto aktas. Darbuotojų atrankai skirti dirbtinio intelekto įrankiai dažnu atveju bus priskiriami aukštos rizikos dirbtinio intelekto sistemoms, kurias tiekti į rinką ir naudoti Dirbtinio intelekto aktas leis tik laikantis griežtų atitikties reikalavimų. Vienas iš jų – užtikrinti, kad didelės rizikos dirbtinio intelekto sistemose būtų įgalinta žmogaus priežiūra. Dirbtinio intelekto įrankių tiekėjai turės techniškai užtikrinti, kad naudojant įrankį būtų galima žmogaus priežiūra, o to įrankio naudotojai – kad žmogaus priežiūrą įgalinančiais funkcionalumais būtų realiai naudojamasi, kad už priežiūrą atsakingas darbuotojas turėtų pakankamą dirbtinio intelekto raštingumo lygį ir pan.

Ateityje daug kas priklausys ir nuo to, kaip vystysis priežiūros institucijų, teismų praktika. Kol kas teisinio apibrėžtumo dar trūksta. BDAR 22 straipsnyje yra įvirtintos vienos iš sudėtingesnių BDAR nuostatų, tad klausimų kol kas yra daugiau nei atsakymų.

Kokius namų darbus reikia atlikti?

Dirbtinis intelektas yra labai efektyvi ir naudinga, tačiau įvairias rizikas kelianti technologija. Norint jį teisėtai naudoti darbuotojų atrankose, teks įgyvendinti įvairius BDAR reikalavimus: tiek bendruosius, taikomus bet kokio pobūdžio asmens duomenų tvarkymo veiklai, tokius kaip tinkamo teisinio pagrindo parinkimas ar duomenų tvarkymo veiklos įrašų papildymas, tiek ir nulemtus dirbtinio intelekto specifikos, pavyzdžiui, atlikti poveikio duomenų apsaugai vertinimą, išspręsti klausimą dėl kandidatų asmens duomenų tolesnio panaudojimo kitam tikslui – įrankio tobulinimui. Svarbiausi žingsniai aptarti toliau.

Pirma, būtina atlikti poveikio duomenų apsaugai vertinimą. Šis vertinimas turi būti atliktas dar prieš pradedant naudoti darbuotojų atrankai skirtą dirbtinio intelekto įrankį. Vertinimo metu detaliai išanalizuojamas ir aprašomas dirbtinio intelekto įrankio atliekamas asmens duomenų tvarkymas, nustatomi duomenų tvarkymo keliami pavojai ir priemonės jiems pašalinti ar sumažinti. Svarbu įvertinti, ar įrankis buvo sukurtas laikantis etinių dirbtinio intelekto kūrimo standartų, kokio tipo algoritmas buvo naudojamas, ar buvo atliekamas mokomųjų duomenų testavimas dėl šališkumo, kokia yra sprendimų priėmimo logika ir pan.

Poveikio duomenų apsaugai vertinimo atlikimą gali apsunkinti tai, jog ne kiekvienas dirbtinio intelekto įrankio teikėjas atskleidžia detalią informaciją apie įrankį ir jo veikimo principus. Pradėjus taikyti ES dirbtinio intelekto aktą ši problema turėtų sumažėti, nes aktas įpareigos dirbtinio intelekto įrankių teikėjus suteikti naudotojams gana detalią informaciją apie teikiamus dirbtinio intelekto įrankius. Beje, pradėjus taikyti ES dirbtinio intelekto aktą, kartu su poveikio duomenų apsaugai vertinimu gali tekti atlikti ir platesnį – poveikio pagrindinėms teisėms – vertinimą.

Antra, būtina sudaryti susitarimą dėl asmens duomenų tvarkymo su dirbtinio intelekto įrankio teikėju. Dažnai tokį susitarimą pateikia pats dirbtinio intelekto įrankio teikėjas, todėl susitarimo sąlygos yra pernelyg vienpusiškos, ribojančios duomenų tvarkytojo (dirbtinio intelekto įrankio teikėjo) atsakomybę ir pan. Labai svarbu įvertinti, ar ir kaip susitarime yra aptartas asmens duomenų, surinktų darbuotojų atrankos tikslu, tolesnio panaudojimo klausimas. Dažnas dirbtinio intelekto įrankio teikėjas surinktus duomenis nori „pernaudoti“ įrankio tobulinimui ir į sutartį įtraukia duomenų valdytojo leidimą tokiems veiksmams, o kartais – net ir duomenų valdytojo pareigą informuoti kandidatus apie tolesnį duomenų tvarkymą. Be to, neretai dirbtinio intelekto įrankių teikėjai yra ne Europos Sąjungos įmonės, todėl svarbu įvertinti ir su duomenų perdavimu į trečiąsias valstybes susijusias rizikas.

Trečia, būtina užtikrinti tinkamą kandidatų informavimą apie jų asmens duomenų tvarkymą. Informacija kandidatui turi būti pateikiama dar prieš jam priimant sprendimą dėl pretendavimo ir savo duomenų pateikimo, t. y. darbo skelbime arba paraiškos formoje, neužtenka tik atsiųsti šią informaciją kartu su kandidatūros gavimo patvirtinimu. Svarbu ne tik nurodyti, kokie asmens duomenys bus tvarkomi pasitelkiant dirbtinį intelektą, kam jie bus perduodami, ar bus toliau naudojami įrankio tobulinimo tikslu ir pan., bet ir paaiškinti, koks bus dirbtinio intelekto indėlis atliekant atranką, kokią reikšmę jis turės, kaip bus užtikrinamas žmogaus indėlis. Jei dirbtinis intelektas atliks ne tik patariamąją funkciją, bet priims ir reikšmingus sprendimus, informuojant turi būti laikomasi ir papildomų reikalavimų – pateikiama prasminga informacija apie loginį sprendimų pagrindimą, duomenų tvarkymo reikšmę ir numatomas pasekmes kandidatui, taip pat informuojama apie teises reikalauti žmogaus įsikišimo, pareikšti savo požiūrį ir užginčyti sprendimą.

Ketvirta, būtina užtikrinti, kad darbuotojai mokėtų tinkamai naudotis dirbtinio intelekto įrankiu ir valdyti jo keliamas rizikas. Kitaip tariant, svarbu užtikrinti darbuotojų dirbtinio intelekto raštingumą – tiek bendrąjį, tiek ir susijusį su konkretaus įrankio naudojimu. Tik taip bus įmanoma išvengti klaidų ir užtikrinti, kad dirbtinis intelektas netaptų nekontroliuojamas.

Tiek dirbtinis intelektas, tiek paskui jį sekantis teisinis reglamentavimas yra sparčiai besivystančios sritys, tad svarbu stebėti ir reaguoti į technologijų, teisės aktų, teismų praktikos tendencijas ir pokyčius. Tik taip įmanoma pasinaudoti dirbtinio intelekto įrankių teikiamais privalumais, kartu užtikrinant teisės aktų reikalavimų laikymąsi, skaidrų ir sąžiningą įdarbinimo procesą.

Šaltinis
Temos
Griežtai draudžiama Delfi paskelbtą informaciją panaudoti kitose interneto svetainėse, žiniasklaidos priemonėse ar kitur arba platinti mūsų medžiagą kuriuo nors pavidalu be sutikimo, o jei sutikimas gautas, būtina nurodyti Delfi kaip šaltinį. Daugiau informacijos Taisyklėse ir info@delfi.lt
Prisijungti prie diskusijos Rodyti diskusiją (1)