Rugpjūčio mėn. paskelbtame dokumente „Meta“ pristatė šią priemonę, kuriame išsamiai aprašė, kaip ji remiasi tuo pačiu „minčių grandinės“ metodu, kurį naudoja neseniai išleisti „OpenAI“ modeliai „o1“, kad galėtų patikimai įvertinti modelių atsakymus.

Šis metodas apima sudėtingų problemų skaidymą į mažesnius loginius žingsnius ir, atrodo, pagerina atsakymų tikslumą sprendžiant sudėtingas problemas tokiuose dalykuose kaip gamtos mokslai, kodavimas ir matematika, rašo „Reuters“.

„Meta“ tyrėjai vertintojo modeliui apmokyti naudojo tik dirbtinio intelekto sukurtus duomenis, todėl šiame etape taip pat nebuvo naudojamas žmogaus indėlis.

Du „Meta“ tyrėjai, vykdantys šį projektą, sakė „Reuters“, kad galimybė patikimai vertinti dirbtinį intelektą suteikia galimybę sukurti autonominius dirbtinio intelekto agentus, galinčius mokytis iš savo klaidų.

Daugelis dirbtinio intelekto srities atstovų tokius agentus įsivaizduoja kaip skaitmeninius asistentus, kurie būtų pakankamai protingi, kad be žmogaus įsikišimo atliktų daugybę užduočių.

Savaime tobulėjantys modeliai galėtų padėti išvengti brangaus proceso, vadinamo mokymusi iš žmogaus grįžtamojo ryšio, kuriam reikia žmogaus anotatoriaus, turinčio specialių žinių, kad galėtų tiksliai pažymėti duomenis ir patikrinti, ar atsakymai į sudėtingas matematines ir rašytines užklausas yra teisingi.

„Tikimės, kad dirbtinis intelektas vis geriau tikrins savo darbą, kad iš tikrųjų būtų geresnis už vidutinį žmogų“, – teigė vienas iš tyrėjų Jasonas Westonas.

„Idėja, kad dirbtinis intelektas gali pats mokytis ir pats save vertinti, iš esmės yra labai svarbi siekiant pasiekti tokį antžmogišką dirbtinio intelekto lygį“, – sakė jis.

Šaltinis
Temos
Griežtai draudžiama Delfi paskelbtą informaciją panaudoti kitose interneto svetainėse, žiniasklaidos priemonėse ar kitur arba platinti mūsų medžiagą kuriuo nors pavidalu be sutikimo, o jei sutikimas gautas, būtina nurodyti Delfi kaip šaltinį. Daugiau informacijos Taisyklėse ir info@delfi.lt
Prisijungti prie diskusijos Rodyti diskusiją