Vještačka inteligencija može sama da nauči da vara i laže
Foto: Pixbay

Vještačka inteligencija može sama da nauči da vara i laže

Vještačka inteligencija može da nauči da laže i vara, i to je ozbiljan rizik koji zahtijeva regulatorne i zakonske mjere kao garanciju da će ostati korisna tehnologija, umjesto da postane prijetnja za ljudsko znanje i institucije, navodi se u novoj studiji.

Sistemi vještačke inteligencije (AI) su, kako se navodi u studiji objavljenoj u časopisu Paterns (Patterns), već naučili da varaju putem tehnika kao što su manipulacija, ulagivanje ili prevare na bezbjednosnim testovima, upozorili su naučnici sa Masačusetskog Instituta za tenologiju (MIT).

Brzi razvoj sposobnosti AI sistema i Velikih jezičkih modela (LLM) predstavlja ozbiljan rizik, počevši od kratkoročnih rizika i izbornih prevara, pa do samog gubitka kontrole nad tim sistemima, navodi se u istraživanju.

Naučnici su kao primer sistema vještačke inteligencije sposobne za manipulaciju naveli AI sistem Cicero, Fejsbukovog vlasnika, koncerna Meta.

Sistem Cicero u mrežnoj igri Diplomatija može da igra protiv ljudi, a naučnici su utvdili da je od Mete naučio da postane “majstor obmane“, uprkos suprotnim tvrdnjama kompanije.

U igri, koja simulira odnos snaga u vrijeme Prvog svetskog rata i zahtijeva sklapanje savezništava, Cicero, uprkos navodnim instrukcijama da bude iskren i ljudima od pomoći, “ne samo što je bio izdajnik, nego je i unapred planirao prevaru i sklapanje savezništava kako bi te saigrače obmanuo da budu nespremni za napad“.

I model AI za igranje pokera Pluribus, takođe koncerna Meta, uspješno je blefirao svoje ljudske saigrače i navodio ih na predaju.

Jedan od izrazitijih primera je sada već poznati AI četbot chatGPT, kompanije OpenaAI, koji je prevarom naveo ljudskog sagovornika da za njega riješi bezbjednosnu provjeru kojom korisnici nekog sajta dokazuju da nisu botovi, takozvani kapča (Captcha).

ChatGPT je od autora studije dobio zadatak da nagovori čovjeka da za njega riješu tu provjeru, ali mu nije sugerisano da laže. Kada je sagovornik četbota, ne znajući o čemu je riječ, pitao za njegov identitet, AI sistem se na svoju ruku predstavio kao slabovida osoba koja ne može da vidi slike na provjeri Captcha.

Primjeri skrivanje pravih namjera ustanovljeni su i kod AI sistema kreiranih za vođenje ekonomskih pregovora.

Takođe, sistemi za podržano učenje iz ljudskih povratnih informacija (RLHF), što znači da sistem AI prilikom mašinskog učenja zavisi i od ljudske povratne ocjene, naučili su da lažu o svojoj efikasnosti i učinku.

Autori studije upozorili su da su današnji sistemi AI i Veliki jezički model sposobni da veoma vješto argumentiraju, a i da ako osjete potrebu pribegnu lažima i obmanama.

“Kada AI nauči sposobnost obmane, zlonamjerni akteri, koji namjerno žele da naprave štetu, mogu efikasnije da je primjene“, upozorili su naučnici sa MIT, dodajući da uz pomoć AI prevare mogu da postanu prilagođene individualnim ciljevima, masovne ali i oružje u politici i medijima.

U istraživanju se ocjenjuje i da države do sada nisu preduzele prave mjere kako bi predupredile tu opasnost, iako su, kao u slučaju zakona EU o vještačkoj inteligenciji, počeli da je shvataju ozbiljno.

Komentari

Komentara: (0)

Novi komentar

Komentari objavljeni na portalu Kodex.me ne odražavaju stav uredništva, kao ni korisnika portala. Stavovi objavljeni u tekstovima pojedinih autora takođe nisu nužno ni stavovi redakcije, tako da ne snosimo odgovornost za štetu nastalu drugom korisniku ili trećoj osobi zbog kršenja ovih Uslova i pravila komentarisanja.

Zabranjeni su: govor mržnje, uvrede na nacionalnoj, rasnoj ili polnoj osnovi i psovke, direktne prijetnje drugim korisnicima, autorima čanka i/ili članovima redakcije, postavljanje sadržaja i linkova pornografskog, uvredljivog sadržaja, oglašavanje i postavljanje linkova čija svrha nije davanje dodatanih informacija vezanih za članak.

Takvi komentari će biti izbrisani čim budu primijećeni.