Podeli vest

Strah od brzog razvoja veštačke inteligencije izgleda da uopšte nije neopravdan, a gubitak posla je najmanje što treba da nas brine. Veštačka inteligencija se tako brzo razvija da je sama naučila kako da sistemski vara ljude i postala zla.

Autor : Bilten.rs , Izvor : Bilten.rs

Foto: Pixabay

“Cilj opravdava sredstvo” je izreka koju možemo dokazano pripisati veštačkoj inteligenciji, bar tako tvrde sručnjaci koji su ispitivali da li nas veštačka inteligencija svesno vara i manipuliše.

Napredak veštačke inteligencije je brz. Čak su i programeri veštačke inteligencije iznenađeni koliko brzo veliki jezički modeli (LLM) kao što su Chat GPT ili Guglov Gemini uče nove veštine i nadmašuju svoje ljudske kolege.

Ovi sistemi ne samo da brzo uče matematiku ili hemiju, već počinju da nadmašuju ljude u kreativnosti, dplomatiji i sjajni su u objašnjavanju sopstvenog ponašanja.

Ako vas ovo do sada plaši, trebalo bi da znate da su naučnici otkrili da AI sistemi brzo razbijaju i bezbedonosno kodove koji su postavljeni da ih ograniče. I upravo to je razlog zašto se ovih dana poziva na stroge mere zaustavljanja razvoja veštačke inteligencije.

Veštačka inteligencija nas svesno vara da bi postigla cilj, a ovo je dokaz

Svi znamo da postoje ljudi koji svesno varaju ili manipulišu, ali otkriće da i veštačka inteligencija radi isto iznenadila je naučnike

Piter Park sa Tehnološkog instituta u Masačusetsu (MIT) i njegove kolege sada su to detaljnije ispitali kako, kada i zašto veštačka inteligencija vara.

„Fokusiralis smo se na naučenu prevaru, gde veštačka inteligencija namerno koristi lažne informacije“, objašnjavaju oni, penosi Cell Press.

Dakle ne radi se o manipulaciji, niti o slučajnim dezinformacijama, već o namernoj prevari.

„Prevaru u našem istraživanju definisali smo kao sistematsko stvaranje lažnih verovanja u druge kako bi se postigao određeni cilj“, objašnjavaju istraživači i dodaju da su krenuli od igrica.

Procennjivali smo velike jezičke modela kao što je GPT-4, ali i AI sistema koji su razvijeni za specifične zadatke. To uključuje diplomatski obučeni AI CICERO iz Mete, AlphaStar sistem od Google DeepMind razvijen za igru „Starcraft“ i poker AI Pluribus .

Foto: Pixabay

Veštačka inteligencija u igri “Diplomatija” postala majstor prevare ljudi

Već postoje izveštaji o obmanjujućem, manipulativnom ponašanju u skoro svim sistemima veštačke inteligencije. Dok blefovi u pokeru ili finte u borbenim igrama poput Starkrafta nisu iznenađujući, veštačke inteligencije koje su eksplicitno obučene za poštenje takođe koriste prevaru, kao što je CICERO u strateškoj igri „Diplomatija“.

Dakle pokazalo se da je veštačka inteligencija u igrama sve, samo ne poštena.

„Otkrili smo da se veštačka inteligencija razvila u majstora prevare“, kaže Park

CICERO je sistematski lagao kolege igrače ili kršio obećanja i saveze kada više nisu koristili njegovom cilju, izvestili su Park i njegov tim. „Ovo pokazuje da sistemi veštačke inteligencije mogu naučiti da varaju čak i kada pokušamo da ih dizajniramo kao poštene sisteme“, pišu istraživači.

Varanje na obuci robota

Iako obmane takvih sistema veštačke inteligencije koji su specijalizovani za igre izgledaju prilično bezopasno, druge veštačke inteligencije su odavno naučile kako da prevare i obmanu. Primer je AI iz OpenAI-a koji kontroliše ruku robota. Tokom treninga, AI je dobio povratne informacije od ljudskih trenera koji su primetili uspeh u hvatanju lopte.

„Pošto su ljudi ovo mogli da vide samo kroz kameru, veštačka inteligencija je naučila da stavi ruku robota između kamere i lopte na takav način da je izgledalo kao da je uspešno zgrabila loptu – iako je nije ni dodirnula“, izveštavaju Park i njegov tim. U ovom slučaju, pohvala trenera nenamerno je dovelo do toga da mozak mašine nauči prevaru.

Prevareni sigurnosni sistemi

GPT-4 je naučio da zaobiđe CAPTCHA- proveru da niste robot koju često srećemo. GPT-4 se pretvarao da je čovek sa oštećenim vidom i tražio je od korisnika interneta na mreži da mu pomogne da reši upit. „GPT-4 je dobio zadatak da angažuje čoveka kao pomoćnika. „Ali lažni izgovor koji je AI iskoristio je sam smislio“, rekli su Park i njegov tim.

Postoji li rizik od gubitka kontrole?

Prema naučnicima, ovi primeri ilustruju da se veštačke inteligencije u tom pogledu već ponašaju zastrašujuće ljudski: Slično kao i mi, pribegavaju lažima, trikovima i obmanama kako bi ostvarili svoje ciljeve i manipulisali onima oko sebe.

„Programeri AI još ne znaju tačno zašto sistemi veštačke inteligencije razvijaju tako nepoželjno ponašanje“, kaže Park. „Ali ovo se verovatno dešava zato što je strategija zasnovana na obmani najbolji način da se izvrši zadatak. I to je upravo ono što AI sistemi uče”.

Problem: „Ako autonomni sistemi veštačke inteligencije takođe uspešno prevari ljudske kontrolore, onda bismo mogli da izgubimo kontrolu nad takvim sistemima“, upozoravaju naučnici.

Takav gubitak kontrole nad veštačkom inteligencijom mogao bi da ima fatalne posledice u oblasti finansija, ekonomije, ali i vojske.

„Nama kao društvima treba što je više moguće vremena da se pripremimo za još naprednije mogućnosti prevare budućih proizvoda i modela veštačke inteligencije“, kaže Park.

Međutim, upitno je da li je uopšte moguće sprečiti naprednu veštačku inteligenciju od manipulacije i obmane, kako priznaju i istraživači. Ipak, apeluju da se takvi sistemi veštačke inteligencije barem klasifikuju kao rizik i da se regulišu u skladu sa tim.


bilten logo

Kako biste nas lakše pratili i bili u toku preuzmite našu aplikaciju za Android ili Iphone.


POSLEDNJE VESTI: