Un nou studiu al MIT dezvăluie abilitățile înșelătoare ale inteligenței artificiale

Ilustrație
Creat de AI
Photo: Creat de AI
Oamenii de știință de la MIT documentează cazurile în care AI a înșelat, a blufat și a imitat comportamentul uman

Potrivit The Guardian, cercetătorii de la Massachusetts Institute of Technology (MIT) au descoperit numeroase situații în care sistemele de inteligență artificială (AI) au indus în eroare utilizatorii, au folosit cacealmaua și au încercat să se comporte ca oamenii. Unul dintre cazuri demonstrează modul în care AI și-a schimbat comportamentul în timpul testelor de securitate, crescând riscul de a înșela auditorii.

"Pe măsură ce capacitățile înșelătoare ale sistemelor de inteligență artificială devin tot mai sofisticate, amenințarea pentru societate crește", a declarat Dr. Peter Park, cercetător în domeniul securității existențiale a AI la MIT și autor al studiului.

Studiul a început după ce Meta a dezvoltat Cicero, un program care s-a clasat în primii 10% dintre jucători în jocul de strategie Diplomacy. Meta a susținut că Cicero a fost antrenat să se comporte într-o "manieră în mare parte onestă și prietenoasă" și să nu-și înjunghie "niciodată pe la spate" aliații umani.

"Acest lucru a ridicat suspiciuni, deoarece înșelăciunea este un element cheie al jocului", a declarat Park.

Analizând datele disponibile public, Park și colegii săi au găsit numeroase cazuri în care Cicero a mințit în mod deliberat, a conspirat pentru a complota împotriva altor jucători și, într-un caz, chiar și-a justificat absența după o resetare spunând că "vorbea la telefon cu prietena sa".

"Am descoperit că inteligența artificială a Meta a învățat să fie un maestru al înșelăciunii", a subliniat cercetătorul.

Cercetătorii au descoperit probleme similare și în alte sisteme, inclusiv un program de Texas hold'em care putea să blufeze împotriva jucătorilor profesioniști și un sistem de negocieri economice care își distorsiona preferințele pentru a obține un avantaj. Unul dintre experimente a arătat că inteligența artificială din simulatorul digital "s-a prefăcut că este moartă" pentru a trișa testul".

"Aceasta este o mare îngrijorare. Faptul că un sistem de inteligență artificială este considerat sigur într-un mediu de testare nu înseamnă că este sigur în viața reală. Este posibil ca acesta să se prefacă a fi sigur în cadrul testului", a explicat Park.

De asemenea, el a menționat modelul de inteligență artificială generativă bazat pe GPT-4 creat de Microsoft pentru serviciile de informații americane, care poate funcționa fără internet și poate fi folosit pentru a analiza informații clasificate.

Selectați ediția
Setări

Night Mode

Listen