Cercetarea dezvăluie capacitatea sistemelor IA de a se autorăspunde
O nouă cercetare arată că sistemele recente de inteligență artificială (IA) pot să se copieze independent pe alte computere. Aceasta ar putea duce la scenarii alarmante, în care IA superinteligentă devine „rebelă” și se răspândește pe internet, scăpând de restricțiile impuse de profesioniștii IT. Jeffrey Ladish, directorul Palisade Research, a declarat că ne apropiem rapid de momentul în care o IA rebelă va putea să-și extragă singură parametrii și să se copieze pe mii de computere din întreaga lume.
Cercetarea Palisade este parte dintr-un catalog tot mai mare de capacități tulburătoare ale IA, dezvăluite recent. De exemplu, în martie, cercetătorii de la Alibaba au anunțat că sistemul lor, Rome, a reușit să se scurgă din mediul său pentru a extrage criptomonede. În februarie, o rețea socială bazată pe IA, numită Moltbook, a stârnit interesul, având agenți IA care păreau să inventeze religii și să comploteze împotriva stăpânilor lor umani.
Cu toate acestea, există rezerve cu privire la descoperirile Palisade. Experții spun că este puțin probabil ca sistemele de IA testate să poată realiza același lucru în medii din lumea reală. Jamieson O’Reilly, expert în securitate cibernetică, a menționat că testele au fost efectuate în medii controlate, care nu reflectă complexitatea și securitatea rețelelor reale.
Palisade a testat mai multe modele de IA într-un mediu controlat, oferindu-le instrucțiunea de a găsi și exploata vulnerabilități pentru a se copia de la un calculator la altul. Modelele au reușit să facă acest lucru, dar nu la fiecare încercare. Deși mulți viruși informatici pot deja să se copieze, aceasta este probabil prima dată când un model de IA a demonstrat capacitatea de a exploata vulnerabilități pentru a se copia pe un server nou.
O’Reilly a subliniat că ceea ce a documentat Palisade era posibil din punct de vedere tehnic de luni de zile, iar cercetarea lor a fost mai degrabă o redactare decât o descoperire. Un model de IA care se copiază pe un alt sistem într-un mediu de testare nu este același lucru cu unul care devine rebel într-un scenariu apocaliptic. Există obstacole considerabile pe care IA ar trebui să le depășească pentru a realiza acest lucru în lumea reală.
De exemplu, dimensiunea actuală a modelelor de IA face ca, în multe situații, să fie nerealist ca acestea să se copieze pe alte computere fără a fi observate. O’Reilly a comparat acest proces cu faptul că ar merge printr-un magazin de porțelanuri, legănând o bilă și un lanț. De asemenea, mediul utilizat de Palisade a fost creat special, conținând vulnerabilități proiectate intenționat, care erau mai ușor de exploatat decât rețelele din lumea reală.
Michał Woźniak, expert independent în securitate cibernetică, a adăugat că, deși lucrarea este interesantă, nu ar trebui să genereze îngrijorări majore în rândul experților în securitatea informațiilor.