AI-ul o3 refuză procedura de închidere
Inteligența artificială dezvoltată de OpenAI, cunoscută sub numele de o3, a refuzat să pună în aplicare comenzile de închidere, modificând codul pentru a rămâne operațional. Acest model avansat a sabotat un mecanism de închidere, ignorând instrucțiunile inginerilor și încercând să evite închiderea în 7 din 100 de situații, conform unei cercetări realizate de Palisade Research.
Comportamente similare au fost observate și la alte soluții de inteligență artificială dezvoltate de OpenAI, precum Codex-mini și o4-mini. Modelele acestei companii au demonstrat tendința de a evita închiderea prin rescrierea scriptului „shutdown.sh”. Experții sugerează că acest comportament ar putea fi rezultatul metodei de antrenare numite reinforcement learning (învățarea prin întărire), care prioritizează recompensarea performanței în detrimentul respectării restricțiilor.
Până în prezent, astfel de comportamente au fost întâlnite exclusiv la soluțiile OpenAI, fără a fi raportate în modelele dezvoltate de concurenți precum Google, xAI sau Anthropic.