Chatboții creează confuzie și distorsionează faptele
Conform unei cercetări realizate de BBC, principalii asistenți de inteligență artificială, inclusiv ChatGPT, Copilot, Gemini și Perplexity, generează distorsiuni și inexactități factuale atunci când răspund la întrebări legate de știri și actualități. Studiul a arătat că peste jumătate dintre răspunsurile furnizate de aceste instrumente au fost considerate a avea „probleme semnificative”.
Printre erorile identificate se numără afirmații false, cum ar fi că Rishi Sunak sau Nicola Sturgeon erau încă în funcție, și denaturări ale recomandărilor NHS privind vapingul. Cercetătorii au solicitat celor patru instrumente să răspundă la 100 de întrebări folosind articole BBC ca sursă, iar răspunsurile au fost evaluate de jurnaliști specializați din cadrul BBC.
Erori factuale și confuzii
Aproximativ 20% dintre răspunsuri conțineau erori legate de numere, date sau afirmații, iar 13% dintre citatele provenite de la BBC au fost fie modificate, fie inexistente. De exemplu, Gemini a omis contextul unei condamnări celebre în cazul Lucy Letby, răspunzând că „depinde de fiecare persoană” să decidă despre vinovăția ei.
Alte distorsiuni semnificative au inclus afirmații false de la Copilot, care a declarat că o victimă a violului a descoperit crimele împotriva sa după ce a început să aibă pierderi de memorie, și de la ChatGPT, care a afirmat în mod greșit că Ismail Haniyeh era în viață. Aceste exemple evidențiază confuzia generată de răspunsurile AI, care deseori utilizează informații învechite.
Avertismentele experților
Deborah Turness, director executiv al BBC pentru știri, a avertizat că „instrumentele AI se joacă cu focul” și că ele amenință încrederea publicului în fapte. Aceasta a subliniat necesitatea ca inteligența artificială să fie capabilă să colecteze și să furnizeze știri fără a distorsiona faptele și a îndemnat companiile de AI să colaboreze cu BBC pentru a oferi răspunsuri mai precise, în loc să contribuie la „haos și confuzie”.
Cercetarea a fost realizată în contextul în care Apple a fost nevoită să suspende trimiterea alertelor de știri marca BBC din cauza mai multor rezumate inexacte ale articolelor. Aceste situații subliniază provocările cu care se confruntă tehnologiile de inteligență artificială în furnizarea de informații corecte și fiabile.
Chatboții și Problemele de Informație
Utilizatorii au primit informații eronate cu privire la cazul lui Luigi Mangione, acuzat de uciderea lui Brian Thompson, directorul executiv al diviziei de asigurări a UnitedHealthcare. Această situație evidențiază inexactitățile frecvente asociate cu instrumentele AI, care au devenit din ce în ce mai populare.
Impactul Inexactităților în AI
Cercetarea sugerează că erorile și denaturările conținutului de încredere sunt răspândite în sistemele AI. Peter Archer, directorul programului BBC pentru AI generativă, a declarat că „cercetarea noastră poate doar să zgârie suprafața problemei”, subliniind amploarea necunoscută a acestor inexactități.
Necesitatea Colaborării între AI și Media
Archer a adăugat că editorii, precum cei de la BBC, ar trebui să aibă control asupra utilizării conținutului lor, iar companiile de AI trebuie să dezvăluie modul în care procesează știrile, inclusiv amploarea erorilor pe care le produc. Aceasta va necesita parteneriate puternice între AI și companiile media, precum și noi modalități de lucru care să prioritizeze publicul și să maximizeze valoarea pentru toți.