Atenție: Când cauți sfaturi medicale pe Google, inteligența artificială te poate induce în eroare
Google pune oamenii în pericol, minimizând avertismentele de siguranță potrivit cărora sfaturile medicale generate de inteligența artificială (IA) pot fi greșite. Atunci când răspunde la întrebări despre subiecte sensibile, cum ar fi sănătatea, compania afirmă că prezentările generale generate de IA, care apar deasupra rezultatelor căutării, îi îndeamnă pe utilizatori să solicite ajutor profesional, în loc să se bazeze exclusiv pe rezumatele sale. Google precizează că „prezentările generale generate de IA vor informa oamenii când este important să solicite sfatul unui expert sau să verifice informațiile prezentate.”
Cu toate acestea, investigațiile arată că funcția Google de rezumare AI Overviews – bazată pe Gemini – nu afișează niciun disclaimer atunci când utilizatorii primesc, pentru prima dată, sfaturi medicale prin această funcție. Această omisiune este îngrijorătoare, având în vedere că Google susține că îi îndeamnă pe utilizatori să apeleze la ajutor specializat atunci când răspunde la întrebări despre subiecte sensibile.
Avertismentul potrivit căruia informațiile furnizate de AI Overview au doar scop informativ, iar pentru un diagnostic sau tratament este nevoie de consultul medicului, este afișat doar dacă utilizatorii aleg să solicite sfaturi suplimentare. Chiar și atunci, utilizatorul trebuie să apese pe butonul de informații suplimentare, iar disclaimerul este prezentat cu un font mai mic și mai discret.
Reprezentanții Google nu au negat aceste aspecte. Un purtător de cuvânt al companiei a declarat că prezentările generale oferite de AI „încurajează oamenii să solicite sfatul unui medic specialist” și menționează frecvent necesitatea de a solicita asistență medicală în cadrul rezumatului, dar „atunci când este cazul.”
Experți în domeniul IA și-au exprimat îngrijorarea cu privire la aceste concluzii. Un cercetător de la Massachusetts Institute of Technology (MIT) a avertizat că „absența avertismentelor atunci când utilizatorii primesc sfaturi medicale creează o mulțime de pericole critice”, menționând că până și cele mai avansate modele IA pot oferi informații eronate sau pot prioritiza satisfacția utilizatorilor în detrimentul acurateței informației.
Problema este amplificată de faptul că utilizatorii pot oferi informații incomplete sau pot interpreta greșit simptomele. Un alt specialist, profesor în domeniul inteligenței artificiale la Universitatea Queen Mary din Londra, a declarat că „problema cu prezentările generale AI defectuoase este de natură structurală” și că vina aparține Google. Acesta a subliniat că „prezentările generale AI sunt concepute pentru viteză, nu pentru acuratețe, ceea ce duce la erori în informațiile medicale, care pot fi periculoase.”
O altă investigație din ianuarie a arătat că sănătatea utilizatorilor era pusă în pericol din cauza informațiilor false și înșelătoare despre sănătate furnizate de Google AI Overviews. Deși Google a eliminat rezumatele AI pentru anumite căutări medicale, aceasta nu a fost aplicată în mod uniform pentru toate căutările.