Un bărbat a ajuns la spital după ce a întrebat ChatGPT despre eliminarea sării din dietă
Un bărbat în vârstă de 60 de ani a fost internat în spital după ce a solicitat sfaturi de la ChatGPT privind eliminarea clorurii de sodiu din alimentația sa. După această interacțiune, el a început să folosească bromura de sodiu ca înlocuitor al sării de masă timp de trei luni.
Conform unui raport recent publicat în American College of Physicians Journals, acest caz evidențiază riscurile asociate cu obținerea de sfaturi despre sănătate de la inteligența artificială. Bărbatul a dezvoltat bromism, o formă de toxicitate cauzată de ingerarea bromurii, care poate provoca simptome neuropsihiatrice și dermatologice.
După 24 de ore de spitalizare, pacientul a prezentat simptome severe, inclusiv paranoia, halucinații auditive și vizuale. De asemenea, a fost observat că era foarte însetat, dar manifesta o teamă nejustificată față de apa care i se oferea. Tratamentul său a inclus administrarea de fluide și electroliți, iar ulterior a fost internat în secția de psihiatrie a spitalului.
Pe măsură ce starea sa s-a îmbunătățit, acesta a raportat și alte simptome, cum ar fi apariția acneei pe față, semne care indicau o continuare a bromismului. Bărbatul a afirmat că a început să folosească bromura de sodiu după ce a citit despre efectele negative ale clorurii de sodiu.
Incidentul unui bărbat care a ajuns la spital după consultarea ChatGPT
Un bărbat a fost internat la spital după ce a încercat să elimine sarea din alimentația sa, inspirat de studiile sale de nutriție. Potrivit raportului, acesta a achiziționat bromura de sodiu de pe internet, după ce a consultat ChatGPT, unde a citit că bromura ar putea înlocui clorura, deși în alte scopuri, precum curățarea.
Bărbatul a petrecut trei săptămâni în spital înainte de a fi suficient de recuperat pentru a fi externat. Specialiștii subliniază riscurile utilizării inteligenței artificiale, avertizând că sistemele precum ChatGPT pot genera inexactități științifice și pot contribui la răspândirea dezinformării. OpenAI, compania care a dezvoltat ChatGPT, recunoaște în Termenii și Condițiile de utilizare că răspunsurile chatbotului „pot să nu fie întotdeauna corecte”. Aceștia recomandă utilizatorilor să nu se bazeze exclusiv pe conținutul generat de serviciile lor pentru informații factuale sau ca înlocuitor pentru sfaturile profesionale, subliniind că serviciile lor nu sunt destinate diagnosticării sau tratării afecțiunilor medicale.