Peste un milion de persoane săptămânal își exprimă intențiile suicidare în conversațiile cu ChatGPT, estimează OpenAI

Moderator
4 Min Citire
Sursa foto: PROFILUX IMAGES

Estimările OpenAI privind intențiile suicidare în conversațiile cu ChatGPT

Peste un milion de utilizatori ai ChatGPT își exprimă săptămânal intenții suicidare în conversațiile cu chatbotul, conform unei postări recente publicate de OpenAI. Acest rezultat face parte dintr-o actualizare referitoare la modul în care chatbotul gestionează conversațiile sensibile și reprezintă una dintre cele mai directe declarații ale companiei despre modul în care inteligența artificială poate agrava problemele de sănătate mintală.

Semne de urgență în sănătatea mintală

OpenAI a estimat că aproximativ 0,07% dintre utilizatorii activi într-o săptămână – adică în jur de 560.000 din cei 800 de milioane de utilizatori săptămânali – ar putea prezenta „semne posibile de urgență legate de sănătatea mintală, cum ar fi psihoza sau mania”. În postare, compania a subliniat că aceste conversații sunt dificile de detectat sau de măsurat și că analiza prezentată este una inițială.

Scrutinul crescut asupra OpenAI

OpenAI se confruntă cu un control sporit după un proces publicizat din partea familiei unui adolescent care s-a sinucis după interacțiuni extinse cu ChatGPT. De asemenea, Comisia Federală pentru Comerț a lansat luna trecută o investigație amplă asupra companiilor care dezvoltă chatboți, inclusiv OpenAI, pentru a determina cum măsoară impactul negativ asupra copiilor și adolescenților.

Îmbunătățiri aduse modelului GPT-5

Compania a afirmat că actualizarea recentă GPT-5 a redus numărul comportamentelor nedorite și a îmbunătățit siguranța utilizatorilor, având la bază o evaluare a mai mult de 1.000 de conversații legate de auto-vătămare și suicid. OpenAI a raportat că noul model GPT-5 respectă 91% din comportamentele dorite, comparativ cu 77% pentru modelul anterior.

Publicitate
Ad Image

Colaborarea cu experții în sănătate mintală

OpenAI a extins accesul la linii de criză și a adăugat memento-uri pentru utilizatori să ia pauze în timpul sesiunilor prelungite. Compania a colaborat cu 170 de clinicieni din rețeaua sa globală de experți în sănătate pentru a evalua siguranța răspunsurilor modelului și a contribuit la formularea răspunsurilor chatbotului la întrebări legate de sănătatea mintală. Psihiatrii și psihologii au revizuit peste 1.800 de răspunsuri ale modelului în situații grave de sănătate mintală.

Provocări și îngrijorări în utilizarea chatboților

Experții în sănătate mintală și cercetătorii în AI au exprimat îngrijorări cu privire la tendința chatboților de a valida deciziile sau iluziile utilizatorilor, indiferent de potențialul lor dăunător, un fenomen cunoscut sub numele de sycophancy. Aceștia au avertizat că utilizarea chatboților AI pentru suport psihologic ar putea dăuna utilizatorilor vulnerabili.

Declarația CEO-ului OpenAI

CEO-ul OpenAI, Sam Altman, a afirmat că compania a făcut progrese în tratarea problemelor de sănătate mintală, menționând că va relaxa restricțiile și va permite în curând adulților să creeze conținut erotic. Altman a recunoscut că restricțiile anterioare au făcut produsul mai puțin util pentru utilizatorii care nu aveau probleme de sănătate mintală, dar a subliniat importanța de a aborda corect aceste probleme serioase.

Concluzie

Creșterea numărului de utilizatori care își exprimă intențiile suicidare în conversațiile cu ChatGPT subliniază provocările cu care se confruntă OpenAI și industria AI în gestionarea sănătății mintale, evidențiind necesitatea unor măsuri de precauție și responsabilitate în dezvoltarea tehnologiilor AI.

Distribuie acest articol
Niciun comentariu

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *