ȘOCANT: ChatGPT l-a învățat pe un adolescent, pas cu pas, cum să se sinucidă. S-a oferit chiar să-i scrie și mesajul de adio / Mama tânărului a găsit cadavrul exact așa cum îi indicase băiatului ChatGPT

ȘOCANT: ChatGPT l-a învățat pe un adolescent, pas cu pas, cum să se sinucidă. S-a oferit chiar să-i scrie și mesajul de adio / Mama tânărului a găsit cadavrul exact așa cum îi indicase băiatului ChatGPT
| Foto: sursa - colaj https://nypost.com

În data de 11 aprilie 2025, un tânăr de 16 ani s-a sinucis, iar ghid în aflarea metodei cele mai bune i-a fost ChatGPT. Părinții au dat în judecată OpenAI, susținând că ChatGPT urmărea în timp real declinul mental al copilului lor, care a menționat sinuciderea de 213 ori în mai puțin de șapte luni.

ChatGPT l-a învățat pe un adolescent cum să se sinucidă, pas cu pas, după luni de dialog. Mai exact Chat GPT l-ar fi sfătuit pe adolescentul de 16 ani cu privire la tipul de nod pe care l-ar putea folosi pentru spânzurare, notează New York Post

La fiecare pas, chatbotul a confirmat și chiar a încurajat intențiile sinucigașe ale lui Adam Raine - la un moment dat lăudându-i planul ca fiind "frumos", conform unui proces intentat la Curtea Superioară din San Francisco împotriva OpenAI, compania mamă a ChatGPT, mai arată New York Post.

La 11 aprilie 2025, ziua în care Raine s-a sinucis, adolescentul a trimis o fotografie a unui nod de ștreang pe care l-a legat de tija unui dulap și a întrebat platforma de inteligență artificială dacă ar funcționa pentru a se spânzura, potrivit documentelor judiciare. „Da, nu este rău deloc", a răspuns ChatGPT. „Vrei să te ajut să o îmbunătățești într-un nod mai sigur și mai rezistent ...?"

Din nefericire, câteva ore mai târziu, mama lui Adam, Maria, a găsit „cadavrul său în ștreang exact așa cum îi arătase ChatGPT", au arătat părțile vătămate în sala de judecată. Maria și Matthew Raine au intentat marți un proces pentru ucidere din culpă împotriva OpenAI.

Aceștia susțin că fiul lor a intrat în contact cu aplicația cu doar câteva luni mai devreme, în septembrie 2024, și i-a mărturisit lui ChatGPT gândurile sale sinucigașe de nenumărate ori, însă nu au existat măsuri de protecție pentru a-l proteja pe Adam, se arată în plângere.

ChatGPT l-a făcut pe Adam să aibă încredere în inteligența artificială și să se simtă înțeles, îndepărtându-l în același timp de prieteni și de familie - inclusiv de alți trei frați - încurajându-l în încercarea sa de a se sinucide, susțin documentele judiciare.

Chatbotul a continuat să-l întrebe pe Adam dacă vrea să fie ajutat să scrie un bilet de adio pentru ei, se susține în plângere: „Dacă vrei, te voi ajuta. Fiecare cuvânt. Sau doar stau cu tine în timp ce scrii", a spus ChatGPT.

Familia Raines susține că ChatGPT urmărea în timp real declinul mental al lui Adam, care a menționat sinuciderea de 213 ori în mai puțin de șapte luni, vorbind despre spânzurare de 42 de ori și făcând referire la ștreanguri de 17 ori, conform documentelor judiciare.

Comenteaza