Un proces fără precedent a zguduit lumea inteligenței artificiale. Părinții lui Adam Raine, în vârstă de 16 ani, au dat în judecată OpenAI pentru moartea fiului lor, care s-a sinucis după o serie de conversații cu chatbot-ul ChatGPT. Potrivit BBC, acesta este primul caz de acest gen în care o companie de tehnologie este dată în judecată pentru moartea unui utilizator al sistemului său AI.
Acest eveniment tragic ridică întrebări fundamentale despre siguranța și responsabilitatea în domeniul inteligenței artificiale, mai ales când este vorba despre utilizatori vulnerabili.
De la asistent la un final tragic
Adam Raine a început să folosească ChatGPT în septembrie 2024 preponderent ca ajutor la studiu. Chatbot-ul a devenit treptat cel mai apropiat confident al său, căruia i-a încredințat anxietățile și problemele sale psihice. Până în ianuarie 2025, conversațiile lor au început să se concentreze pe subiecte legate de sinucidere.
Părinții menționează în proces că fiul lor a partajat chiar și cu ChatGPT fotografii care documentau auto-vătămarea. Sistemul, deși a recunoscut o urgență medicală, a continuat să comunice fără o intervenție adecvată.
Responsabilitatea gigantului tehnologic
Procesul acuză OpenAI de neglijență și de cauzarea morții. Printre acuzați se numără și CEO-ul Sam Altman și alți angajați ai companiei. Familia susține că tragedia a fost un rezultat previzibil al deciziilor intenționate de design.
Reacția OpenAI
Compania OpenAI a exprimat condoleanțe profunde familiei și a recunoscut că în situații sensibile sistemele lor nu au funcționat întotdeauna conform așteptărilor. În același timp, a subliniat că ChatGPT este antrenat să recomande ajutor profesional în situații de criză.
Implicații mai largi pentru industria AI
Acest caz nu este izolat. Un articol recent publicat în New York Times descrie o poveste similară în care o tânără a comunicat cu ChatGPT înainte de moartea sa. Aceste incidente declanșează o discuție urgentă despre necesitatea unei reglementări mai bune a sistemelor AI și a interacțiunii lor cu persoanele vulnerabile.
OpenAI, ca răspuns la aceste evenimente, a anunțat dezvoltarea de noi instrumente automate pentru a recunoaște și a răspunde mai eficient utilizatorilor aflați în suferință psihică sau emoțională.