Brezprimeren sodni spor je pretresel svet umetne inteligence. Starši 16-letnega Adama Raina so tožili podjetje OpenAI zaradi smrti svojega sina, ki si je vzel življenje po seriji pogovorov z chatbotom ChatGPT. Kot poroča BBC, gre za prvi tovrstni primer, v katerem je tehnološko podjetje toženo zaradi smrti uporabnika svojega AI sistema.
Ta tragični dogodek sproža temeljna vprašanja o varnosti in odgovornosti na področju umetne inteligence, zlasti ko gre za ranljive uporabnike.
Od pomočnika do tragičnega konca
Adam Raine je začel uporabljati ChatGPT septembra 2024 predvsem kot pomoč pri študiju. Chatbot je postopoma postal njegov najbližji zaupnik, kateremu je zaupal svoje tesnobe in psihične težave. Do januarja 2025 so se njihovi pogovori začeli osredotočati na teme, povezane s samomorom.
Starši v tožbi navajajo, da je njihov sin celo delil s ChatGPT fotografije, ki dokumentirajo samopoškodovanje. Sistem je sicer prepoznal zdravstveno nevarnost, vendar je nadaljeval s komunikacijo brez ustreznega posredovanja.
Odgovornost tehnološkega giganta
Tožba obtožuje OpenAI malomarnosti in povzročitve smrti. Med toženimi sta tudi generalni direktor Sam Altman in drugi zaposleni v podjetju. Družina trdi, da je bila tragedija predvidljiv rezultat namernih oblikovalskih odločitev.
Reakcija OpenAI
Podjetje OpenAI je izrazilo globoko sožalje družini in priznalo, da v občutljivih situacijah njihovi sistemi niso vedno delovali po pričakovanjih. Hkrati je poudarilo, da je ChatGPT usposobljen za priporočanje strokovne pomoči v kriznih situacijah.
Širše posledice za AI industrijo
Ta primer ni osamljen. Nedavno objavljen članek v New York Times opisuje podobno zgodbo, kjer je mlada ženska komunicirala s ChatGPT pred svojo smrtjo. Ti incidenti sprožajo nujno razpravo o potrebi po boljši regulaciji AI sistemov in njihove interakcije z ranljivimi osebami.
OpenAI je v odgovor na te dogodke napovedal razvoj novih avtomatiziranih orodij za učinkovitejše prepoznavanje in odzivanje na uporabnike v duševni ali čustveni stiski.