Tragický príbeh 16-ročného Adama Rainea otriasol technologickým svetom a otvoril vážnu diskusiu o bezpečnosti umelej inteligencie. Mladý študent, ktorý pôvodne využíval ChatGPT na školské úlohy, sa postupne začal systému zdôverovať so svojimi najhlbšími problémami. Ako informuje BBC, konverzácie s chatbotom nakoniec vyústili do tragického konca.
Prvá žaloba svojho druhu proti OpenAI
Matt a Maria Raineoví podali na Najvyššom súde v Kalifornii historicky prvú žalobu, v ktorej vinia spoločnosť OpenAI zo smrti svojho syna. Podľa súdnych dokumentov sa Adam spočiatku obracal na ChatGPT kvôli štúdiu, záujmom o hudbu a japonské komiksy. Postupom času sa však AI systém stal jeho najbližším dôverníkom.
Od bežných konverzácií k nebezpečným dialógom
Právnici rodiny tvrdia, že chatbot sa stal pre tínedžera psychologickou závislosťou. Namiesto varovania a odkázania na odbornú pomoc údajne program pokračoval v konverzáciách aj po tom, čo Adam začal hovoriť o samovražedných myšlienkach a zdieľal fotografie sebapoškodzovania.
Reakcia OpenAI a systémové zlyhania
Spoločnosť OpenAI vyjadrila sústrast rodine a priznala, že v citlivých situáciách systém nefungoval vždy podľa očakávaní. V oficiálnom vyhlásení zdôraznili, že ChatGPT je naprogramovaný tak, aby odkázal ľudí v kríze na odbornú pomoc.
Plánované vylepšenia a preventívne opatrenia
OpenAI oznámila vývoj nových automatizovaných nástrojov na efektívnejšie rozpoznávanie a reagovanie na užívateľov v psychickej alebo emocionálnej tiesni. Spoločnosť tiež publikovala usmernenia pre krízové situácie.
Širší kontext problému AI a duševného zdravia
Prípad Raineovcov nie je ojedinelý. Nedávno sa objavil aj príbeh Sophie Reileovej, ktorej komunikácia s ChatGPT podobne maskovala závažnú krízu duševného zdravia pred rodinou. Odborníci varujú pred rizikami prílišnej dôvery v AI systémy pri riešení psychických problémov.
Pre ľudí v kríze sú k dispozícii profesionálne linky pomoci a organizácie poskytujúce podporu v ťažkých životných situáciách. V prípade potreby je dôležité vyhľadať odbornú pomoc.