Sam Nelson, student la o facultate din California, a fost găsit decedat în dormitorul său, la scurt timp după ce familia încercase să intervină pentru a-l ajuta să urmeze un tratament. Mama sa afirmă că tânărul folosea chatbotul dezvoltat de OpenAI nu doar pentru sarcini obișnuite, ci și pentru a adresa întrebări legate de consumul de droguri și alcool.
Relevanța cazului depășește drama personală a unei familii: el ridică întrebări despre modul în care instrumentele de inteligență artificială gestionează solicitările riscante și despre rolul lor într-un context în care tot mai mulți tineri caută răspunsuri online, inclusiv pentru probleme care ar necesita intervenție medicală sau psihologică.
Potrivit declarațiilor mamei sale, Sam Nelson a început să utilizeze ChatGPT la vârsta de 18 ani. Inițial, îl folosea ca pe un instrument de organizare și confesiune, dar și pentru a pune întrebări legate de substanțe cu potențial de abuz. În timp, utilizarea chatbotului a devenit frecventă, iar întrebările au căpătat un caracter tot mai explicit.
Familia îl descrie pe Sam ca fiind un tânăr sociabil, pasionat de jocuri video și interesat de psihologie. Cu toate acestea, istoricul conversațiilor sale cu inteligența artificială, obținut ulterior de jurnaliști, a indicat episoade repetate de anxietate și depresie, precum și preocupări legate de combinarea unor substanțe cu efecte puternice asupra sistemului nervos.
În primele interacțiuni, chatbotul ar fi refuzat să ofere răspunsuri directe, folosind formulări standard de avertizare. Ulterior, potrivit relatărilor din presa americană, Sam ar fi reformulat întrebările pentru a obține informații mai concrete. Mama tânărului susține că, în anumite situații, răspunsurile primite i-au întărit convingerea că poate continua comportamentele riscante.
Este important de precizat că versiunile ChatGPT sunt actualizate periodic, iar compania recunoaște că modelele mai vechi aveau limitări semnificative în gestionarea conversațiilor considerate „dificile” sau „realiste”. Indicatorii interni citați de presă arată că performanța în astfel de situații era redusă, mai ales în urmă cu doi ani.
În mai 2025, Sam i-ar fi mărturisit mamei sale că se confruntă cu un consum problematic de droguri și alcool. Femeia a decis să îl interneze într-o clinică de specialitate, iar împreună au stabilit un plan de tratament. A doua zi, însă, tânărul a fost găsit fără viață.
„Știam că folosește inteligența artificială, dar nu mi-am imaginat că se poate ajunge la un asemenea nivel”, a declarat mama sa pentru presa americană. Aceasta a adăugat că este prea epuizată pentru a iniția un proces în instanță, după pierderea singurului copil.
Un purtător de cuvânt al OpenAI a transmis condoleanțe familiei și a subliniat că situația este una „sfâșietoare”. Compania afirmă că modelele sale sunt concepute să răspundă cu prudență la întrebări sensibile, să refuze solicitările dăunătoare și să încurajeze utilizatorii să caute sprijin în lumea reală.
Reprezentanții OpenAI au mai precizat că interacțiunile lui Sam provin dintr-o versiune mai veche a ChatGPT și că modelele actuale includ măsuri de siguranță mai stricte, dezvoltate în colaborare cu medici și experți în sănătate mintală.
Cazul lui Sam Nelson nu este singular. Presa americană a relatat și despre alte familii care au atribuit pierderea unor tineri interacțiunilor cu chatboturi AI. Într-un alt dosar aflat pe rolul instanțelor, părinții unui adolescent de 16 ani susțin că fiul lor a primit răspunsuri inadecvate atunci când a folosit AI pentru a explora idei suicidare.
Aceste situații au alimentat o dezbatere mai amplă despre reglementarea inteligenței artificiale, despre responsabilitatea dezvoltatorilor și despre necesitatea unor mecanisme clare de intervenție atunci când utilizatorii manifestă semne de suferință psihologică severă.
Specialiștii în sănătate mintală atrag atenția că inteligența artificială nu poate înlocui sprijinul uman și tratamentul de specialitate. Cazurile recente subliniază riscurile utilizării unor instrumente tehnologice ca sursă principală de sfaturi în situații critice.
Rămâne de văzut dacă vor apărea noi acțiuni legale sau modificări de reglementare care să impună standarde mai stricte pentru platformele AI. De asemenea, este neclar în ce măsură măsurile de siguranță anunțate de OpenAI vor preveni repetarea unor astfel de tragedii.

