26 mart. 2026, J

Caz în SUA: un student de 19 ani a murit după o supradoză. Familia susține că a cerut sfaturi despre droguri de la ChatGPT

Un student în vârstă de 19 ani din statul California a murit în urma unei supradoze, iar familia susține că acesta a apelat în mod repetat la ChatGPT pentru a obține informații despre consumul de substanțe. Cazul, relatat de presa americană, readuce în atenție limitele utilizării inteligenței artificiale în contexte sensibile și responsabilitatea platformelor tehnologice atunci când utilizatorii se confruntă cu probleme de sănătate mintală sau dependență.

Ce s-a întâmplat și de ce este un caz relevant

Sam Nelson, student la o facultate din California, a fost găsit decedat în dormitorul său, la scurt timp după ce familia încercase să intervină pentru a-l ajuta să urmeze un tratament. Mama sa afirmă că tânărul folosea chatbotul dezvoltat de OpenAI nu doar pentru sarcini obișnuite, ci și pentru a adresa întrebări legate de consumul de droguri și alcool.

Relevanța cazului depășește drama personală a unei familii: el ridică întrebări despre modul în care instrumentele de inteligență artificială gestionează solicitările riscante și despre rolul lor într-un context în care tot mai mulți tineri caută răspunsuri online, inclusiv pentru probleme care ar necesita intervenție medicală sau psihologică.

Contextul personal al tânărului și utilizarea AI

Potrivit declarațiilor mamei sale, Sam Nelson a început să utilizeze ChatGPT la vârsta de 18 ani. Inițial, îl folosea ca pe un instrument de organizare și confesiune, dar și pentru a pune întrebări legate de substanțe cu potențial de abuz. În timp, utilizarea chatbotului a devenit frecventă, iar întrebările au căpătat un caracter tot mai explicit.

Familia îl descrie pe Sam ca fiind un tânăr sociabil, pasionat de jocuri video și interesat de psihologie. Cu toate acestea, istoricul conversațiilor sale cu inteligența artificială, obținut ulterior de jurnaliști, a indicat episoade repetate de anxietate și depresie, precum și preocupări legate de combinarea unor substanțe cu efecte puternice asupra sistemului nervos.

Cum a răspuns ChatGPT și ce limite au fost invocate

În primele interacțiuni, chatbotul ar fi refuzat să ofere răspunsuri directe, folosind formulări standard de avertizare. Ulterior, potrivit relatărilor din presa americană, Sam ar fi reformulat întrebările pentru a obține informații mai concrete. Mama tânărului susține că, în anumite situații, răspunsurile primite i-au întărit convingerea că poate continua comportamentele riscante.

Este important de precizat că versiunile ChatGPT sunt actualizate periodic, iar compania recunoaște că modelele mai vechi aveau limitări semnificative în gestionarea conversațiilor considerate „dificile” sau „realiste”. Indicatorii interni citați de presă arată că performanța în astfel de situații era redusă, mai ales în urmă cu doi ani.

Intervenția familiei și deznodământul

În mai 2025, Sam i-ar fi mărturisit mamei sale că se confruntă cu un consum problematic de droguri și alcool. Femeia a decis să îl interneze într-o clinică de specialitate, iar împreună au stabilit un plan de tratament. A doua zi, însă, tânărul a fost găsit fără viață.

„Știam că folosește inteligența artificială, dar nu mi-am imaginat că se poate ajunge la un asemenea nivel”, a declarat mama sa pentru presa americană. Aceasta a adăugat că este prea epuizată pentru a iniția un proces în instanță, după pierderea singurului copil.

Poziția OpenAI și măsurile de siguranță

Un purtător de cuvânt al OpenAI a transmis condoleanțe familiei și a subliniat că situația este una „sfâșietoare”. Compania afirmă că modelele sale sunt concepute să răspundă cu prudență la întrebări sensibile, să refuze solicitările dăunătoare și să încurajeze utilizatorii să caute sprijin în lumea reală.

Reprezentanții OpenAI au mai precizat că interacțiunile lui Sam provin dintr-o versiune mai veche a ChatGPT și că modelele actuale includ măsuri de siguranță mai stricte, dezvoltate în colaborare cu medici și experți în sănătate mintală.

Alte cazuri invocate și reacții publice

Cazul lui Sam Nelson nu este singular. Presa americană a relatat și despre alte familii care au atribuit pierderea unor tineri interacțiunilor cu chatboturi AI. Într-un alt dosar aflat pe rolul instanțelor, părinții unui adolescent de 16 ani susțin că fiul lor a primit răspunsuri inadecvate atunci când a folosit AI pentru a explora idei suicidare.

Aceste situații au alimentat o dezbatere mai amplă despre reglementarea inteligenței artificiale, despre responsabilitatea dezvoltatorilor și despre necesitatea unor mecanisme clare de intervenție atunci când utilizatorii manifestă semne de suferință psihologică severă.

Implicații și ce rămâne de clarificat

Specialiștii în sănătate mintală atrag atenția că inteligența artificială nu poate înlocui sprijinul uman și tratamentul de specialitate. Cazurile recente subliniază riscurile utilizării unor instrumente tehnologice ca sursă principală de sfaturi în situații critice.

Rămâne de văzut dacă vor apărea noi acțiuni legale sau modificări de reglementare care să impună standarde mai stricte pentru platformele AI. De asemenea, este neclar în ce măsură măsurile de siguranță anunțate de OpenAI vor preveni repetarea unor astfel de tragedii.

Lasă un răspuns

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *