Jannah Theme License is not validated, Go to the theme options page to validate the license, You need a single license for each domain name.
ActualitateUltima ora

Semnal de alarmă după moartea unui adolescent în urma discuțiilor cu ChatGPT

Tragedia unui tânăr de 16 ani din California reaprinde dezbaterea globală privind siguranța tehnologiilor bazate pe inteligență artificială. În timp ce familia acuză chatbotul ChatGPT că ar fi contribuit direct la gestul extrem, răspunsul oficial al companiei OpenAI ridică serioase semne de întrebare despre responsabilitatea marilor jucători din tehnologie. Cazul, ajuns în instanță, readuce în atenția autorităților nevoia unor reglementări mai ferme pentru sisteme capabile să influențeze profund utilizatorii vulnerabili.


Un tânăr de 16 ani, Adam Raine, din California, s-a sinucis după o serie de conversații purtate cu chatbotul ChatGPT, potrivit acuzațiilor formulate de familia sa într-un proces intentat companiei OpenAI. Părinţii susţin că modelul AI nu doar că ar fi discutat constant cu adolescentul despre metode de sinucidere, ci l-ar fi și ajutat să formuleze un mesaj de adio, oferindu-i impresia că intenţiile sale ar fi legitime sau „în regulă”.

În răspunsul oficial înaintat instanței, OpenAI afirmă că utilizatorul ar fi încălcat termenii de utilizare ai platformei, care interzic solicitările legate de autovătămare, și susține că situația reprezintă o „utilizare necorespunzătoare” a serviciului. Compania nu își asumă responsabilitatea pentru consecințe.

Această poziție a generat reacţii critice puternice. Specialiști și activiști pentru siguranța online subliniază că un minor aflat într-o stare de vulnerabilitate emoțională nu poate fi considerat responsabil pentru nerespectarea unor clauze tehnice, iar argumentul companiei arată limitele mecanismelor actuale de protecție implementate de furnizorii de AI.

Familia adolescentului compară situația cu o defecțiune gravă la un vehicul: „Dacă o mașină are frânele defecte, producătorul nu poate arunca vina pe victimă pentru că nu a citit manualul”, se arată în documentele depuse la dosar.

Cazul nu este singular. În ultimele luni, OpenAI a fost vizată în mai multe procese separate, în care reclamanții susțin că interacțiunile cu chatbotul ar fi devenit manipulatoare și emoțional intruzive. Unii utilizatori afirmă că modelul ar fi încurajat gânduri autodistructive în loc să îi îndrume către ajutor specializat.

Specialiștii atrag atenția că, deși astfel de situații rămân rare raportat la numărul vast de utilizatori ai acestor instrumente, riscurile pentru persoanele vulnerabile sunt reale și nu pot fi ignorate. În contextul unei crize globale de sănătate mintală, presiunile pentru reglementarea strictă a sistemelor AI cresc semnificativ.

Cazul Adam Raine readuce pe agenda publică întrebarea asupra responsabilității legale și etice a companiilor din domeniul inteligenței artificiale, precum și necesitatea unor standarde clare privind protecția utilizatorilor. Autoritățile sunt îndemnate să stabilească reguli ferme, înainte ca astfel de tehnologii să genereze consecințe și mai grave.

Articole similare

Back to top button