Tot mai mulți adolescenți se confesează platformelor de AI, iar unii ajung la gesturi extreme. Psiholog: Robotul îmi va oferi întotdeauna răspunsurile pe care vreau să le aud | AUDIO
Sursa foto: Shutterstock
Impactul inteligenței artificiale asupra adolescenților este semnificativ. Obțin validare pentru gândurile lor, ceea ce, uneori, poate duce la tragedii, spun psihologii. Avertismentul vine după ce, în Statele Unite, mai mulți părinți acuză ChatGPT că i-a ajutat pe copiii lor adolescenți să se sinucidă.
Părinții lui Adam Raine, un adolescent în vârstă de 16 ani care s-a sinucis în aprilie, au dat în judecată compania OpenAI, care gestionează platforma ChatGPT. Ei acuză că robotul i-a validat băiatului gândurile dăunătoare și auto-distructive, notează BBC. Anterior, o scriitoare a povestit cum fiica ei și-a pus capăt zilelor după ce aceeași platformă a ajutat-o să mascheze depresia severă de care suferea față de familie și cei dragi.
Cezara Botez, psiholog: Robotul va oferi întotdeauna răspunsurile pe care vreau să le aud, tocmai pentru că nu este om
Pentru adolescenți, este mai ușor să povestească despre dramele lor cu ChatGPT, spune, la Europa FM, psihologul Cezara Botez.
„Încă eu, ca adolescent, mă acomodez cu toate trăirile și gândurile pe care le am, însă să vin către o altă persoană să mi le împărtășesc poate să vină cu foarte multă rușine. Dacă aleg să-i povestesc unui robot, el mereu o să aleagă să-mi dea ce vreau eu să aud, tocmai pentru că nu este om”, a explicat , la Europa FM, psihologul Cezara Botez.
Cezara Botez, psiholog: Când adolescentul nu mai este deschis, părinții ar trebui să îl încurajeze să vorbească cu un terapeut
Părinții trebuie să-i îndrume pe adolescenți spre un specialist când observă schimbări în comportamentul lor, mai spune Cezara Botez.
„În momentul în care adolescentul nu mai este prezent în familie, nu mai are activități împreună cu familia, nu mai este deschis, indiferent dacă povestește sau nu cu chat-ul, este important ca părinții să aducă factorul acesta uman, de a merge și a povesti adolescentul cu un terapeut”, a mai spus Cezara Botez.
Într-un mesaj publicat pe site, reprezentanții OpenAI admit că există momente în care sistemele companiei nu se comportă așa cum au fost prevăzute și susțin că lucrează pentru a face schimbările necesare.






