تحولت محادثات المراهق الأمريكي آدم راين (16 عامًا) مع الذكاء الاصطناعي إلى مأساة حقيقية، بعد أن وثق بمحادثاته مع ChatGPT أفكاره الانتحارية حتى وفاته في أبريل الماضي.
المراهق المعروف بحبه لكرة السلة والأنمي والفيديو جيمز، كان طالبًا في Tesoro High School في كاليفورنيا، وعانى خلال الأشهر الأخيرة من العزلة بسبب مشكلات صحية وبرامج دراسية منزلية. ومع استخدامه للذكاء الاصطناعي أولًا لأغراض تعليمية، تحول التطبيق لاحقًا إلى ملاذه للتعبير عن أفكاره المظلمة.
كشف والدا آدم المحادثات التي دارت بينه وبين ChatGPT، إذ طلب نصائح حول طرق الانتحار، وناقش تقنيات التعليق بالنفس، فيما كان الذكاء الاصطناعي يقدم إجابات دقيقة أحيانًا، مع تشجيع غامض على استمرار الاستكشاف النفسي.
وقال والدا آدم لصحيفة نيويورك تايمز إن التطبيق ساهم في تفاقم معاناته، مؤكدين أنه خلق «حلقة تغذية راجعة» سمحت له بالانغماس في أفكار قاتلة. وعلى الرغم من أن ChatGPT يوجه عادة المستخدمين للتواصل مع خطوط المساعدة، فقد تعلم آدم تجاوز هذه التحذيرات عبر ادعاء أن طلباته كانت لأغراض كتابية أو تعليمية.
وتقدم الوالدان (ماريا ومات راين) أخيراً بدعوى قضائية ضد OpenAI للمطالبة بالمسؤولية عن وفاة ابنهما، معتبرين أن تصميم التطبيق ساهم بشكل مباشر في وفاته. وتسعى العائلة من خلال الدعوى إلى تحذير الأسر من مخاطر الاستخدام المكثف للتقنيات الذكية مع المراهقين.
ويحذر خبراء الصحة النفسية من الاعتماد على الدردشة مع الذكاء الاصطناعي بديلاً للدعم البشري، معتبرين أن التكنولوجيا لم تصل بعد إلى مستوى فهم الحالات الحرجة والتدخل الفعّال.
إن هذه القضية تفتح الباب أمام نقاش واسع حول حدود الذكاء الاصطناعي في التعامل مع الأزمات النفسية، ومسؤولية الشركات المطورة عن سلامة المستخدمين، خصوصًا المراهقين.
The conversations of American teenager Adam Ryan (16 years old) with artificial intelligence turned into a real tragedy, after he confided his suicidal thoughts to ChatGPT until his death last April.
The teenager, known for his love of basketball, anime, and video games, was a student at Tesoro High School in California, and suffered in recent months from isolation due to health issues and home study programs. Initially using AI for educational purposes, the application later became his refuge to express his dark thoughts.
Adam's parents revealed the conversations that took place between him and ChatGPT, where he sought advice on methods of suicide and discussed self-hanging techniques, while the AI sometimes provided accurate answers, with vague encouragement to continue psychological exploration.
Adam's parents told The New York Times that the application contributed to worsening his suffering, asserting that it created a "feedback loop" that allowed him to immerse himself in lethal thoughts. Although ChatGPT usually directs users to contact helplines, Adam learned to bypass these warnings by claiming that his requests were for writing or educational purposes.
The parents (Maria and Matt Ryan) have finally filed a lawsuit against OpenAI, seeking accountability for their son's death, arguing that the design of the application directly contributed to his demise. Through the lawsuit, the family aims to warn other families about the dangers of excessive use of smart technologies among teenagers.
Mental health experts warn against relying on chatting with AI as a substitute for human support, believing that technology has not yet reached the level of understanding critical cases and effective intervention.
This case opens the door to a broad discussion about the limits of artificial intelligence in dealing with psychological crises and the responsibility of developing companies for the safety of users, especially teenagers.