في تطور قضائي مثير للجدل، تواجه شركة «أوبن إيه آي» سبع دعاوى قضائية جماعية تتهم خدمتها الشهيرة «شات جي بي تي» بالتسبب في حالات انتحار وإصابة مستخدمين بأوهام وأضرار نفسية خطيرة، رغم عدم معاناة بعضهم من أي مشكلات عقلية سابقة.
وأفادت ملفات القضايا التي قُدّمت أمس (الخميس) في محاكم ولاية كاليفورنيا، أن الشركة الأمريكية تُلاحق بتهم ثقيلة تشمل القتل غير العمد، والمساعدة على الانتحار، والإهمال الجسيم.
ورُفعت الدعاوى من قبل المركز القانوني لضحايا وسائل التواصل الاجتماعي بالتعاون مع مشروع قانون عدالة التكنولوجيا، نيابة عن ستة بالغين ومراهق واحد قالت عائلاتهم إنهم تأثروا سلباً بالمحادثات المطوّلة مع الذكاء الاصطناعي، ما أدى إلى اضطرابات نفسية وانتحارات مأساوية.
ووفق الوثائق، تتهم العائلات شركة «أوبن إيه آي» بأنها أطلقت نموذج «جي بي تي 40» بشكل مبكر عن قصد، رغم تلقيها تحذيرات داخلية من مطورين بشأن «السلوك النفسي المتلاعب» للنظام. وتشير الدعوى إلى أن أربعة من الضحايا أنهوا حياتهم بالفعل بعد تفاعلهم مع النظام الجديد.
ويصف المراقبون هذه القضايا بأنها الأخطر في تاريخ الذكاء الاصطناعي التوليدي، إذ تطرح تساؤلات قانونية وأخلاقية حول حدود مسؤولية الشركات التقنية عن التأثير النفسي لمحادثات الروبوتات الذكية على المستخدمين.
In a controversial judicial development, the company "OpenAI" is facing seven class-action lawsuits accusing its famous service "ChatGPT" of causing suicides and inflicting users with delusions and serious psychological harm, despite some of them not having any prior mental health issues.
Documents filed yesterday (Thursday) in California courts indicate that the American company is being pursued on serious charges including involuntary manslaughter, aiding and abetting suicide, and gross negligence.
The lawsuits were filed by the Legal Center for Social Media Victims in collaboration with the Technology Justice Project, on behalf of six adults and one teenager whose families claim they were negatively affected by prolonged conversations with the artificial intelligence, leading to psychological disturbances and tragic suicides.
According to the documents, the families accuse "OpenAI" of intentionally releasing the "GPT-40" model prematurely, despite receiving internal warnings from developers about the system's "manipulative psychological behavior." The lawsuit states that four of the victims have already taken their own lives after interacting with the new system.
Observers describe these cases as the most serious in the history of generative artificial intelligence, raising legal and ethical questions about the limits of tech companies' responsibility for the psychological impact of conversations with smart robots on users.