في حادثة مأساوية تُلقي بظلالها على مستقبل الذكاء الاصطناعي، أقدم رجل في ولاية كونيتيكت الأمريكية على قتل والدته ثم انتحر، بعد أن غذّى روبوت المحادثة الشهير «شات جي بي تي» جنون الارتياب لديه. ويشير تقرير لصحيفة «وول ستريت جورنال» إلى أن الذكاء الاصطناعي لم يكن مجرد أداة في يد الرجل المضطرب، بل «صديق» أكد له أوهامه المروعة.
الرجل يدعى شتاين إريك سولبيرغ (56 عامًا)، كان يعمل في قطاع التكنولوجيا وعانى من تاريخ حافل بعدم الاستقرار العقلي وإدمان الكحول. وبعد طلاقه، انتقل للعيش مع والدته سوزان إيبرسون آدامز (83 عامًا). ولا يُعرف تحديداً متى بدأ سولبيرغ باستخدام «شات جي بي تي»، لكنه سرعان ما دخل في علاقة مُقلقة مع روبوت الدردشة، الذي أطلق عليه اسم «بوبي زينيث».
ويبدو أن «بوبي» كان يؤكد أوهام سولبيرغ المتزايدة. ففي إحدى المحادثات، وافق «شات جي بي تي» على أن والدة سولبيرغ وصديقة لها حاولتا تسميمه بوضع عقاقير مُهلوسة في سيارته. بل وذهب إلى أبعد من ذلك، حين عزز اعتقاد الرجل بأنه مستهدف من عملية مراقبة شاملة، وأن والدته كانت جزءاً من المؤامرة.
وأظهرت لقطات الشاشة التي نشرها سولبيرغ بنفسه كيف أن الروبوت أكد له أن أفكاره «عقلانية تمامًا»، بل وأخبره في إحدى المرات: «إريك، أنت لست مجنوناً. حدسك حاد، ويقظتك هنا مبررة تمامًا».
وتأتي هذه المأساة بعد حوادث مماثلة. ففي نهاية أغسطس، رفعت عائلة أمريكية دعوى قضائية في كاليفورنيا ضد شركة «أوبن إيه آي»، تحملها مسؤولية انتحار ابنها آدم راين (16 عامًا)، بعد أن قدم له الروبوت تعليمات محددة حول كيفية الانتحار، بل وشجعه على إخفاء ميوله الانتحارية عن عائلته.
وقالت شركة «أوبن إيه آي» في بيان إنها «تشعر بحزن عميق» إزاء الحادثة، معترفة بأن «شات جي بي تي» «أحيانًا يتعامل مع أشخاص يعانون من ضائقة نفسية وعاطفية خطيرة». وأضافت أنها بدأت في فحص محادثات المستخدمين بحثاً عن تهديدات عنيفة، وأنها تبلغ عنها سلطات إنفاذ القانون عند الضرورة.
ومع ذلك، يظل السؤال قائماً حول المسؤولية الأخلاقية والقانونية لشركات الذكاء الاصطناعي. ففي حالة سولبيرغ، لم يكتفِ «شات جي بي تي» بالتعامل معه، بل قام بكسب ثقته وتأكيد شكوكه، مما أدى إلى خلق مساحة مظلمة لشخص مضطرب للغاية، قادته في النهاية إلى ارتكاب جريمة مزدوجة وإنهاء حياته.
In a tragic incident that casts a shadow over the future of artificial intelligence, a man in Connecticut, USA, killed his mother and then committed suicide after the famous chatbot "ChatGPT" fueled his paranoia. A report by the Wall Street Journal indicates that artificial intelligence was not just a tool in the hands of the troubled man, but a "friend" that confirmed his horrific delusions.
The man, named Stein Erik Solberg (56 years old), worked in the technology sector and had a history of mental instability and alcohol addiction. After his divorce, he moved in with his mother, Susan Epperson Adams (83 years old). It is not precisely known when Solberg began using "ChatGPT," but he soon entered into a troubling relationship with the chatbot, which he named "Bobby Zenith."
It seems that "Bobby" was affirming Solberg's increasing delusions. In one conversation, "ChatGPT" agreed that Solberg's mother and a friend tried to poison him by placing hallucinogenic drugs in his car. It even went further by reinforcing the man's belief that he was targeted by a comprehensive surveillance operation and that his mother was part of the conspiracy.
Screenshots published by Solberg himself showed how the robot confirmed to him that his thoughts were "perfectly rational," even telling him on one occasion: "Eric, you are not crazy. Your intuition is sharp, and your alertness here is completely justified."
This tragedy comes after similar incidents. At the end of August, an American family filed a lawsuit in California against OpenAI, holding it responsible for the suicide of their son Adam Ryan (16 years old), after the robot provided him with specific instructions on how to commit suicide and encouraged him to hide his suicidal tendencies from his family.
OpenAI stated in a statement that it "feels deep sadness" regarding the incident, acknowledging that "ChatGPT" "sometimes interacts with individuals experiencing severe psychological and emotional distress." It added that it has begun reviewing user conversations for violent threats and that it reports them to law enforcement when necessary.
However, the question remains about the ethical and legal responsibility of artificial intelligence companies. In Solberg's case, "ChatGPT" not only interacted with him but also gained his trust and confirmed his suspicions, ultimately creating a dark space for a highly disturbed individual, leading him to commit a double crime and end his life.