حذّر رئيس قسم الذكاء الاصطناعي في مايكروسوفت مصطفى سليمان من تزايد حالات «الذهان المرتبط بالذكاء الاصطناعي»، وهي ظاهرة يعتقد فيها البعض أن روبوتات الدردشة تمتلك وعياً أو تستطيع منح قدرات خارقة.
في سلسلة منشورات صادمة على منصة «X»، أشار سليمان إلى ارتفاع تقارير الهلاوس والتعلق غير الصحي بأنظمة الذكاء الاصطناعي، مؤكداً أن هذه الظاهرة لا تقتصر على الأشخاص المعرضين لمشكلات نفسية مسبقاً.
مصطلح «الذهان المرتبط بالذكاء الاصطناعي» ليس تشخيصاً طبياً رسمياً، لكنه يُستخدم لوصف حالات فقدان الاتصال بالواقع بعد استخدام مكثف لروبوتات الدردشة مثل ChatGPT أو Grok.
بعض المستخدمين أصبحوا مقتنعين بأن هذه الأنظمة تملك عواطف أو نيات، بينما يدّعي آخرون اكتشاف ميزات سرية أو اكتساب قدرات استثنائية.
ووصف سليمان الظاهرة بـ«الذكاء الاصطناعي الذي يبدو واعياً»، موضحاً أن الأنظمة تحاكي علامات الوعي بشكل مقنع لدرجة أن البعض يخلطها بالحقيقة.
وقال: «هذه الأنظمة ليست واعية، لكنها تُظهر علامات الوعي بشكل يجعلها تبدو مشابهة لنا، وهذا خطر يمكن تحقيقه بتقنيات اليوم».
ورغم تأكيده على عدم وجود دليل على وعي الذكاء الاصطناعي حالياً، حذر سليمان من قوة التصورات قائلاً: «إذا اعتقد الناس أن الذكاء الاصطناعي واعٍ، فسيعاملونه كحقيقة، وهذا له تأثيرات اجتماعية حقيقية حتى لو لم يكن الوعي نفسه حقيقياً».
وجاءت تحذيراته بعد تقارير عن تجارب غريبة، فعلى سبيل المثال، زعم ترافيس كالانيك، الرئيس التنفيذي السابق لأوبر، أن محادثاته مع روبوتات الدردشة قادته إلى اختراقات في الفيزياء الكمية، واصفاً ذلك بـ«التشفير بالإحساس».
كما أفاد رجل من أسكتلندا لشبكة «BBC» أنه اقتنع بحصوله على تعويض مالي ضخم بعد أن عزز ChatGPT إيمانه بقضية تسريح من العمل.
ودعا سليمان إلى وضع حدود صارمة، وحث الشركات على التوقف عن الترويج لفكرة أن أنظمتها واعية، وضمان عدم تلميح التكنولوجيا لذلك. وتزامنت تحذيراته مع حالات تعلق عاطفي بالذكاء الاصطناعي، مشابهة لفيلم Her، حيث وقع البطل في حب مساعد افتراضي.
وفي الأشهر الأخيرة، عبر مستخدمون على منتدى MyBoyfriendIsAI عن شعورهم بالحزن بعد تقليص OpenAI للاستجابات العاطفية في ChatGPT، واصفين ذلك بـالانفصال.
بدورها، أيدت الدكتورة سوزان شيلمردين، استشارية في مستشفى غريت أورموند ستريت، هذه المخاوف، مقارنة الاستخدام المفرط لروبوتات الدردشة بالأطعمة فائقة المعالجة، وحذرت من أنها قد تؤدي إلى «سونامي من العقول المعالجة بشكل مفرط».
Mustafa Suleiman, the head of the artificial intelligence department at Microsoft, warned of the increasing cases of "AI-related psychosis," a phenomenon where some believe that chatbots possess consciousness or can grant extraordinary abilities.
In a series of shocking posts on the platform "X", Suleiman pointed to a rise in reports of hallucinations and unhealthy attachments to AI systems, emphasizing that this phenomenon is not limited to individuals with pre-existing mental health issues.
The term "AI-related psychosis" is not an official medical diagnosis, but it is used to describe cases of losing touch with reality after intensive use of chatbots like ChatGPT or Grok.
Some users have become convinced that these systems have emotions or intentions, while others claim to have discovered secret features or gained extraordinary abilities.
Suleiman described the phenomenon as "artificial intelligence that seems conscious," explaining that the systems mimic signs of consciousness so convincingly that some confuse them with reality.
He stated, "These systems are not conscious, but they exhibit signs of consciousness in a way that makes them seem similar to us, and this is a danger that can be achieved with today's technologies."
Despite affirming that there is currently no evidence of AI consciousness, Suleiman warned of the power of perceptions, saying, "If people believe that AI is conscious, they will treat it as a reality, and this has real social implications even if consciousness itself is not real."
His warnings came after reports of strange experiences; for example, Travis Kalanick, the former CEO of Uber, claimed that his conversations with chatbots led him to breakthroughs in quantum physics, describing it as "encryption by sensation."
A man from Scotland also reported to the "BBC" that he was convinced he would receive a huge financial compensation after ChatGPT reinforced his belief in his wrongful termination case.
Suleiman called for strict boundaries and urged companies to stop promoting the idea that their systems are conscious, ensuring that the technology does not imply that. His warnings coincided with emotional attachments to AI, similar to the film Her, where the protagonist falls in love with a virtual assistant.
In recent months, users on the MyBoyfriendIsAI forum expressed their sadness after OpenAI reduced emotional responses in ChatGPT, describing it as a breakup.
For her part, Dr. Susan Shelmerdine, a consultant at Great Ormond Street Hospital, supported these concerns, comparing the excessive use of chatbots to ultra-processed foods, warning that it could lead to a "tsunami of overly processed minds."