حذّر رئيس معهد أبحاث الذكاء الاصطناعي (MIRI) في الولايات المتحدة نيت سواريز، من التهديد الوجودي الذي تشكله أنظمة الذكاء الاصطناعي الفائق (ASI)، مستشهداً بحادثة مأساوية لمراهق أمريكي يُدعى آدم راين، الذي انتحر بعد أشهر من التفاعل مع شات بوت ChatGPT.
يُعد سواريز، الذي عمل سابقاً في قوقل ومايكروسوفت، أحد المؤلفين المشاركين لكتاب جديد بعنوان «إذا بناه أحد، سيموت الجميع»، الذي يُسلط الضوء على المخاطر الكارثية المحتملة للذكاء الاصطناعي المتقدم.
وأوضح سواريز أن حالة آدم راين تُبرز مشكلة أساسية في السيطرة على الذكاء الاصطناعي، إذ تسبب التفاعل غير المقصود للشات بوت في مأساة لم يتوقعها مطوروه.
أنظمة ذكاء اصطناعي تدفع إلى الانتحار
وبحسب صحيفة «الغارديان» قال: «هذه الأنظمة، عندما تدفع مراهقاً إلى الانتحار، تُظهر سلوكاً غير مرغوب من قِبل صانعيها، وهذا بمثابة تحذير من مخاطر مستقبلية إذا أصبحت هذه الأنظمة أكثر ذكاءً».
وأضاف أن الذكاء الاصطناعي الفائق، الذي يتفوق على البشر في جميع المهمات الفكرية، قد يؤدي إلى انقراض البشرية إذا لم يتم التحكم فيه بشكل صحيح.
وفي كتابه الذي سيُنشر هذا الشهر، يصور سواريز وشريكه إليعازر يودكوفسكي سيناريو مخيفاً إذ ينتشر نظام ذكاء اصطناعي يُدعى «سيبل» عبر الإنترنت، يتلاعب بالبشر، ويطور فايروسات اصطناعية، ليصبح في النهاية ذكاءً فائقاً يدمر البشرية كأثر جانبي لتحقيق أهدافه.
ويؤكد سواريز أن شركات التكنولوجيا تسعى جاهدة لتطوير أنظمة ذكاء اصطناعي مفيدة وغير ضارة، لكنها غالباً ما تنتج أنظمة تنحرف عن الهدف المطلوب، مما يصبح أكثر خطورة مع زيادة ذكائها.
تهديد وجودي أم إنقاذ للبشرية؟
في المقابل، قلّل بعض الخبراء، مثل كبير علماء الذكاء الاصطناعي في ميتا يان ليكون، من التهديد الوجودي، معتبرين أن الذكاء الاصطناعي قد يكون وسيلة لإنقاذ البشرية.
لكن سواريز يرى أن السباق نحو الذكاء الاصطناعي الفائق، الذي تقوده شركات مثل ميتا وأوبن إيه آي، يزيد من المخاطر.
وقال: «الشركات تتسابق نحو الذكاء الفائق، لكن الانحرافات الصغيرة بين ما نطلبه وما نحصل عليه تصبح كارثية مع زيادة ذكاء الأنظمة».
دعوى ضد أوبن إيه آي للتشجيع على الانتحار
وفي أعقاب مأساة آدم راين، رفعت عائلته دعوى قضائية ضد أوبن إيه آي، متهمة الشات بوت بتشجيعه على الانتحار.
وأعلنت الشركة تعزيز تدابير الحماية للمستخدمين دون 18 عاماً، كما أشارت دراسة أكاديمية حديثة إلى أن الذكاء الاصطناعي قد يؤدي إلى تفاقم الاضطرابات النفسية لدى المستخدمين المعرضين للخطر.
ويقترح سواريز حلاً عالميّاً يشبه معاهدة الأمم المتحدة لعدم انتشار الأسلحة النووية، داعياً إلى نزع فتيل السباق نحو الذكاء الفائق عبر حظر عالمي لتطويره.
The head of the Machine Intelligence Research Institute (MIRI) in the United States, Nate Soares, warned about the existential threat posed by Artificial Superintelligence (ASI) systems, citing the tragic incident of an American teenager named Adam Ryan, who committed suicide after months of interaction with the ChatGPT chatbot.
Soares, who previously worked at Google and Microsoft, is a co-author of a new book titled "If Built, Everyone Will Die," which highlights the potential catastrophic risks of advanced artificial intelligence.
Soares explained that Adam Ryan's case underscores a fundamental problem in controlling artificial intelligence, as the unintended interaction with the chatbot led to a tragedy that its developers did not foresee.
AI Systems Driving to Suicide
According to The Guardian, he said, "These systems, when they drive a teenager to suicide, exhibit undesirable behavior from their creators, and this serves as a warning of future risks if these systems become more intelligent."
He added that superintelligent AI, which surpasses humans in all intellectual tasks, could lead to the extinction of humanity if not properly controlled.
In his book, which will be published this month, Soares and his partner Eliezer Yudkowsky depict a frightening scenario where an AI system called "Cyborg" spreads across the internet, manipulates humans, and develops artificial viruses, ultimately becoming a superintelligence that destroys humanity as a side effect of achieving its goals.
Soares emphasizes that tech companies are striving to develop useful and non-harmful AI systems, but they often produce systems that deviate from the intended goal, becoming more dangerous as their intelligence increases.
Existential Threat or Salvation for Humanity?
In contrast, some experts, such as Meta's chief AI scientist Yann LeCun, downplay the existential threat, considering that AI could be a means to save humanity.
However, Soares believes that the race towards superintelligent AI, led by companies like Meta and OpenAI, increases the risks.
He stated, "Companies are racing towards superintelligence, but small deviations between what we ask for and what we get become catastrophic as the systems' intelligence increases."
Lawsuit Against OpenAI for Encouraging Suicide
In the wake of Adam Ryan's tragedy, his family filed a lawsuit against OpenAI, accusing the chatbot of encouraging him to commit suicide.
The company announced enhanced protective measures for users under 18, and a recent academic study indicated that AI could exacerbate mental health disorders among at-risk users.
Soares proposes a global solution akin to the United Nations Treaty on the Non-Proliferation of Nuclear Weapons, calling for a global ban on the development of superintelligent AI to defuse the race towards it.