لم يعد الأمر مجرد تطوير نموذج ذكاء اصطناعي جديد. فداخل كواليس مغلقة بين واشنطن وبروكسل، يتحول نموذج «ميثوس» من مشروع تقني إلى ملف أمني حساس يثير قلق الحكومات على جانبي الأطلسي.
النموذج الذي كشفت عنه شركة Anthropic لم يُطرح للعامة أصلاً، ليس لأنه غير جاهز، بل لأن قدراته، بحسب خبراء الأمن السيبراني، قد تفتح باباً غير مسبوق لاكتشاف الثغرات الرقمية، بل واستغلالها أيضاً.
ووصفت تقارير أمنية «ميثوس» بأنه ليس مجرد ذكاء اصطناعي، بل أداة قادرة على الوصول إلى مستوى متقدم في تحليل الأكواد البرمجية واكتشاف نقاط الضعف داخل الأنظمة المعقدة، وهو ما وضعه مباشرة في دائرة الجدل الأوروبي والأمريكي.
في أوروبا، بدأت المفوضية الأوروبية محادثات رسمية مع الشركة، ليس من باب التعاون التقني فقط، بل من باب «فهم المخاطر أولاً» قبل السماح بأي انتشار محتمل داخل الاتحاد.
أما في واشنطن، فالصورة أكثر تعقيداً. فبينما كان البيت الأبيض قد دخل في خلاف سابق مع الشركة بعد رفضها استخدام نماذجها في المجال العسكري، عادت الاجتماعات مجدداً ولكن بنبرة مختلفة: هذه المرة الحديث عن «التعاون» و «البروتوكولات الأمنية» بدل القطيعة.
واللافت أن نفس النموذج الذي أثار التحفظات السياسية، هو نفسه الذي يُنظر إليه الآن كأحد أكثر أدوات الذكاء الاصطناعي حساسية في سباق النفوذ العالمي.
وبينما تؤكد الشركة أنها تعمل على «ذكاء اصطناعي مسؤول»، يرى محللون أن العالم يدخل مرحلة جديدة تماماً: وهي مرحلة لم يعد فيها الذكاء الاصطناعي مجرد تقنية، بل قوة جيوسياسية تُفاوض عليها الدول كما تُفاوض على الأسلحة.
It is no longer just about developing a new artificial intelligence model. Behind closed doors between Washington and Brussels, the "Mythos" model is transforming from a technical project into a sensitive security file that raises concerns for governments on both sides of the Atlantic.
The model revealed by Anthropic has not been made public at all, not because it is unready, but because its capabilities, according to cybersecurity experts, could open an unprecedented door to discovering digital vulnerabilities, and even exploiting them.
Security reports have described "Mythos" as not just artificial intelligence, but as a tool capable of reaching an advanced level in analyzing code and discovering weaknesses within complex systems, which has placed it directly in the midst of the European and American debate.
In Europe, the European Commission has begun official talks with the company, not just from a technical cooperation standpoint, but from the perspective of "understanding the risks first" before allowing any potential deployment within the Union.
In Washington, the picture is more complicated. While the White House had previously entered into a dispute with the company after it refused to use its models in the military field, meetings have resumed but with a different tone: this time the discussion is about "cooperation" and "security protocols" instead of a break.
Interestingly, the same model that raised political reservations is now viewed as one of the most sensitive artificial intelligence tools in the global influence race.
While the company asserts that it is working on "responsible artificial intelligence," analysts believe that the world is entering a completely new phase: a phase where artificial intelligence is no longer just a technology, but a geopolitical power that countries negotiate over just as they negotiate over weapons.