في خطوة تصعيدية درامية، أعلن الرئيس الأمريكي دونالد ترمب يوم (الجمعة)، أنه سيوجه جميع الوكالات الفيدرالية للتوقف الفوري عن استخدام تقنيات شركة أنثروبيك للذكاء الاصطناعي، وسط خلاف حاد مع وزارة الدفاع الأمريكية (البنتاغون) التي وصلت إلى طريق مسدود مع الشركة بعد انتهاء مهلة للتوصل إلى اتفاق.
بداية الأزمة
كان البنتاغون قد طالب أنثروبيك بتخفيف إرشاداتها الأخلاقية المتعلقة بأنظمة الذكاء الاصطناعي، مهددًا بعواقب وخيمة إذا لم تتراجع، لكن الشركة رفضت التنازل عن مبادئها السلامية.
تدخل ترمب
وتدخل ترمب قبل ساعة واحدة فقط من انتهاء المهلة، من خلال منشور على منصة «ثروث سوشيال»، حيث وصف موقف أنثروبيك بأنه «خطأ كارثي»، قائلًا: «اليساريون المتطرفون في أنثروبيك ارتكبوا خطأ فادحًا بمحاولتهم ابتزاز وزارة الحرب، وإجبارها على الالتزام بشروطهم بدلًا من دستورنا».
وأضاف: «نحن من يقرر مصير بلدنا، لا شركة ذكاء اصطناعي يسارية خارجة عن السيطرة يديرها أشخاص لا يعرفون شيئًا عن العالم الحقيقي».
تصعيد البنتاغون
وبعد انتهاء المهلة بقليل، أعلن وزير الدفاع بيت هيغسيث أنه يوجه وزارته لتصنيف أنثروبيك كـ«خطر على سلسلة التوريد الوطنية»، معتبرًا أن موقفها غير متوافق أساسًا مع المبادئ الأمريكية.
هذا التصنيف، الذي يُستخدم عادةً ضد الخصوم الأجانب، قد يهدد شراكات الشركة مع الشركات الأخرى.
وكتب هيغسيث على منصة إكس: «بدءًا من الآن، لن يُسمح لأي مقاول أو مورد أو شريك يتعامل مع الجيش الأمريكي بإجراء أي نشاط تجاري مع أنثروبيك، لن يُحتجز مقاتلونا الأمريكيون رهائن لنزوات أيديولوجية من عمالقة التكنولوجيا الكبرى».
وأوضح هيغسيث أن البنتاغون، الذي كان لديه اتفاق بقيمة 200 مليون دولار لمدة عامين مع أنثروبيك، سيستمر في استخدام خدمات الذكاء الاصطناعي الخاصة بها لفترة انتقالية لا تتجاوز ستة أشهر.
كما تبعت إدارة الخدمات الحكومية العامة خطى هيغسيث، معلنة مساء الجمعة إنهاء عقودها مع الشركة.
إمكانية الاتفاق
ورغم قوة الضغط الحكومي، لا يزال من الممكن التوصل إلى اتفاق بين أنثروبيك والبنتاغون، أو أن تأخذ شركات ذكاء اصطناعي أخرى مكان عقودها.
وفي بيان يوم الخميس، قال الرئيس التنفيذي لأنثروبيك داريو أمودي إن شركته لا تستطيع بضمير حي الامتثال لطلب البنتاغون بالوصول غير المقيد إلى أدوات الذكاء الاصطناعي.
جوهر الخلاف
وبدأ النزاع العلني في وقت سابق من هذا الأسبوع، عندما دخل البنتاغون وأنثروبيك في مناقشات حول استخدام نظام «كلود» الذكي الخاص بالشركة، لكن المحادثات انهارت بسبب عدم الاتفاق على حواجز السلامة.
وتُقدم أنثروبيك نفسها كأكثر شركات الذكاء الاصطناعي الرائدة التزامًا بالسلامة، وكانت عالقة في خلافات مع البنتاغون لشهور قبل المناقشات العلنية هذا الأسبوع. يدفع مسؤولو الدفاع الأمريكيون للوصول غير المحدود إلى قدرات «كلود» التي يقولون إنها تساعد في حماية البلاد، بينما ترفض أنثروبيك السماح باستخدام منتجها في المراقبة الجماعية أو أنظمة الأسلحة الذاتية التي تقتل دون تدخل بشري.
وقال أمودي يوم الخميس: «نحن ندرك أن وزارة الحرب، لا الشركات الخاصة، هي من تتخذ قرارات عسكرية، لم نعترض أبدًا على عمليات عسكرية معينة، ولم نحاول تقييد استخدام تقنيتنا بشكل عشوائي، ومع ذلك، في حالات ضيقة، نعتقد أن الذكاء الاصطناعي يمكن أن يقوض القيم الديمقراطية بدلًا من الدفاع عنها».
ورد متحدث البنتاغون شون بارنيل يوم الخميس بأن الوزارة ليس لديها اهتمام باستخدام الذكاء الاصطناعي للمراقبة الجماعية أو تطوير أسلحة ذاتية، وقال: «هذه السردية مزيفة ويتم ترويجها من قبل اليساريين في الإعلام».
دعم من وادي السيليكون
في وادي السيليكون، حظيت أنثروبيك بدعم من منافسيها الأشداء، حيث أعرب كبار التنفيذيين في شركات الذكاء الاصطناعي عن تأييدهم علنًا، بما في ذلك الرئيس التنفيذي لأوبن إيه آي سام ألتمان، الذي أشار في مقابلة مع سي إن بي سي يوم الجمعة، إلى أن أوبن إيه آي تشارك نفس الخطوط الحمراء مثل أنثروبيك.
كما وقع نحو 500 موظف من أوبن إيه آي وقوقل على رسالة مفتوحة تقول: «لن ننقسم»، ولدى كل من أوبن إيه آي وغوغل عقود مع الجيش.
وتقول الرسالة: «البنتاغون يتفاوض مع قوقل وأوبن إيه آي لإقناعهما بالموافقة على ما رفضته أنثروبيك، إنهم يحاولون تقسيم كل شركة بالخوف من أن الآخرى ستتنازل».
In a dramatic escalation, U.S. President Donald Trump announced on (Friday) that he will direct all federal agencies to immediately cease using technologies from Anthropic, amid a sharp dispute with the U.S. Department of Defense (Pentagon) that reached a deadlock with the company after a deadline for reaching an agreement expired.
The Beginning of the Crisis
The Pentagon had demanded that Anthropic soften its ethical guidelines regarding artificial intelligence systems, threatening severe consequences if it did not back down, but the company refused to compromise its peaceful principles.
Trump's Intervention
Trump intervened just one hour before the deadline, through a post on the "Truth Social" platform, where he described Anthropic's stance as a "catastrophic mistake," stating: "The radical leftists at Anthropic made a grave error by attempting to extort the Department of War, forcing it to comply with their terms instead of our Constitution."
He added: "We are the ones who decide the fate of our country, not a rogue leftist AI company run by people who know nothing about the real world."
Escalation from the Pentagon
Shortly after the deadline expired, Defense Secretary Pete Hegseth announced that he was directing his department to classify Anthropic as a "threat to the national supply chain," considering its position fundamentally incompatible with American principles.
This classification, typically used against foreign adversaries, could jeopardize the company's partnerships with other firms.
Hegseth wrote on the X platform: "From now on, no contractor, supplier, or partner dealing with the U.S. military will be allowed to conduct any business with Anthropic; our American fighters will not be held hostage to the ideological whims of big tech giants."
Hegseth clarified that the Pentagon, which had a $200 million two-year agreement with Anthropic, would continue to use its AI services for a transitional period not exceeding six months.
The General Services Administration also followed Hegseth's lead, announcing on Friday evening the termination of its contracts with the company.
Possibility of an Agreement
Despite the strong government pressure, it is still possible to reach an agreement between Anthropic and the Pentagon, or for other AI companies to take its contracts.
In a statement on Thursday, Anthropic's CEO Dario Amodei said that his company cannot, in good conscience, comply with the Pentagon's request for unrestricted access to AI tools.
The Core of the Dispute
The public dispute began earlier this week when the Pentagon and Anthropic entered discussions about using the company's "Claude" intelligent system, but the talks collapsed due to disagreements over safety barriers.
Anthropic presents itself as one of the leading AI companies committed to safety and had been embroiled in disputes with the Pentagon for months before the public discussions this week. U.S. defense officials are pushing for unrestricted access to "Claude" capabilities, which they say help protect the country, while Anthropic refuses to allow its product to be used for mass surveillance or autonomous weapons systems that kill without human intervention.
Amodei said on Thursday: "We recognize that the Department of War, not private companies, makes military decisions; we have never objected to specific military operations, nor have we tried to arbitrarily restrict the use of our technology; however, in narrow cases, we believe that AI can undermine democratic values instead of defending them."
A Pentagon spokesperson, Sean Parnell, responded on Thursday that the department has no interest in using AI for mass surveillance or developing autonomous weapons, stating: "This narrative is false and is being promoted by leftists in the media."
Support from Silicon Valley
In Silicon Valley, Anthropic has received support from its fierce competitors, as top executives from AI companies have publicly expressed their support, including OpenAI CEO Sam Altman, who noted in an interview with CNBC on Friday that OpenAI shares the same red lines as Anthropic.
About 500 employees from OpenAI and Google also signed an open letter stating: "We will not be divided," and both OpenAI and Google have contracts with the military.
The letter states: "The Pentagon is negotiating with Google and OpenAI to convince them to agree to what Anthropic has refused; they are trying to divide each company out of fear that the other will concede."