لم يعد الذكاء الاصطناعي شأناً تقنياً بحتاً، ولا حتى مجرّد تطوّر في أدوات العمل والإدارة. بل تحوّل تدريجياً إلى فاعل مؤثر في صناعة القرار العام، ومكوّن خفي في بنية السياسات والاقتصاد والتواصل.
ومع تزايد اعتماده في قطاعات حيوية، من المنظومة العدلية إلى التعليم، ومن الأمن إلى الإعلام، ظهرت الحاجة المُلحّة لإعادة ضبط العلاقة بين الإنسان والخوارزمية، ليس من زاوية الكفاءة فحسب، بل من باب السيادة والمساءلة والعدالة. وهنا تبرز ضرورة حوكمة الذكاء الاصطناعي لا كخيار تنظيمي، بل كأولوية وطنية وإستراتيجية.
ومن اللافت أن المملكة وهي في طليعة الدول المتبنية لرؤية مستقبلية طموحة بدأت تُظهر مؤخراً تحفّظاً إستراتيجياً متنامياً تجاه بعض الاستخدامات السلبية للذكاء الاصطناعي، خاصة تلك التي قد تُوظف في تضليل الرأي العام أو في التأثير غير المشروع على السلوك الجمعي. وقد برز هذا التيقّظ في عدد من التصريحات الرسمية، والمواقف الإجرائية، وتعليق بعض أشكال التعاون التقني مع أنظمة لم تخضع بعد لضوابط الحوكمة القانونية أو الأخلاقية.
وإذا كنا نعيش في عالم باتت فيه التقنية أسرع من التنظيم، فإن السكوت عن هذه الأدوات الذكية دون حوكمة صارمة، هو في حد ذاته مخاطرة تتجاوز الأفراد لتصل إلى بنية القرار العام. فالسؤال لم يعد: هل يجب أن نُنظّم الذكاء الاصطناعي؟ بل: هل يمكننا تحمّل تبعات تركه دون تنظيم؟
إن أكبر ما يثير القلق اليوم، ليس تفوق الآلة على الإنسان في أداء المهام، بل تسللها إلى فضاءات اتخاذ القرار دون شفافية، وغياب المساءلة عند الخطأ. من يُحاسب حين ترفض خوارزمية توظيف مواطن مؤهل؟ أو عندما يتعرّض محتوى إعلامي للتضليل عبر توليد صور مزيّفة؟ ومن يتحمّل المسؤولية إن تسبّب النظام الذكي في انحياز مالي أو ضرر يصعب إصلاحه؟
المسألة هنا ليست تقنية، بل قانونية في جوهرها. ولهذا بات من الضروري أن نُعيد تعريف علاقتنا بهذه الأنظمة لا باعتبارها «أدوات دعم»، بل ككيانات مؤثرة يجب أن تُحاط بإطار مؤسسي واضح.
وهنا تبرز حوكمة الذكاء الاصطناعي باعتبارها المفهوم الأهم والأكثر حساسية في هذه المرحلة.
ويمكن تعريف حوكمة الذكاء الاصطناعي بأنها: «مجموعة من السياسات، والضوابط، والمعايير القانونية والأخلاقية، التي تُنظّم كيفية تطوير أنظمة الذكاء الاصطناعي وتشغيلها ومراقبتها، بما يضمن خضوعها للمساءلة، وشفافية عملها، وعدالة نتائجها، وقابليتها للتفسير والتعديل، وذلك ضمن بيئة تنظيمية تحفظ حقوق الأفراد، وتحمي المصلحة العامة، وتُرسّخ سيادة الدولة على القرار التقني».
وبهذا المعنى، فإن الحوكمة لا تُعارض الابتكار، بل تُوفّر له البوصلة التي تمنعه من الانزلاق خارج نطاق الصالح العام.
وفي هذا السياق، يصبح من الضروري أن تُبادر الدولة بإطلاق إطار وطني متكامل لحوكمة الذكاء الاصطناعي، لا باعتباره تنظيماً إدارياً، بل كخط دفاع قانوني وأخلاقي يحمي القرار، والمجتمع، والسيادة. ويشمل هذا الإطار أدوات واضحة لتقييم الأثر، وآليات لمراقبة الانحراف، وصلاحيات للتعليق الفوري أو الإيقاف المؤقت لأي نظام ثبت تحيّزه أو خطورته.
كما ينبغي ربط أي مشروع يعتمد الذكاء الاصطناعي بمسؤولية تعاقدية دقيقة في عقوده. فلا يُسمح باستخدام هذه الأنظمة في القطاعين العام والخاص، دون تضمين بنود تلزم بالشفافية، وتُقر بإمكانية الخطأ، وتُحدد من يتحمل تبعاته.
إن المملكة بما تمتلكه من مؤسسات قوية، ورؤية تنظيمية ناضجة قادرة على أن تقود هذا المجال لا أن تُركن لمتابعته. وما نحتاجه ليس فقط معرفة الخطر، بل ترجمته إلى تعليمات تنفيذية، وتشريعات ملزمة، وثقافة إدارية تعي الفرق بين التبني والتفريط.
وفي هذا الإطار، يمكن طرح مجموعة من التوصيات العملية القابلة للتنفيذ:
• أولاً: إنشاء وحدة مستقلة لحوكمة الذكاء الاصطناعي ضمن الأجهزة الرقابية في الدولة، تكون وظيفتها مراجعة واعتماد أي نظام ذكاء اصطناعي قبل إطلاقه داخل الجهات الحكومية أو شبه الحكومية.
• ثانياً: إلزام الشركات والمطورين برفع تقارير تقييم الأثر (AI Impact Reports) قبل تسويق أي نموذج ذكي، على أن تكون هذه التقارير جزءاً من وثائق الترخيص النظامي.
• ثالثاً: إصدار لائحة تنفيذية تُنظّم العلاقة التعاقدية بين المستخدم ومقدّم خدمة الذكاء الاصطناعي، وتُفصّل فيها المسؤولية، والتعويض، وحالات الخطأ غير البشري.
• رابعاً: دعم تأسيس مركز وطني للأخلاقيات التقنية، يُسهم في صياغة المبادئ المُلزِمة ويُصدر قوائم اعتماد للأنظمة التي تفي بالمعايير القانونية والأخلاقية.
إن بناء منظومة وطنية لحوكمة الذكاء الاصطناعي، لا يقف عند حدود التنظيم الداخلي، بل يمتد ليُسهم في صياغة ثقافة عربية أصيلة في التعامل مع التقنية.
ويمكن للجهات السعودية الرائدة -كالهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، والهيئة الوطنية للأمن السيبراني، والجهات الأكاديمية مثل كاوست ومعهد الملك عبدالله للذكاء الاصطناعي- أن تتكامل فيما بينها لإنتاج إطار سعودي يُحتذى به في المنطقة، ويُسهم في نقل الخبرة، وضبط الاستخدامات، وتدريب النشء على الذكاء المؤطَّر بالقانون والأخلاق.
فالمملكة، بما تمتلكه من بُنية تشريعية ناهضة، ورؤية رقمية واعية، مؤهّلة ليس فقط لمواكبة التحول، بل لقيادة تشكيله في البيئات التي تشترك معنا في اللغة والواقع والمستقبل.
فالحضارة لا تُقاس بمن يمتلك أسرع خوارزمية.. بل بمن يُحسن توجيهها.
والمجتمعات التي تتبنّى الذكاء الاصطناعي دون حوكمة دقيقة، تُخاطر بأن تضع أدوات القرار في يد التقنية قبل أن تُحكمها بالسياسة والقانون.
Artificial intelligence is no longer just a technical matter, nor merely a development in work and management tools. It has gradually transformed into an influential actor in public decision-making, and a hidden component in the structure of policies, economy, and communication.
With its increasing reliance in vital sectors, from the judicial system to education, and from security to media, there has emerged an urgent need to recalibrate the relationship between humans and algorithms, not only from the perspective of efficiency but also in terms of sovereignty, accountability, and justice. Here, the necessity of AI governance emerges not as an organizational option, but as a national and strategic priority.
It is noteworthy that the Kingdom, being at the forefront of countries adopting an ambitious future vision, has recently begun to show a growing strategic reservation towards some negative uses of artificial intelligence, especially those that may be employed to mislead public opinion or to exert unlawful influence on collective behavior. This vigilance has been evident in several official statements, procedural positions, and the suspension of certain forms of technical cooperation with systems that have not yet been subjected to legal or ethical governance controls.
If we are living in a world where technology has outpaced regulation, then remaining silent about these smart tools without strict governance is, in itself, a risk that transcends individuals to reach the structure of public decision-making. The question is no longer: Should we regulate artificial intelligence? But rather: Can we bear the consequences of leaving it unregulated?
The greatest concern today is not the superiority of machines over humans in performing tasks, but their infiltration into decision-making spaces without transparency, and the absence of accountability in the event of errors. Who is held accountable when an algorithm refuses to hire a qualified citizen? Or when media content is misled through the generation of fake images? And who bears the responsibility if the intelligent system causes financial bias or irreparable harm?
The issue here is not technical, but legal in its essence. Therefore, it has become essential to redefine our relationship with these systems not as "support tools," but as influential entities that must be surrounded by a clear institutional framework.
In this sense, AI governance emerges as the most important and sensitive concept at this stage.
AI governance can be defined as: "A set of policies, controls, and legal and ethical standards that regulate how AI systems are developed, operated, and monitored, ensuring their accountability, transparency of their operations, fairness of their outcomes, and their interpretability and amendability, within a regulatory environment that preserves individual rights, protects the public interest, and reinforces the state's sovereignty over technical decision-making."
In this sense, governance does not oppose innovation; rather, it provides the compass that prevents it from slipping outside the realm of the public good.
In this context, it becomes necessary for the state to initiate a comprehensive national framework for AI governance, not as an administrative regulation, but as a legal and ethical line of defense that protects decision-making, society, and sovereignty. This framework should include clear tools for impact assessment, mechanisms for monitoring deviations, and powers for immediate suspension or temporary halt of any system proven to be biased or dangerous.
Any project relying on artificial intelligence should also be linked to precise contractual responsibilities in its agreements. The use of these systems in both the public and private sectors should not be allowed without including clauses that mandate transparency, acknowledge the possibility of error, and specify who bears its consequences.
The Kingdom, with its strong institutions and mature regulatory vision, is capable of leading this field rather than merely following it. What we need is not only to recognize the danger but to translate it into executive instructions, binding legislation, and an administrative culture that understands the difference between adoption and negligence.
In this framework, a set of practical and actionable recommendations can be proposed:
• First: Establish an independent unit for AI governance within the state’s regulatory bodies, tasked with reviewing and approving any AI system before its launch within government or quasi-government entities.
• Second: Require companies and developers to submit AI Impact Reports before marketing any intelligent model, with these reports being part of the regulatory licensing documents.
• Third: Issue an executive regulation that organizes the contractual relationship between the user and the AI service provider, detailing responsibility, compensation, and cases of non-human error.
• Fourth: Support the establishment of a national center for technological ethics, contributing to the formulation of binding principles and issuing accreditation lists for systems that meet legal and ethical standards.
Building a national system for AI governance does not stop at internal regulation; it extends to contribute to shaping an authentic Arab culture in dealing with technology.
Leading Saudi entities—such as the Saudi Data and Artificial Intelligence Authority (SDAIA), the National Cybersecurity Authority, and academic institutions like KAUST and the King Abdullah Institute for Artificial Intelligence—can collaborate to produce a Saudi framework that serves as a model in the region, contributing to knowledge transfer, regulating uses, and training the youth on AI framed by law and ethics.
The Kingdom, with its emerging legislative structure and conscious digital vision, is qualified not only to keep pace with transformation but to lead its formation in environments that share with us language, reality, and future.
Civilization is not measured by who possesses the fastest algorithm, but by who knows how to direct it effectively.
Communities that adopt artificial intelligence without precise governance risk placing decision-making tools in the hands of technology before they are governed by policy and law.