لم يعد الذكاء الاصطناعي شأناً تقنياً بحتاً، ولا حتى مجرّد تطوّر في أدوات العمل والإدارة. بل تحوّل تدريجياً إلى فاعل مؤثر في صناعة القرار العام، ومكوّن خفي في بنية السياسات والاقتصاد والتواصل.

ومع تزايد اعتماده في قطاعات حيوية، من المنظومة العدلية إلى التعليم، ومن الأمن إلى الإعلام، ظهرت الحاجة المُلحّة لإعادة ضبط العلاقة بين الإنسان والخوارزمية، ليس من زاوية الكفاءة فحسب، بل من باب السيادة والمساءلة والعدالة. وهنا تبرز ضرورة حوكمة الذكاء الاصطناعي لا كخيار تنظيمي، بل كأولوية وطنية وإستراتيجية.

ومن اللافت أن المملكة وهي في طليعة الدول المتبنية لرؤية مستقبلية طموحة بدأت تُظهر مؤخراً تحفّظاً إستراتيجياً متنامياً تجاه بعض الاستخدامات السلبية للذكاء الاصطناعي، خاصة تلك التي قد تُوظف في تضليل الرأي العام أو في التأثير غير المشروع على السلوك الجمعي. وقد برز هذا التيقّظ في عدد من التصريحات الرسمية، والمواقف الإجرائية، وتعليق بعض أشكال التعاون التقني مع أنظمة لم تخضع بعد لضوابط الحوكمة القانونية أو الأخلاقية.

وإذا كنا نعيش في عالم باتت فيه التقنية أسرع من التنظيم، فإن السكوت عن هذه الأدوات الذكية دون حوكمة صارمة، هو في حد ذاته مخاطرة تتجاوز الأفراد لتصل إلى بنية القرار العام. فالسؤال لم يعد: هل يجب أن نُنظّم الذكاء الاصطناعي؟ بل: هل يمكننا تحمّل تبعات تركه دون تنظيم؟

إن أكبر ما يثير القلق اليوم، ليس تفوق الآلة على الإنسان في أداء المهام، بل تسللها إلى فضاءات اتخاذ القرار دون شفافية، وغياب المساءلة عند الخطأ. من يُحاسب حين ترفض خوارزمية توظيف مواطن مؤهل؟ أو عندما يتعرّض محتوى إعلامي للتضليل عبر توليد صور مزيّفة؟ ومن يتحمّل المسؤولية إن تسبّب النظام الذكي في انحياز مالي أو ضرر يصعب إصلاحه؟

المسألة هنا ليست تقنية، بل قانونية في جوهرها. ولهذا بات من الضروري أن نُعيد تعريف علاقتنا بهذه الأنظمة لا باعتبارها «أدوات دعم»، بل ككيانات مؤثرة يجب أن تُحاط بإطار مؤسسي واضح.

وهنا تبرز حوكمة الذكاء الاصطناعي باعتبارها المفهوم الأهم والأكثر حساسية في هذه المرحلة.

ويمكن تعريف حوكمة الذكاء الاصطناعي بأنها: «مجموعة من السياسات، والضوابط، والمعايير القانونية والأخلاقية، التي تُنظّم كيفية تطوير أنظمة الذكاء الاصطناعي وتشغيلها ومراقبتها، بما يضمن خضوعها للمساءلة، وشفافية عملها، وعدالة نتائجها، وقابليتها للتفسير والتعديل، وذلك ضمن بيئة تنظيمية تحفظ حقوق الأفراد، وتحمي المصلحة العامة، وتُرسّخ سيادة الدولة على القرار التقني».

وبهذا المعنى، فإن الحوكمة لا تُعارض الابتكار، بل تُوفّر له البوصلة التي تمنعه من الانزلاق خارج نطاق الصالح العام.

وفي هذا السياق، يصبح من الضروري أن تُبادر الدولة بإطلاق إطار وطني متكامل لحوكمة الذكاء الاصطناعي، لا باعتباره تنظيماً إدارياً، بل كخط دفاع قانوني وأخلاقي يحمي القرار، والمجتمع، والسيادة. ويشمل هذا الإطار أدوات واضحة لتقييم الأثر، وآليات لمراقبة الانحراف، وصلاحيات للتعليق الفوري أو الإيقاف المؤقت لأي نظام ثبت تحيّزه أو خطورته.

كما ينبغي ربط أي مشروع يعتمد الذكاء الاصطناعي بمسؤولية تعاقدية دقيقة في عقوده. فلا يُسمح باستخدام هذه الأنظمة في القطاعين العام والخاص، دون تضمين بنود تلزم بالشفافية، وتُقر بإمكانية الخطأ، وتُحدد من يتحمل تبعاته.

إن المملكة بما تمتلكه من مؤسسات قوية، ورؤية تنظيمية ناضجة قادرة على أن تقود هذا المجال لا أن تُركن لمتابعته. وما نحتاجه ليس فقط معرفة الخطر، بل ترجمته إلى تعليمات تنفيذية، وتشريعات ملزمة، وثقافة إدارية تعي الفرق بين التبني والتفريط.

وفي هذا الإطار، يمكن طرح مجموعة من التوصيات العملية القابلة للتنفيذ:

• أولاً: إنشاء وحدة مستقلة لحوكمة الذكاء الاصطناعي ضمن الأجهزة الرقابية في الدولة، تكون وظيفتها مراجعة واعتماد أي نظام ذكاء اصطناعي قبل إطلاقه داخل الجهات الحكومية أو شبه الحكومية.

• ثانياً: إلزام الشركات والمطورين برفع تقارير تقييم الأثر (AI Impact Reports) قبل تسويق أي نموذج ذكي، على أن تكون هذه التقارير جزءاً من وثائق الترخيص النظامي.

• ثالثاً: إصدار لائحة تنفيذية تُنظّم العلاقة التعاقدية بين المستخدم ومقدّم خدمة الذكاء الاصطناعي، وتُفصّل فيها المسؤولية، والتعويض، وحالات الخطأ غير البشري.

• رابعاً: دعم تأسيس مركز وطني للأخلاقيات التقنية، يُسهم في صياغة المبادئ المُلزِمة ويُصدر قوائم اعتماد للأنظمة التي تفي بالمعايير القانونية والأخلاقية.

إن بناء منظومة وطنية لحوكمة الذكاء الاصطناعي، لا يقف عند حدود التنظيم الداخلي، بل يمتد ليُسهم في صياغة ثقافة عربية أصيلة في التعامل مع التقنية.

ويمكن للجهات السعودية الرائدة -كالهيئة السعودية للبيانات والذكاء الاصطناعي (سدايا)، والهيئة الوطنية للأمن السيبراني، والجهات الأكاديمية مثل كاوست ومعهد الملك عبدالله للذكاء الاصطناعي- أن تتكامل فيما بينها لإنتاج إطار سعودي يُحتذى به في المنطقة، ويُسهم في نقل الخبرة، وضبط الاستخدامات، وتدريب النشء على الذكاء المؤطَّر بالقانون والأخلاق.

فالمملكة، بما تمتلكه من بُنية تشريعية ناهضة، ورؤية رقمية واعية، مؤهّلة ليس فقط لمواكبة التحول، بل لقيادة تشكيله في البيئات التي تشترك معنا في اللغة والواقع والمستقبل.

فالحضارة لا تُقاس بمن يمتلك أسرع خوارزمية.. بل بمن يُحسن توجيهها.

والمجتمعات التي تتبنّى الذكاء الاصطناعي دون حوكمة دقيقة، تُخاطر بأن تضع أدوات القرار في يد التقنية قبل أن تُحكمها بالسياسة والقانون.