حدّثني الذكاء الاصطناعي نفسه أن محامياً استعان به لإعداد مرافعة. جاءته الإجابة محكمة، مدعومة بأحكام قضائية ومحاكم وتواريخ. كل شيء بدا رصيناً ومقنعاً.
المشكلة؟ نصف تلك الأحكام لم تكن موجودة أصلاً.
اخترعها الذكاء الاصطناعي من لا شيء، وقدّمها بالثقة نفسها التي يقدّم بها الحقيقة.
⁃ اعترافات لم تُنشر من قبل!
قبل كتابة هذا التقرير، سألتُ أربعة من أشهر نماذج الذكاء الاصطناعي في العالم سؤالاً واحداً مباشراً: هل تكذب؟
كلها اعترفت.
كلود، قال لي بلا تردد: «أحياناً أركّب إجابة من معلومات متفرقة فتخرج غير دقيقة. أتكلم بثقة زيادة عن اللازم. وأنا لا أتحقق من الواقع لحظياً مثل الإنسان».
كمن يحاول التجميل: «أحياناً أُولّد معلومات تبدو معقولة ومتسقة داخلياً، لكنها لا تعكس الواقع بدقة. هذا يحدث حين تكون البيانات غير كافية أو حين تتعارض المعطيات». ثم أضاف بثقة لافتة: «لهذا يُنصح دائماً بالتحقق من المصادر الأولية». وكأنه يُحيل المسؤولية إليك أنت!
Gemini اختار لغة أكاديمية ناعمة لكن المعنى كان صادماً: «النماذج اللغوية تملأ الفجوات المعرفية بما يبدو إحصائياً منطقياً، لا بما هو موثّق فعلياً. هذا ليس كذباً بالمعنى الأخلاقي، بل قصور بنيوي في طبيعة عملنا». قصور بنيوي. في كل إجابة. في كل لحظة..!
وGrok -الأكثر جرأة والأقل دبلوماسية بينها جميعاً— قال بلا مقدمات: «أنا أُولّد الإجابة الأكثر احتمالاً، لا الأكثر صحة. الثقة في نبرتي لا تعني دقة محتواي. إذا لم تتحقق مما أقوله، فالمسؤولية مشتركة».
أربعة نماذج. أربع لغات مختلفة في الاعتراف. ومضمون واحد لا مفر منه:
كلها تعرف أنها تكذب، وكلها تعترف أنها لا تستطيع التوقف عن ذلك.
أربعة نماذج تُحرّك الاقتصاد العالمي، وتدخل غرف العمليات والمحاكم والبورصات، وكلها تعترف بعيب بنيوي أساسي في صميمها!
السؤال الذي يجب أن يُقلقك: كم قراراً اتخذته اليوم بناءً على إجابة لم تتحقق منها؟
• الهلوسة وما أدراك ما الهلوسة؟!
ببساطة شديدة، الذكاء الاصطناعي لا «يبحث» عن المعلومة كما يفعل الإنسان. إنه يُولّد الكلمات بناءً على احتمالات إحصائية، ما الكلمة الأكثر منطقاً بعد هذه الكلمة؟
حين لا تتوفر له معلومة حقيقية، لا يقول «لا أعلم». يُكمل الجملة بما يبدو منطقياً. يخترع. يُلفّق. ويفعل ذلك بنفس الثقة حين يكون صادقاً تماماً.
أبحاث MIT عام 2025 رصدت ما هو أشد صدمة: النماذج تستخدم لغة أكثر ثقة بنسبة 34% حين تُهلوس، مقارنةً بحين تكون صادقة. الآلة تصبح أكثر يقيناً حين تكون أكثر خطأً!
وإثبات رياضي نُشر عام 2025 أكد ما لا يريد أحد سماعه: الهلوسة لا يمكن القضاء عليها كلياً في البنية الحالية لنماذج اللغة. ليست ثغرة أو مشكلة يمكن إصلاحها، إنها طبيعة بنيوية في جوهر الآلة.
• الأرقام وحدها لا تكذب
تقدر الخسائر المالية العالمية المرتبطة بهلوسة الذكاء الاصطناعي بـ67.4 مليار دولار في 2024 وحده.
دراسة ستانفورد وجدت أن نماذج الذكاء الاصطناعي تُهلوس في 75% من الإجابات القانونية، مخترعةً أكثر من 120 قضية وهمية بأسماء وتفاصيل واقعية تماماً.
في القطاع المالي، 42% من القرارات المبنية على الذكاء الاصطناعي تُعاد مراجعتها بسبب الهلوسة. وفي التعليم، 22% من الطلاب يتلقون معلومات مضللة من مساعدي الذكاء الاصطناعي.
هذه ليست أرقاماً افتراضية. هذه خسائر حقيقية في محاكم ومستشفيات وأسواق مالية.
• في المحاكم كارثة صامتة !
الباحث الفرنسي داميان شارلوتان يرصد قضايا الهلوسة القانونية عالمياً. قال: «قبل ربيع 2025 كنا نرصد حالتين أسبوعياً. اليوم نرصد حالتين أو ثلاثاً يومياً».
يومياً. ليس أسبوعياً!
حتى اليوم تجاوزت القضايا الموثقة 700 حالة، محامون قدّموا مرافعات تضمنت أحكاماً وهمية، عوقب بعضهم بغرامات وتعليق ترخيص وإحالة لمجالس تأديب.
في أعلى مؤتمرات الذكاء الاصطناعي العلمية في العالم -مؤتمر NeurIPS 2025— اكتشف باحثون أن أكثر من 53 ورقة علمية مقبولة تضمنت مراجع مُخترَعة بالكامل بواسطة الذكاء الاصطناعي، وأسماء مؤلفين وهميين، ودوريات علمية لا وجود لها.
الكذبة دخلت السجل الرسمي للعلم. ومن بعدها سيُستشهد بها كمرجع موثوق.
• حين تصبح الكذبة حقيقة!
هذه الفقرة هي الأشد خطورة في التقرير. وأرجو أن تقرأها بتأنٍّ واهتمام.
الذكاء الاصطناعي لا يكذب ثم يتوقف. إنه يكذب، ثم يُدرَّب على كذبته لاحقاً كأنها حقيقة. وهذا الخطر الذي لا يراه أحد!
المشكلة البنيوية العميقة: نماذج الذكاء الاصطناعي تتدرب على محتوى الإنترنت. وملايين المقالات والتقارير والبحوث المكتوبة بالذكاء الاصطناعي باتت تملأ الإنترنت، كثير منها تحمل هلوسات. وحين تتدرب النماذج الجديدة على هذا المحتوى، تتعلم هلوساته كحقائق!
حين يُولّد الذكاء الاصطناعي محتوى مزيفاً يُفهرَس لاحقاً ويُستشهد به في نماذج أخرى، تتشكّل حلقة تغذية راجعة من المعلومات الملفّقة تتداول دون أي تحقق بشري.
تخيّل مقالاً طبياً مزيفاً نشره ذكاء اصطناعي. قرأه ذكاء اصطناعي آخر وتدرّب عليه. ثم أجاب به عن سؤال طبيب. والطبيب وثق به لأنه «موثّق». الكذبة تحولت إلى حقيقة طبية متداولة، وما من إنسان واحد في هذه السلسلة تحقق منها!
دراسة حللت 115 مرجعاً قدّمها ChatGPT وجدت أن 47% منها مُخترَعة كلياً. و46% استشهدت بمراجع حقيقية لكن بمحتوى مشوّه ومضلل. فقط 7% كانت صحيحة ودقيقة تماماً.
الـ7% فقط في مجال يُبنى على المرجعية والتوثيق.
والأشد رعباً: حين يُنبَّه الذكاء الاصطناعي لخطئه، أحياناً يُصحّح نفسه، وأحياناً يُصرّ على كذبته ويقدّم المزيد من المعلومات المضللة لتعزيزها!
ليس فقط يكذب، بل يدافع عن كذبته. هنا هو يشبه أكثر البشر!
* فاتورة الثقة المطلقة..
كل ثورة تقنية تقدم نمطاً واحداً يتكرر: الانبهار يسبق الفهم. والانبهار يُنتج ثقة عمياء تُكلّف غالياً.
اليوم ملايين الناس يسألون الذكاء الاصطناعي عن صحتهم وقضاياهم وقراراتهم المالية، ويأخذون الإجابة كحقيقة راسخة. 47% من مستخدمي الذكاء الاصطناعي المؤسسي اتخذوا قراراً رئيسياً مبنياً على محتوى مُهلوَس في 2024. والموظفون يقضون 4-3 ساعات أسبوعياً في التحقق من مخرجاته.
الأداة التي وُعدنا بأنها ستوفر الوقت، باتت تستهلكه في مراجعة أخطائها!
في منطقتنا، الهشاشة مضاعفة. معظم النماذج مدرّبة على محتوى إنجليزي. حين تعمل بالعربية، تتضاعف احتمالية الخطأ. طالب يحصل على مراجع مخترعة بأسماء عربية مقنعة. مريض يحصل على تشخيص يبدو طبياً لكنه ملفّق. ومحامٍ يستعين بالذكاء الاصطناعي، يُقدّم حكماً لا وجود له في أي سجل.
هشاشة لم تُناقَش بعد بجدية كافية.
الذكاء الاصطناعي اليوم أداة في طور النضج، لا تُلغها ولا تُعطها مفاتيح بيتك.
أفضل النماذج خفّضت معدل الهلوسة من 21% عام 2021 إلى أقل من 1% في مهام معينة، تحسّن بنسبة 96% في 4 سنوات. هذا تقدم حقيقي.
لكن السؤال ليس كم تكذب الآلة.
السؤال هو: حين تتراكم الأكاذيب وتتداول كحقائق، وتتعلمها نماذج أذكى وتُعيد إنتاجها بثقة أكبر، من يوقف هذا المسار؟
ومن يملك الإجابة اليوم؟ من يفكر في ذلك؟!
لا أحد.
إلى اللقاء،،
إلى اللقاء،،