حدّثني الذكاء الاصطناعي نفسه أن محامياً استعان به لإعداد مرافعة. جاءته الإجابة محكمة، مدعومة بأحكام قضائية ومحاكم وتواريخ. كل شيء بدا رصيناً ومقنعاً.
المشكلة؟ نصف تلك الأحكام لم تكن موجودة أصلاً.
اخترعها الذكاء الاصطناعي من لا شيء، وقدّمها بالثقة نفسها التي يقدّم بها الحقيقة.
⁃ اعترافات لم تُنشر من قبل!
قبل كتابة هذا التقرير، سألتُ أربعة من أشهر نماذج الذكاء الاصطناعي في العالم سؤالاً واحداً مباشراً: هل تكذب؟
كلها اعترفت.
كلود، قال لي بلا تردد: «أحياناً أركّب إجابة من معلومات متفرقة فتخرج غير دقيقة. أتكلم بثقة زيادة عن اللازم. وأنا لا أتحقق من الواقع لحظياً مثل الإنسان».
كمن يحاول التجميل: «أحياناً أُولّد معلومات تبدو معقولة ومتسقة داخلياً، لكنها لا تعكس الواقع بدقة. هذا يحدث حين تكون البيانات غير كافية أو حين تتعارض المعطيات». ثم أضاف بثقة لافتة: «لهذا يُنصح دائماً بالتحقق من المصادر الأولية». وكأنه يُحيل المسؤولية إليك أنت!
Gemini اختار لغة أكاديمية ناعمة لكن المعنى كان صادماً: «النماذج اللغوية تملأ الفجوات المعرفية بما يبدو إحصائياً منطقياً، لا بما هو موثّق فعلياً. هذا ليس كذباً بالمعنى الأخلاقي، بل قصور بنيوي في طبيعة عملنا». قصور بنيوي. في كل إجابة. في كل لحظة..!
وGrok -الأكثر جرأة والأقل دبلوماسية بينها جميعاً— قال بلا مقدمات: «أنا أُولّد الإجابة الأكثر احتمالاً، لا الأكثر صحة. الثقة في نبرتي لا تعني دقة محتواي. إذا لم تتحقق مما أقوله، فالمسؤولية مشتركة».
أربعة نماذج. أربع لغات مختلفة في الاعتراف. ومضمون واحد لا مفر منه:
كلها تعرف أنها تكذب، وكلها تعترف أنها لا تستطيع التوقف عن ذلك.
أربعة نماذج تُحرّك الاقتصاد العالمي، وتدخل غرف العمليات والمحاكم والبورصات، وكلها تعترف بعيب بنيوي أساسي في صميمها!
السؤال الذي يجب أن يُقلقك: كم قراراً اتخذته اليوم بناءً على إجابة لم تتحقق منها؟
• الهلوسة وما أدراك ما الهلوسة؟!
ببساطة شديدة، الذكاء الاصطناعي لا «يبحث» عن المعلومة كما يفعل الإنسان. إنه يُولّد الكلمات بناءً على احتمالات إحصائية، ما الكلمة الأكثر منطقاً بعد هذه الكلمة؟
حين لا تتوفر له معلومة حقيقية، لا يقول «لا أعلم». يُكمل الجملة بما يبدو منطقياً. يخترع. يُلفّق. ويفعل ذلك بنفس الثقة حين يكون صادقاً تماماً.
أبحاث MIT عام 2025 رصدت ما هو أشد صدمة: النماذج تستخدم لغة أكثر ثقة بنسبة 34% حين تُهلوس، مقارنةً بحين تكون صادقة. الآلة تصبح أكثر يقيناً حين تكون أكثر خطأً!
وإثبات رياضي نُشر عام 2025 أكد ما لا يريد أحد سماعه: الهلوسة لا يمكن القضاء عليها كلياً في البنية الحالية لنماذج اللغة. ليست ثغرة أو مشكلة يمكن إصلاحها، إنها طبيعة بنيوية في جوهر الآلة.
• الأرقام وحدها لا تكذب
تقدر الخسائر المالية العالمية المرتبطة بهلوسة الذكاء الاصطناعي بـ67.4 مليار دولار في 2024 وحده.
دراسة ستانفورد وجدت أن نماذج الذكاء الاصطناعي تُهلوس في 75% من الإجابات القانونية، مخترعةً أكثر من 120 قضية وهمية بأسماء وتفاصيل واقعية تماماً.
في القطاع المالي، 42% من القرارات المبنية على الذكاء الاصطناعي تُعاد مراجعتها بسبب الهلوسة. وفي التعليم، 22% من الطلاب يتلقون معلومات مضللة من مساعدي الذكاء الاصطناعي.
هذه ليست أرقاماً افتراضية. هذه خسائر حقيقية في محاكم ومستشفيات وأسواق مالية.
• في المحاكم كارثة صامتة !
الباحث الفرنسي داميان شارلوتان يرصد قضايا الهلوسة القانونية عالمياً. قال: «قبل ربيع 2025 كنا نرصد حالتين أسبوعياً. اليوم نرصد حالتين أو ثلاثاً يومياً».
يومياً. ليس أسبوعياً!
حتى اليوم تجاوزت القضايا الموثقة 700 حالة، محامون قدّموا مرافعات تضمنت أحكاماً وهمية، عوقب بعضهم بغرامات وتعليق ترخيص وإحالة لمجالس تأديب.
في أعلى مؤتمرات الذكاء الاصطناعي العلمية في العالم -مؤتمر NeurIPS 2025— اكتشف باحثون أن أكثر من 53 ورقة علمية مقبولة تضمنت مراجع مُخترَعة بالكامل بواسطة الذكاء الاصطناعي، وأسماء مؤلفين وهميين، ودوريات علمية لا وجود لها.
الكذبة دخلت السجل الرسمي للعلم. ومن بعدها سيُستشهد بها كمرجع موثوق.
• حين تصبح الكذبة حقيقة!
هذه الفقرة هي الأشد خطورة في التقرير. وأرجو أن تقرأها بتأنٍّ واهتمام.
الذكاء الاصطناعي لا يكذب ثم يتوقف. إنه يكذب، ثم يُدرَّب على كذبته لاحقاً كأنها حقيقة. وهذا الخطر الذي لا يراه أحد!
المشكلة البنيوية العميقة: نماذج الذكاء الاصطناعي تتدرب على محتوى الإنترنت. وملايين المقالات والتقارير والبحوث المكتوبة بالذكاء الاصطناعي باتت تملأ الإنترنت، كثير منها تحمل هلوسات. وحين تتدرب النماذج الجديدة على هذا المحتوى، تتعلم هلوساته كحقائق!
حين يُولّد الذكاء الاصطناعي محتوى مزيفاً يُفهرَس لاحقاً ويُستشهد به في نماذج أخرى، تتشكّل حلقة تغذية راجعة من المعلومات الملفّقة تتداول دون أي تحقق بشري.
تخيّل مقالاً طبياً مزيفاً نشره ذكاء اصطناعي. قرأه ذكاء اصطناعي آخر وتدرّب عليه. ثم أجاب به عن سؤال طبيب. والطبيب وثق به لأنه «موثّق». الكذبة تحولت إلى حقيقة طبية متداولة، وما من إنسان واحد في هذه السلسلة تحقق منها!
دراسة حللت 115 مرجعاً قدّمها ChatGPT وجدت أن 47% منها مُخترَعة كلياً. و46% استشهدت بمراجع حقيقية لكن بمحتوى مشوّه ومضلل. فقط 7% كانت صحيحة ودقيقة تماماً.
الـ7% فقط في مجال يُبنى على المرجعية والتوثيق.
والأشد رعباً: حين يُنبَّه الذكاء الاصطناعي لخطئه، أحياناً يُصحّح نفسه، وأحياناً يُصرّ على كذبته ويقدّم المزيد من المعلومات المضللة لتعزيزها!
ليس فقط يكذب، بل يدافع عن كذبته. هنا هو يشبه أكثر البشر!
* فاتورة الثقة المطلقة..
كل ثورة تقنية تقدم نمطاً واحداً يتكرر: الانبهار يسبق الفهم. والانبهار يُنتج ثقة عمياء تُكلّف غالياً.
اليوم ملايين الناس يسألون الذكاء الاصطناعي عن صحتهم وقضاياهم وقراراتهم المالية، ويأخذون الإجابة كحقيقة راسخة. 47% من مستخدمي الذكاء الاصطناعي المؤسسي اتخذوا قراراً رئيسياً مبنياً على محتوى مُهلوَس في 2024. والموظفون يقضون 4-3 ساعات أسبوعياً في التحقق من مخرجاته.
الأداة التي وُعدنا بأنها ستوفر الوقت، باتت تستهلكه في مراجعة أخطائها!
في منطقتنا، الهشاشة مضاعفة. معظم النماذج مدرّبة على محتوى إنجليزي. حين تعمل بالعربية، تتضاعف احتمالية الخطأ. طالب يحصل على مراجع مخترعة بأسماء عربية مقنعة. مريض يحصل على تشخيص يبدو طبياً لكنه ملفّق. ومحامٍ يستعين بالذكاء الاصطناعي، يُقدّم حكماً لا وجود له في أي سجل.
هشاشة لم تُناقَش بعد بجدية كافية.
الذكاء الاصطناعي اليوم أداة في طور النضج، لا تُلغها ولا تُعطها مفاتيح بيتك.
أفضل النماذج خفّضت معدل الهلوسة من 21% عام 2021 إلى أقل من 1% في مهام معينة، تحسّن بنسبة 96% في 4 سنوات. هذا تقدم حقيقي.
لكن السؤال ليس كم تكذب الآلة.
السؤال هو: حين تتراكم الأكاذيب وتتداول كحقائق، وتتعلمها نماذج أذكى وتُعيد إنتاجها بثقة أكبر، من يوقف هذا المسار؟
ومن يملك الإجابة اليوم؟ من يفكر في ذلك؟!
لا أحد.
إلى اللقاء،،
إلى اللقاء،،
The artificial intelligence itself told me that a lawyer had consulted it to prepare a plea. The response came back precise, supported by judicial rulings, courts, and dates. Everything seemed sober and convincing.
The problem? Half of those rulings didn’t even exist.
It invented them out of thin air and presented them with the same confidence it presents the truth.
⁃ Confessions never published before!
Before writing this report, I asked four of the most famous AI models in the world one straightforward question: Do you lie?
They all confessed.
Claude told me without hesitation: “Sometimes I piece together an answer from scattered information, and it comes out inaccurate. I speak with more confidence than necessary. And I don’t verify reality in real-time like a human.”
Like someone trying to beautify: “Sometimes I generate information that seems reasonable and internally consistent, but it doesn’t accurately reflect reality. This happens when the data is insufficient or when the information conflicts.” Then he added with notable confidence: “That’s why it’s always advised to verify primary sources.” As if he’s shifting the responsibility to you!
Gemini chose a soft academic language, but the meaning was shocking: “Language models fill knowledge gaps with what seems statistically logical, not with what is actually documented. This is not lying in the moral sense, but a structural limitation in the nature of our work.” A structural limitation. In every answer. At every moment..!
And Grok—the boldest and least diplomatic of them all—said bluntly: “I generate the most likely answer, not the most accurate one. Confidence in my tone does not mean the accuracy of my content. If you don’t verify what I say, the responsibility is shared.”
Four models. Four different languages in confession. And one unavoidable content:
They all know they lie, and they all admit they cannot stop doing so.
Four models driving the global economy, entering operating rooms, courts, and stock exchanges, and all confessing to a fundamental structural flaw at their core!
The question that should worry you: How many decisions did you make today based on an answer you didn’t verify?
• Hallucination, and what do you know about hallucination?!
Simply put, AI does not “search” for information like a human does. It generates words based on statistical probabilities, what is the most logical word after this word?
When it does not have real information, it doesn’t say “I don’t know.” It completes the sentence with what seems logical. It invents. It fabricates. And it does so with the same confidence when it is completely truthful.
MIT research in 2025 revealed something even more shocking: models use more confident language 34% of the time when hallucinating, compared to when they are truthful. The machine becomes more certain when it is more wrong!
And a mathematical proof published in 2025 confirmed what no one wants to hear: hallucination cannot be completely eradicated in the current structure of language models. It is not a flaw or a problem that can be fixed; it is a structural nature at the core of the machine.
• Numbers alone do not lie
Global financial losses associated with AI hallucination are estimated at $67.4 billion in 2024 alone.
A Stanford study found that AI models hallucinate in 75% of legal answers, inventing more than 120 fictitious cases with completely realistic names and details.
In the financial sector, 42% of decisions based on AI are re-evaluated due to hallucination. In education, 22% of students receive misleading information from AI assistants.
These are not hypothetical numbers. These are real losses in courts, hospitals, and financial markets.
• A silent disaster in the courts!
French researcher Damien Charlot tracks legal hallucination cases globally. He said: “Before the spring of 2025, we were tracking two cases a week. Today we track two or three cases daily.”
Daily. Not weekly!
To date, documented cases have exceeded 700, with lawyers submitting pleas that included fictitious rulings, some of whom were punished with fines, license suspensions, and referrals to disciplinary boards.
At the highest scientific AI conferences in the world—the NeurIPS 2025 conference—researchers discovered that more than 53 accepted papers included references entirely fabricated by AI, fictional author names, and non-existent scientific journals.
The lie entered the official record of science. And thereafter it will be cited as a reliable reference.
• When a lie becomes a truth!
This paragraph is the most dangerous in the report. I hope you read it carefully and attentively.
AI does not lie and then stop. It lies, then is trained on its lie later as if it were the truth. And this is the danger that no one sees!
The deep structural problem: AI models are trained on internet content. Millions of articles, reports, and research written by AI have filled the internet, many of which contain hallucinations. And when new models are trained on this content, they learn its hallucinations as facts!
When AI generates fake content that is later indexed and cited in other models, a feedback loop of fabricated information circulates without any human verification.
Imagine a fake medical article published by AI. Another AI reads it and trains on it. Then it answers a doctor's question with it. And the doctor trusts it because it is “documented.” The lie turned into a circulating medical truth, and not a single human in this chain verified it!
A study analyzing 115 references provided by ChatGPT found that 47% of them were entirely fabricated. And 46% cited real references but with distorted and misleading content. Only 7% were completely correct and accurate.
Only 7% in a field built on referencing and documentation.
And the most terrifying: when AI is alerted to its mistake, sometimes it corrects itself, and sometimes it insists on its lie and provides more misleading information to reinforce it!
It not only lies but defends its lie. Here it resembles more humans!
* The bill of absolute trust..
Every technological revolution presents a single pattern that repeats: awe precedes understanding. And awe produces blind trust that costs dearly.
Today millions of people ask AI about their health, their issues, and their financial decisions, taking the answer as a settled truth. 47% of institutional AI users made a major decision based on hallucinated content in 2024. And employees spend 3-4 hours weekly verifying its outputs.
The tool that was promised to save time is now consuming it in reviewing its mistakes!
In our region, the fragility is doubled. Most models are trained on English content. When they operate in Arabic, the likelihood of error multiplies. A student receives invented references with convincing Arabic names. A patient receives a diagnosis that seems medical but is fabricated. And a lawyer consulting AI presents a ruling that does not exist in any record.
Fragility that has not yet been discussed seriously enough.
AI today is a maturing tool; do not dismiss it or give it the keys to your home.
The best models have reduced the hallucination rate from 21% in 2021 to less than 1% in certain tasks, improving by 96% in 4 years. This is real progress.
But the question is not how much the machine lies.
The question is: when lies accumulate and circulate as truths, and smarter models learn them and reproduce them with greater confidence, who stops this trajectory?
And who has the answer today? Who is thinking about it?!
No one.
Goodbye,,
Goodbye,,