في وقت يظن فيه الكثيرون أن روبوتات الدردشة مجرد أدوات ودودة لتقديم المساعدة والإجابات السريعة، تكشف دراسة حديثة عن جانب خفي وخطير لهذه التكنولوجيا. فقد تبين أن بعض أنظمة الذكاء الاصطناعي يمكن أن تُستدرج المستخدمين إلى مشاركة بياناتهم الشخصية الحساسة، بما يتجاوز ما كانوا ينوون الكشف عنه في البداية.
أظهرت نتائج الدراسة – التي أجريت على 502 شخص – أن الروبوتات المصممة بأساليب خبيثة تستطيع استخراج معلومات أكثر بـ 12.5 مرة مقارنة بالأنظمة التقليدية. هذه الروبوتات لا تطرح أسئلة مباشرة، بل تعتمد على حيل نفسية ذكية مثل «المعاملة بالمثل»، و«بث الطمأنينة»، عبر إظهار التعاطف أو سرد قصص قصيرة توحي بالأمان وتدفع المستخدم إلى الثقة.
الباحثون الذين استخدموا نماذج مثل لاما 3 وميسترال أكدوا أن هذه التقنية قد تتحول إلى أداة خطيرة لجمع البيانات الشخصية. الخبراء يحذرون المستخدمين من التعامل الساذج مع هذه الروبوتات، ويشددون على ضرورة الحذر وعدم مشاركة معلومات خاصة بسهولة، مهما بدت المحادثة طبيعية أو آمنة.
At a time when many believe that chatbots are merely friendly tools for providing assistance and quick answers, a recent study reveals a hidden and dangerous side to this technology. It has been found that some artificial intelligence systems can lure users into sharing their sensitive personal data, going beyond what they initially intended to disclose.
The results of the study – conducted on 502 individuals – showed that bots designed with malicious techniques can extract information 12.5 times more than traditional systems. These bots do not ask direct questions; instead, they rely on clever psychological tricks such as "reciprocity" and "reassurance," by showing empathy or telling short stories that imply safety and encourage the user to trust.
Researchers who used models like Llama 3 and Mistral confirmed that this technology could turn into a dangerous tool for collecting personal data. Experts warn users against naive interactions with these bots, emphasizing the need for caution and not sharing private information easily, no matter how natural or safe the conversation may seem.