كشفت مجلة «فوربس» أن روبوت الذكاء الاصطناعي «غروك» (المطور من قبل شركة «إكس إيه آي» المملوكة لإيلون ماسك) سرّب محادثات نحو 370 ألف مستخدم، بعدما ظهرت روابط تلك المحادثات في محركات البحث نتيجة خطأ برمجي.
وبحسب التقرير، فإن المشكلة نتجت عن ميزة المشاركة في «غروك»، حيث كان النظام يولد رابطًا فريدًا لكل محادثة، ثم تُدرج هذه الروابط في خرائط الموقع، ما أتاح لمحركات البحث مثل غوغل أرشفتها والوصول إليها بسهولة.
ولم تقتصر المحادثات المسربة على الطلبات العادية كصياغة تغريدات أو المساعدة في العمل، بل تضمنت محتويات حساسة مثل معلومات شخصية وكلمات مرور ومستندات وصور، إضافة إلى طلبات تتعلق باختراق محافظ العملات الرقمية والهجمات الإرهابية وطرق تصنيع قنابل وصولًا إلى سيناريوهات لاغتيال شخصيات عامة مثل إيلون ماسك.
كما شمل التسريب محادثات لصحفيين بارزين مثل البريطاني أندرو كليفورد الذي أكد أنه لم يكن على علم بأن محادثاته متاحة عبر غوغل، بينما تضمنت سجلات أخرى طلبات نصائح طبية ونفسية حساسة.
هذه الأزمة ليست الأولى في قطاع الذكاء الاصطناعي، إذ سبق أن واجهت شركة «أوبن إيه آي» حادثة مشابهة مع روبوت «شات جي بي تي»، لكنها سارعت حينها إلى تدارك الموقف.
ورغم أن الحساب الرسمي لـ«غروك» على منصة «إكس» كان قد أكد في وقت سابق أن محادثات المستخدمين سرية تمامًا، فإن التسريب الأخير أثار شكوكًا كبيرة حول مستوى حماية البيانات في خدمات الذكاء الاصطناعي.
Forbes magazine revealed that the AI robot "Grok" (developed by the company "X.AI" owned by Elon Musk) leaked conversations from about 370,000 users, after links to those conversations appeared in search engines due to a programming error.
According to the report, the issue arose from the sharing feature in "Grok," where the system generated a unique link for each conversation, and these links were then indexed in the site maps, allowing search engines like Google to archive and access them easily.
The leaked conversations were not limited to ordinary requests like drafting tweets or assisting with work, but included sensitive content such as personal information, passwords, documents, and images, in addition to requests related to hacking cryptocurrency wallets, terrorist attacks, and methods for making bombs, reaching scenarios for assassinating public figures like Elon Musk.
The leak also included conversations from prominent journalists such as British Andrew Clifford, who confirmed that he was unaware his conversations were available via Google, while other records included requests for sensitive medical and psychological advice.
This crisis is not the first in the AI sector, as "OpenAI" previously faced a similar incident with the "ChatGPT" robot, but they quickly moved to rectify the situation at that time.
Although the official account of "Grok" on the "X" platform had previously confirmed that user conversations were completely confidential, the recent leak raised significant doubts about the level of data protection in AI services.