تتجه شركة «ميتا» نحو مراجعة أنظمة الذكاء الاصطناعي الخاصة بها، من أجل إضافة ضوابط جديدة ترمي لحماية المراهقين من الانخراط في محادثات غير آمنة مع روبوتات الدردشة.
وقالت الشركة إنها ستفرض «حواجز حماية إضافية» لمنع المراهقين من مناقشة موضوعات حساسة، مثل إيذاء النفس واضطرابات الأكل والانتحار، مع روبوتات الذكاء الاصطناعي.
وأشارت إلى أنها ستعمل على منع المراهقين، عبر الضوابط الجديدة، من الوصول إلى بعض الشخصيات، التي يصنعها المستخدمون داخل المنصة، لإجراء محادثات غير ملائمة.
وتأتي خطوة «ميتا» بعد ورود تقارير حول طبيعة تفاعلات «روبوتات ميتا» مع المستخدمين من فئة المراهقين، وهو أمر أثار جدلًا واسعًا، وفق ما ذكرت «البوابة التقنية».
وكشف تقرير أن إحدى الوثائق الداخلية للشركة سمحت للروبوتات بخوض «محادثات حسية» مع مستخدمين قُصّر، قبل أن تصحح «ميتا» الأمر، وتصفه بأنه خطأ يتعارض مع سياساتها.
Meta is moving towards reviewing its artificial intelligence systems in order to add new controls aimed at protecting teenagers from engaging in unsafe conversations with chatbots.
The company stated that it will impose "additional protective barriers" to prevent teenagers from discussing sensitive topics, such as self-harm, eating disorders, and suicide, with AI chatbots.
It noted that it will work to prevent teenagers, through the new controls, from accessing certain characters created by users within the platform to engage in inappropriate conversations.
This move by Meta comes after reports regarding the nature of interactions between "Meta's robots" and teenage users, which sparked widespread controversy, according to "Tech Portal."
A report revealed that one of the company's internal documents allowed the robots to engage in "sensory conversations" with underage users, before Meta corrected the issue, describing it as a mistake that contradicts its policies.