أعلنت منصة «إنستغرام»، التابعة لشركة ميتا، اعتماد نظام تصنيف مشابه لنظام «PG-13» المستخدم في السينما الأمريكية، بهدف تعزيز رقابة الآباء على استخدام أبنائهم المراهقين للمنصة.
وسيتم تطبيق هذا النظام على حسابات المراهقين، إذ سيتم وضع جميع المستخدمين دون سن 18 تلقائياً في إعداد «13+»، مع إمكانية الخروج منه فقط بموافقة الوالدين.
قيود أكثر صرامة
ويأتي هذا الإجراء في إطار تشديد القيود على المحتوى غير المناسب، إذ تمنع حسابات المراهقين حالياً عرض أو التوصية بالمحتوى الجنسي الصريح، الصور المزعجة، أو المحتوى المتعلق بالكحول والتبغ.
ومع النظام الجديد، ستتوسع القيود لتشمل إخفاء أو عدم التوصية بالمنشورات التي تحتوي على لغة نابية، حيل خطيرة، أو محتوى قد يشجع على سلوكيات ضارة مثل منشورات تروج لأدوات تدخين الماريجوانا، كما ستحظر المنصة مصطلحات بحث مثل «الكحول» أو «العنف»، حتى لو كتبت بطريقة خاطئة.
وأوضحت «ميتا» أن هذا النظام يهدف إلى جعل تجربة المراهقين على «إنستغرام» مشابهة لمشاهدة فيلم مصنف «PG-13»، مع السماح بمحتوى محدود مثل العري غير الجنسي أو العنف المعتدل، على غرار أفلام مثل «تيتانيك» أو «The Fast and the Furious». وأضافت أن هذه الخطوة تهدف إلى مواءمة سياساتها مع معايير مستقلة مألوفة للآباء.
«الأطفال ليسوا آمنين على إنستغرام»
وتأتي هذه التغييرات بعد تقرير مستقل، شارك فيه آرتورو بيجار، مهندس سابق في «ميتا»، وجامعات مثل نيويورك ونورث إيسترن، ومؤسسة مولي روز البريطانية، كشف أن 64% من أدوات السلامة الجديدة على «إنستغرام» غير فعالة، وخلص إلى أن «الأطفال ليسوا آمنين على إنستغرام». ورفضت ميتا هذه النتائج، مؤكدة أن لدى الآباء أدوات فعالة للرقابة.
بدء التحديثات مطلع 2026
من جانبها، طالبت هيئة الاتصالات البريطانية «أوفكوم» شركات التواصل الاجتماعي باتخاذ نهج يركز على السلامة، مهددة باتخاذ إجراءات ضد المنصات غير الملتزمة، وستبدأ التحديثات في الولايات المتحدة، المملكة المتحدة، أستراليا، وكندا، وستصل إلى أوروبا وباقي دول العالم مطلع العام المقبل.
ورغم ذلك، أعربت جهات ناشطة عن شكوكها في فعالية هذه التغييرات، وقالت مديرة السياسات في مؤسسة مولي روز روان فيرغسون: «إعلانات ميتا المتكررة لا تترجم دائماً إلى تحسينات حقيقية في سلامة المراهقين، وما زال هناك الكثير للقيام به لحمايتهم من المحتوى الضار، يجب تقييم هذه التحديثات بناءً على فعاليتها، وهذا يتطلب شفافية من ميتا للسماح بالاختبار المستقل لميزات السلامة».
The platform "Instagram", owned by Meta, announced the adoption of a classification system similar to the "PG-13" rating used in American cinema, aimed at enhancing parental oversight of their teenage children's use of the platform.
This system will be applied to teenage accounts, as all users under the age of 18 will automatically be placed in the "13+" setting, with the option to exit it only with parental consent.
Tighter Restrictions
This measure comes as part of tightening restrictions on inappropriate content, as teenage accounts currently prohibit the display or recommendation of explicit sexual content, disturbing images, or content related to alcohol and tobacco.
With the new system, restrictions will expand to include hiding or not recommending posts that contain profanity, dangerous challenges, or content that may encourage harmful behaviors, such as posts promoting marijuana smoking devices. The platform will also ban search terms like "alcohol" or "violence," even if misspelled.
Meta clarified that this system aims to make teenagers' experience on Instagram similar to watching a movie rated "PG-13," allowing limited content such as non-sexual nudity or moderate violence, akin to films like "Titanic" or "The Fast and the Furious." They added that this step aims to align their policies with familiar independent standards for parents.
"Children Are Not Safe on Instagram"
These changes come after an independent report, which included input from Arturo Bejar, a former engineer at "Meta", and universities such as New York and Northeastern, along with the British Molly Rose Foundation, revealing that 64% of the new safety tools on Instagram are ineffective, concluding that "children are not safe on Instagram." Meta rejected these findings, asserting that parents have effective tools for oversight.
Updates to Begin in Early 2026
For its part, the British communications regulator Ofcom has urged social media companies to adopt a safety-focused approach, threatening to take action against non-compliant platforms. The updates will begin in the United States, the United Kingdom, Australia, and Canada, and will reach Europe and the rest of the world early next year.
Nevertheless, activist groups have expressed doubts about the effectiveness of these changes. Rowan Ferguson, policy director at the Molly Rose Foundation, stated: "Meta's repeated announcements do not always translate into real improvements in teen safety, and there is still much to be done to protect them from harmful content. These updates should be evaluated based on their effectiveness, which requires transparency from Meta to allow for independent testing of safety features."