أعلنت المفوضية الأوروبية اليوم (الجمعة) عن بدء تحقيق أولي في امتثال 4 منصات رقمية كبرى للوائح الاتحاد الأوروبي الرقمية، مع التركيز على حماية القاصرين من المحتوى الضار والمنتجات غير القانونية.
وفقًا لتصريحات نائبة الرئيس التنفيذي هينا فيركونين، أرسلت المفوضية طلبات للحصول على معلومات إلى منصتي «سناب شات» و«يوتيوب»، بالإضافة إلى متجري «آبل ستور» و«جوجل بلاي»، حول آليات التحقق من العمر ومنع الوصول إلى المحتوى الخطر.
منع من الخدمة
وفي بيان رسمي نشرته المفوضية اليوم، حددت الطلبات الرئيسية كالتالي: لـ«سناب شات»، التركيز على منع الأطفال دون 13 عامًا من الوصول إلى الخدمة، خلافًا لشروط المنصة الخاصة بها، بالإضافة إلى حظر المحتوى الضار مثل الترويج لاضطرابات الأكل، أما «يوتيوب»، فيُطلب منها تفاصيل حول أنظمة التحقق من العمر ومنع الوصول إلى منتجات غير قانونية مثل المخدرات أو السجائر الإلكترونية.
وبالنسبة لمتجري «آبل ستور» و«جوجل بلاي»، يركز التحقيق على كيفية إدارة مخاطر تنزيل تطبيقات ضارة، بما في ذلك تطبيقات القمار أو أدوات إنشاء صور جنسية غير موافق عليها، وتطبيق تصنيفات العمر للتطبيقات.
وتعتبر هذه الطلبات هي الخطوة الأولى في عملية التنفيذ؛ إذا ثبت انتهاك، قد تفتح تحقيقات رسمية، مع إمكانية غرامات هائلة، حيث أكدت فيركونين، أثناء اجتماع الوزراء في هورسينس، أن المفوضية تتعاون مع السلطات الوطنية لتحديد المنصات الأكثر خطورة، مشيرة إلى أن «اليوم، إلى جانب السلطات الوطنية، نقيّم ما إذا كانت الإجراءات الحالية تحمي الأطفال فعليًا».
تنظيم العالم الرقمي
ويُعد قانون الخدمات الرقمية، الذي دخل حيز التنفيذ الكامل في فبراير 2024، أحد أبرز التشريعات الأوروبية لتنظيم العالم الرقمي، حيث يلزم المنصات الكبرى -مثل سناب شات ويوتيوب – باتخاذ إجراءات صارمة لمكافحة المحتوى غير القانوني والضار، خاصة تجاه القاصرين الذين يشكلون نحو 25% من مستخدمي الإنترنت في الاتحاد الأوروبي (أكثر من 50 مليون طفل).
وتطال اللوائح الجديدة، التي صدرت في إرشادات حول حماية القاصرين في سبتمبر الماضي، بأنظمة تحقق عمر فعالة، ومنع الوصول إلى مواد تروج للإبادة الذاتية أو اضطرابات الأكل، أو منتجات مثل المخدرات والسجائر الإلكترونية.
ويأتي هذا التحقيق في سياق حملة أوسع؛ فقد فتحت المفوضية تحقيقات سابقة في «تيك توك» و «إنستغرام» و «فيسبوك» بسبب الإدمان الرقمي لدى الأطفال، مع غرامات محتملة تصل إلى 6% من الإيرادات العالمية السنوية، خاصة بعد حظر الدنمارك، التي تتولى رئاسة الاتحاد الأوروبي لستة أشهر، المنصات الاجتماعية للأطفال دون 15 عامًا.
The European Commission announced today (Friday) the initiation of a preliminary investigation into the compliance of four major digital platforms with EU digital regulations, focusing on protecting minors from harmful content and illegal products.
According to statements from Executive Vice President Hina Verkoenen, the Commission has sent requests for information to the platforms "Snapchat" and "YouTube," as well as to the "Apple Store" and "Google Play" stores, regarding their age verification mechanisms and measures to prevent access to harmful content.
Service Denial
In an official statement published by the Commission today, the main requests were outlined as follows: for "Snapchat," the focus is on preventing children under 13 from accessing the service, contrary to the platform's own terms, in addition to banning harmful content such as the promotion of eating disorders. As for "YouTube," it is requested to provide details about age verification systems and preventing access to illegal products such as drugs or e-cigarettes.
For the "Apple Store" and "Google Play" stores, the investigation focuses on how they manage the risks of downloading harmful applications, including gambling apps or tools for creating non-consensual sexual images, and applying age ratings for the apps.
These requests are considered the first step in the enforcement process; if violations are found, formal investigations may be opened, with the possibility of hefty fines. Verkoenen confirmed during a meeting of ministers in Horsens that the Commission is working with national authorities to identify the most dangerous platforms, noting that "today, along with national authorities, we are assessing whether current measures actually protect children."
Regulating the Digital World
The Digital Services Act, which will come into full effect in February 2024, is one of the most significant European legislations for regulating the digital world, requiring major platforms - such as Snapchat and YouTube - to take stringent actions against illegal and harmful content, especially concerning minors who make up about 25% of internet users in the EU (over 50 million children).
The new regulations, which were issued in guidelines on protecting minors last September, mandate effective age verification systems and preventing access to materials that promote self-harm or eating disorders, or products like drugs and e-cigarettes.
This investigation comes in the context of a broader campaign; the Commission has previously opened investigations into "TikTok," "Instagram," and "Facebook" due to digital addiction among children, with potential fines reaching up to 6% of global annual revenue, especially after Denmark, which holds the EU presidency for six months, banned social platforms for children under 15 years old.