أطلقت شركة ميتا ميزة الدبلجة الصوتية المدعومة بالذكاء الاصطناعي، لتكون متاحة عالميًا ابتداءً من اليوم في منصتي فيسبوك وإنستغرام، وفقًا لما صرحت به الشركة في بيان رسمي.
وتتيح الخاصية لناشري مقاطع الفيديو القصيرة Reels تحويل أصواتهم إلى لغة أخرى مع إمكانية مزامنة حركة الشفاه، وهي الميزة التي استعرضها مارك زوكربيرج لأول مرة خلال مؤتمر Meta Connect 2024 العام الماضي.
وتتوفر الخدمة حالياً لترجمة الصوت من الإنجليزية إلى الإسبانية والعكس فقط، على أن تضيف الشركة لغات أخرى تدريجيًا. وفي المرحلة الأولى، ستقتصر الميزة على صانعي المحتوى في فيسبوك ممن لديهم أكثر من ألف متابع، في حين ستكون متاحة لأي حساب عام في إنستقرام.
وتعمل الأداة على تدريب النموذج الذكي على صوت المستخدم الأصلي، ثم توليد مسار صوتي مترجم يحاكي نبرته، مع خيار إضافة تقنية مزامنة الشفاه لمطابقة حركة الفم مع الترجمة. وتتيح المنصة معاينة النتيجة قبل النشر، ويظهر للمشاهدين إشعار بأن الصوت مترجم بالاعتماد على الذكاء الاصطناعي.
وأوضحت ميتا أن الميزة تعمل بنحو أفضل مع مقاطع الفيديو التي يظهر فيها المتحدث أمام الكاميرا، ناصحةً بتجنب تغطية الفم أو إضافة موسيقى خلفية عالية، كما تدعم الميزة حتى شخصين في المقطع، شرط عدم تداخل أصواتهما.
وتسعى الشركة من خلال هذه الأداة إلى مساعدة صناع المحتوى في توسيع قاعدة جمهورهم خارج حدود لغتهم الأصلية، إذ أضافت أداة لقياس أداء المقاطع بحسب اللغة المترجمة إليها.
يُذكر أن يوتيوب كان قد أطلق ميزة مشابهة العام الماضي، في حين أضافت آبل أدوات ترجمة فورية إلى تطبيقات الرسائل والهاتف وفيس تايم في نظام iOS 26.
Meta has launched an AI-supported voice dubbing feature, which will be available globally starting today on the Facebook and Instagram platforms, according to a statement from the company.
The feature allows short video Reels publishers to convert their voices into another language with the ability to sync lip movements, a feature that Mark Zuckerberg showcased for the first time during the Meta Connect 2024 conference last year.
The service currently supports voice translation from English to Spanish and vice versa only, with the company planning to gradually add more languages. In the first phase, the feature will be limited to Facebook content creators with more than a thousand followers, while it will be available to any public account on Instagram.
The tool trains the smart model on the user's original voice, then generates a translated audio track that mimics their tone, with the option to add lip-sync technology to match mouth movements with the translation. The platform allows users to preview the result before publishing, and viewers will see a notification that the audio is translated using AI.
Meta explained that the feature works best with videos where the speaker is in front of the camera, advising against covering the mouth or adding loud background music. The feature also supports up to two people in the clip, provided their voices do not overlap.
Through this tool, the company aims to help content creators expand their audience beyond the boundaries of their native language, as it has added a tool to measure the performance of clips based on the translated language.
It is worth mentioning that YouTube launched a similar feature last year, while Apple added instant translation tools to its messaging, phone, and FaceTime applications in iOS 26.