أصبح الذكاء الاصطناعي جزءاً لا يتجزأ من حياتنا اليومية، وظهر بشكل واضح في الهواتف الذكية التي نستخدمها. من تحسين تجربة المستخدم إلى تقديم ميزات جديدة تساعدنا على إدارة حياتنا بشكل أفضل، كإطلاق ميزة مبتكرة باسم «Gemini Live» من شركة «غوغل» تتيح للمستخدمين التفاعل مع الذكاء الاصطناعي بشكل طبيعي عبر كاميرا الهاتف أو شاشة الجهاز. تهدف التقنية إلى تسهيل الفهم والاستجابة الفورية لما يحيط بالمستخدم من خلال تقديم إجابات ذكية تعتمد على المعالجة البصرية.
وخلال مؤتمر «Google I/O» الأخير، كشفت «غوغل» عن إضافة جديدة لتطبيق «Gemini» تمكّن المستخدم من توجيه كاميرا الهاتف نحو كائن أو موقف معين وطرح أسئلة صوتية مباشرة، ليقوم الذكاء الاصطناعي بتحليل المشهد، وتقديم ردود فورية وسياقية. الميزة متاحة مجاناً لمستخدمي «iOS وAndroid»، ومصممة لتكون سهلة الاستخدام، خاصة لفئة ذوي الإعاقات البصرية أو الكتابية.كيفية استخدام «Gemini Live»
تثبيت أو تحديث تطبيق «Gemini» إلى أحدث إصدار.
الدخول إلى التطبيق واختيار ميزة «Gemini Live» من رمز على يمين حقل الإدخال (3 خطوط عمودية ونجمة).
اختيار إما أيقونة الكاميرا لعرض المشهد أمام المستخدم، أو أيقونة مشاركة الشاشة لعرض محتويات شاشة الهاتف.
توجيه الأسئلة صوتياً حول المشهد المعروض، والحصول على ردود فورية من الذكاء الاصطناعي.
تطبيقات «Gemini Live» في الحياة اليومية
الدعم الفني الفوري: التفاعل مع الأجهزة عبر الكاميرا، وطلب المساعدة دون الحاجة إلى كتيبات أو اتصال بخدمة الدعم.
تحسين التعلم: تيسير الحصول على تفسيرات فورية للصور أو الوثائق المعروضة على الشاشة، مما يدعم الطلاب.
مساعدة ذوي الاحتياجات الخاصة: تمكين الأشخاص ذوي الإعاقات البصرية أو الكتابية من التفاعل مع العالم بشكل مستقل.
تخطط «غوغل» لدمج الميزة مع تطبيقات، مثل: خرائط غوغل، وتقويم غوغل، لتسهيل:
Artificial intelligence has become an integral part of our daily lives, clearly evident in the smartphones we use. From enhancing user experience to providing new features that help us manage our lives better, such as the innovative feature named "Gemini Live" from Google, which allows users to interact with AI naturally through the phone's camera or device screen. The technology aims to facilitate understanding and immediate responses to the user's surroundings by providing intelligent answers based on visual processing.
During the recent "Google I/O" conference, Google unveiled a new addition to the "Gemini" app that enables users to point their phone's camera at a specific object or situation and ask direct voice questions, allowing the AI to analyze the scene and provide immediate and contextual responses. The feature is available for free to iOS and Android users and is designed to be user-friendly, especially for individuals with visual or writing disabilities.How to use "Gemini Live"
Install or update the "Gemini" app to the latest version.
Open the app and select the "Gemini Live" feature from the icon on the right side of the input field (3 vertical lines and a star).
Choose either the camera icon to view the scene in front of the user or the screen sharing icon to display the contents of the phone's screen.
Ask voice questions about the displayed scene and receive immediate responses from the AI.
Applications of "Gemini Live" in daily life
Instant technical support: Interact with devices via the camera and request assistance without the need for manuals or contacting support services.
Enhanced learning: Facilitate obtaining immediate explanations for images or documents displayed on the screen, supporting students.
Assistance for people with disabilities: Empower individuals with visual or writing disabilities to interact with the world independently.
Google plans to integrate the feature with applications such as Google Maps and Google Calendar to facilitate: