طور باحثون من جامعة كاليفورنيا (UCLA) الأمريكية نظام واجهة دماغ وحاسوب غير جراحي، مدعوم بالذكاء الاصطناعي، يتيح للمستخدمين التحكم في ذراع روبوتية أو مؤشر شاشة بسرعة ودقة عالية.
ويعمل النظام على تحويل إشارات الدماغ المسجلة بتقنية تخطيط النشاط الكهربائي للدماغ (EEG) إلى أوامر حركية، مع كاميرا مدمجة مدعومة بالذكاء الاصطناعي تفسر نوايا المستخدم لحظيا.
أجرى الباحثون دراسة لاختبار النظام، حيث تمكن المشاركون، بمن فيهم شخص مصاب بالشلل، من إنجاز المهمات بسرعة أكبر بكثير مقارنة بالاعتماد على واجهة الدماغ والحاسوب وحدها، وأتموا أنشطة كان من الصعب تنفيذها بدون دعم الذكاء الاصطناعي.
ونشرت نتائج الدراسة في مجلة Nature Machine Intelligence، وأظهرت مستوى جديدا من الأداء في أنظمة واجهات الدماغ والحاسوب غير الجراحية.
وصمم الفريق خوارزميات مخصصة لفك إشارات النشاط الكهربائي للدماغ (EEG) التي تعكس نية الحركة، ودمجها في منصة ذكاء اصطناعي تعتمد على الكاميرا لتفسير اتجاه الحركة لحظيا، مما ساعد المصابين بالشلل ومن يعانون مشكلات حركية في أداء المهمات بسرعة أكبر.
وقال جوناثان كاو الباحث الرئيسي في الدراسة، وأستاذ الهندسة الكهربائية وهندسة الحاسوب: «باستخدام الذكاء الاصطناعي وواجهات الدماغ والحاسوب، نطمح إلى تطوير طرق أقل خطورة وتدخلا لمساعدة مرضى الاضطرابات الحركية مثل الشلل أو التصلب الجانبي الضموري (ALS)، وهدفنا تطوير أنظمة تساعد هؤلاء المرضى على استعادة استقلاليتهم في مهامهم اليومية».
كما اختبر الباحثون النظام على أربعة مشاركين: ثلاثة أصحاء ورابع مصاب بالشلل من الجزء السفلي من الجسم، وارتدى المشاركون قبعة خاصة لقياس النشاط الكهربائي للدماغ لتسجيل الإشارات EEG.
وترجمت الخوارزميات هذه الإشارات إلى حركات للمؤشر والذراع الروبوتية، بينما ساعد نظام الذكاء الاصطناعي المزود بالكاميرا في توجيه الحركات لإتمام مهمتين رئيسيتين، هما تحريك مؤشر الشاشة لإصابة ثمانية أهداف متتالية وتشغيل الذراع الروبوتية لنقل أربعة مكعبات من مواقعها الأصلية إلى مواقع محددة.
ونجح المشاركون في إنجاز المهمتين بسرعة أكبر بمساعدة الذكاء الاصطناعي، وكان أبرزهم المشارك المصاب بالشلل الذي أكمل مهمة الذراع الروبوتية في نحو ست دقائق، ولم يتمكن من إتمامها من دونه.
وأشار يوهانس لي، المؤلف المشارك وطالب الدكتوراه في الهندسة الكهربائية والحاسوب، إلى أن الخطوات القادمة تشمل تطوير أنظمة أكثر تقدما لتحريك الأذرع الروبوتية بسرعة ودقة أعلى، مع تكييف طريقة اللمس بحسب طبيعة الجسم المراد الإمساك به، وجمع بيانات تدريبية أوسع لتحسين التعاون في مهام أعقد وتعزيز دقة فك إشارات EEG.
Researchers from the University of California (UCLA) have developed a non-invasive brain-computer interface system, powered by artificial intelligence, that allows users to control a robotic arm or screen pointer with high speed and accuracy.
The system works by converting brain signals recorded using electroencephalography (EEG) into motor commands, with an integrated AI-supported camera that interprets the user's intentions in real-time.
The researchers conducted a study to test the system, where participants, including a person with paralysis, were able to complete tasks much faster compared to relying solely on the brain-computer interface, and they accomplished activities that were difficult to perform without AI support.
The results of the study were published in the journal Nature Machine Intelligence, showing a new level of performance in non-invasive brain-computer interface systems.
The team designed custom algorithms to decode EEG signals that reflect movement intention and integrated them into an AI platform based on the camera to interpret the direction of movement in real-time, helping those with paralysis and mobility issues perform tasks more quickly.
Jonathan Kao, the lead researcher in the study and a professor of electrical engineering and computer science, stated, “By using artificial intelligence and brain-computer interfaces, we aim to develop less risky and invasive methods to assist patients with movement disorders such as paralysis or amyotrophic lateral sclerosis (ALS), and our goal is to develop systems that help these patients regain their independence in daily tasks.”
The researchers also tested the system on four participants: three healthy individuals and one who was paralyzed from the waist down, with participants wearing a special cap to measure brain electrical activity to record EEG signals.
The algorithms translated these signals into movements for the pointer and robotic arm, while the AI system equipped with the camera helped guide the movements to complete two main tasks: moving the screen pointer to hit eight consecutive targets and operating the robotic arm to transfer four cubes from their original locations to specified locations.
The participants successfully completed the tasks faster with the help of AI, notably the participant with paralysis who completed the robotic arm task in about six minutes, which he could not have done without it.
Johannes Lee, a co-author and PhD student in electrical engineering and computer science, noted that the next steps include developing more advanced systems to move robotic arms with higher speed and accuracy, adapting the touch method according to the nature of the object to be grasped, and gathering broader training data to improve collaboration on more complex tasks and enhance the accuracy of EEG signal decoding.