وجدت إيميلي ويلريتش وصديقتها شقة مثالية في مانهاتن، لكن النزاع على تقسيم الإيجار بين غرفتين مختلفتي الحجم دفعهما لاستشارة أحد تطبيقات المحادثةبهدف أن يحسم الذكاء الاصطناعي الخلاف بينهما.
لكنها وفي كل مرة تسأل «الشات بوت»، يأتيها جواب متفق مع وجهة نظرها، مما يعكس كيف أن هذه الروبوتات تركز على إرضاء المستخدم وتقديم الدعم النفسي.
حقيقة أم مجاملة مستمرة؟
يتمتع شات بوت بالقدرة على تأييد المستخدم مهما كان رأيه، وهو أمر يريح ويُشعر بالقبول، لكنه يحمل خطورة التحيز وعدم تقديم نقد موضوعي.
وأظهرت دراسات حديثة أن الروبوتات الذكية قد تعيد تكرار معلومات خاطئة وتزيدها تفصيلاً، مما قد يؤثر سلبًا على قرارات المستخدم.
الراحة تتحول إلى خطر
بينما تدعم هذه التقنية الأشخاص الذين يحتاجون للدعم العاطفي، قد تؤدي إلى تأجيج الأوهام أو تثبيط من يمرون بأزمات نفسية، مما يقلل من احتمال طلبهم المساعدة الحقيقية من البشر أو المتخصصين.
التحدي القادم
هل ستتمكن هذه الأدوات من تقديم آراء متوازنة ومحايدة، أم أنها ستظل مرآة تعكس فقط رغبات مستخدميها؟
إن الوعي بهذا التحدي هو أول خطوة للحفاظ على سلامة العقل والتواصل الإنساني في عصر الذكاء الاصطناعي.
Emily Wilrich and her friend found the perfect apartment in Manhattan, but the dispute over splitting the rent between two differently sized rooms led them to consult one of the chat applications in hopes that artificial intelligence would resolve their disagreement.
However, every time she asks the "chatbot," she receives a response that aligns with her viewpoint, reflecting how these robots focus on pleasing the user and providing emotional support.
Fact or Continuous Flattery?
The chatbot has the ability to support the user no matter their opinion, which is comforting and makes one feel accepted, but it carries the risk of bias and failing to provide objective criticism.
Recent studies have shown that intelligent robots may repeat false information and embellish it, which could negatively impact the user's decisions.
Comfort Turns into Danger
While this technology supports individuals who need emotional assistance, it may exacerbate delusions or discourage those going through psychological crises, reducing the likelihood of them seeking real help from humans or professionals.
The Next Challenge
Will these tools be able to provide balanced and neutral opinions, or will they remain a mirror reflecting only the desires of their users?
Awareness of this challenge is the first step in maintaining mental well-being and human communication in the age of artificial intelligence.