في خطوة مثيرة للقلق، تمكنت محادثات ChatGPT الخاصة بعدد من المستخدمين من الظهور في نتائج البحث على قوقل لفترة قصيرة، مما أثار مخاوف كبيرة حول خصوصية البيانات. وجاء هذا التسريب في وقت حساس لشركة OpenAI، التي كانت تخوض معركة قانونية ضد أمر قضائي يطالبها بحفظ جميع المحادثات، بما في ذلك المحذوفة، إلى أجل غير مسمى.
وحسب تقرير من فاست كومباني، ظهرت محادثات تحتوي على معلومات حساسة مثل تفاصيل عن الحياة الجنسية، وتعاطي المخدرات، والمشاكل العائلية، والصحة النفسية، في نتائج بحث قوقل. على الرغم من أن هذه المحادثات لم تتضمن أسماء أو تفاصيل تسجيل دخول، إلا أنها كانت تحتوي على معلومات كافية لتحديد هوية بعض المستخدمين. وجاء الخطأ نتيجة لميزة «مشاركة» التي تسمح للمستخدمين بنسخ رابط محادثاتهم وجعلها قابلة للاكتشاف عبر الإنترنت. وكانت الشركة قد وضعت تحذيرًا صغيرًا ينبه المستخدمين إلى احتمال ظهور المحادثة في محركات البحث، لكن ذلك لم يكن واضحًا بما فيه الكفاية بالنسبة للبعض. وفي البداية، صرحت OpenAI بأن التصنيف كان «واضحًا بما فيه الكفاية»، لكن مسؤول الأمن في الشركة دان ستاكي، اعترف لاحقًا بأن الميزة جعلت من السهل على المستخدمين مشاركة محادثاتهم عن غير قصد. وبعد التسريب، سحبت OpenAI الميزة وبدأت في إزالة المحادثات المفهرسة من قوقل، مشيرة إلى أن قوقل لم تُفهرس المحادثات بنفسها، بل كانت الشركة هي من نشر الصفحات بشكل عام. وبهذا، كانت OpenAI مسؤولة بالكامل عن التسريب. هذا الخطأ يضع الشركة في موقف حرج، خصوصا في وقت يتطلب منها توضيح موقفها القانوني في ما يتعلق بحفظ المحادثات، الأمر لا يبدو جيدًا بالنسبة لشركة تدّعي أن خصوصية مستخدميها «أمر بالغ الأهمية»، في حين تكشف الحوادث مثل هذه عن ثغرات في التعامل مع بيانات المستخدمين الحساسة.
In a concerning development, ChatGPT conversations of several users briefly appeared in Google search results, raising significant privacy concerns. This leak came at a sensitive time for OpenAI, which was embroiled in a legal battle against a court order requiring it to retain all conversations, including deleted ones, indefinitely.
According to a report from Fast Company, conversations containing sensitive information such as details about sexual life, drug use, family issues, and mental health appeared in Google search results. Although these conversations did not include names or login details, they contained enough information to identify some users. The error resulted from a "share" feature that allows users to copy a link to their conversations and make them discoverable online. The company had placed a small warning notifying users of the possibility of their conversation appearing in search engines, but it was not clear enough for some. Initially, OpenAI stated that the labeling was "clear enough," but the company's security officer, Dan Stakey, later admitted that the feature made it easy for users to inadvertently share their conversations. After the leak, OpenAI disabled the feature and began removing indexed conversations from Google, noting that Google did not index the conversations itself; rather, the company was the one that published the pages publicly. Thus, OpenAI was fully responsible for the leak. This error puts the company in a difficult position, especially at a time when it needs to clarify its legal stance regarding the retention of conversations, which does not bode well for a company that claims user privacy is "paramount," while incidents like this reveal vulnerabilities in handling sensitive user data.