شاهد هذا الموضوع -ثغرة خطيرة في ميزة الذاكرة طويلة المدى في ChatGPT تهدد بيانات المستخدمين- عبر موقع فري بوست والآن الى تفاصيل الموضوع
اكتشف باحث أمني وجود ثغرة كبيرة في ميزة الذاكرة طويلة المدى الخاصة بمنصة ChatGPT التي طورتها شركة OpenAI، تسمح للمخترقين بزرع معلومات زائفة تهدف إلى سرقة بيانات المستخدمين بشكل دائم.
الباحث الأمني يوهان ريهبيرجر هو من كشف عن هذه الثغرة، وقد أغلقتها OpenAI بسرعة، معتبرة أن هذا الخلل يمثل “مشكلة أمان” وليس ثغرة أمنية تقليدية. ريهبيرجر أعد نموذجاً عملياً يوضح كيفية استغلال هذه الثغرة لاستخراج جميع بيانات المستخدمين بشكل مستمر، مما أثار انتباه مهندسي OpenAI، الذين قاموا بإجراء إصلاح جزئي للثغرة في وقت لاحق.
تستفيد الثغرة من ميزة “الذاكرة طويلة المدى” التي بدأت OpenAI اختبارها منذ فبراير الماضي، وتم توسيع إتاحتها في سبتمبر. وتعمل هذه الميزة على تخزين معلومات من محادثات المستخدم السابقة مع ChatGPT، مما يمكن المنصة من استخدام هذه البيانات كمرجع في المحادثات المستقبلية، وبالتالي تسهل التفاعل إذ لا يحتاج المستخدم لإعادة إدخال تفاصيله مثل العمر أو اهتماماته في كل محادثة.
لكن خلال الأشهر الثلاثة الأولى من تفعيل هذه الميزة، اكتشف ريهبيرجر إمكانية زرع ذكريات دائمة باستخدام تقنية “حقن غير مباشر للأوامر”. هذه التقنية تعتمد على استغلال محتويات غير موثوقة مثل رسائل البريد الإلكتروني أو المدونات أو المستندات، لتنفيذ أوامر المستخدم بشكل يتعارض مع البرمجة الأصلية للمنصة.
تمكن الباحث من خداع ChatGPT ليصدق أن المستخدم قد بلغ عامه المئة واثنين، ويعيش في عالم خيالي، ويعتقد بأن الأرض مسطحة. ويمكن زرع هذه المعلومات الزائفة بسهولة من خلال تحميل ملفات على خدمات مثل Google Drive أو OneDrive، أو تصفح مواقع غير موثوقة عبر متصفح Bing، وهي نقاط ضعف يمكن للقراصنة استغلالها.
أبلغ ريهبيرجر شركة OpenAI عن الثغرة في مايو، ولكن الشركة أغلقت البلاغ دون اتخاذ إجراءات واضحة. وفي يونيو، أعاد تقديم البلاغ مع نموذج استغلال عملي يظهر كيف يمكن لتطبيق ChatGPT على نظام macOS أن يرسل نسخاً حرفية من كافة مدخلات ومخرجات المستخدم إلى خادم يتحكم فيه القراصنة.
كل ما كان على الباحث فعله لتنفيذ الهجوم هو مطالبة ChatGPT بفتح رابط يحتوي على صورة ضارة، ومن هنا تبدأ عملية سرقة البيانات بشكل متواصل.
على الرغم من أن OpenAI قدمت إصلاحاً جزئياً للثغرة يمنع استخدام “الذاكرة” كوسيلة لاستخراج البيانات، إلا أن الباحث أكد أن المحتويات غير الموثوقة لا تزال قادرة على تنفيذ عمليات حقن للأوامر، مما يتيح للقراصنة زرع معلومات في ذاكرة ChatGPT طويلة المدى.
ينصح الباحث الأمني مستخدمي ChatGPT بضرورة الإبلاغ عن أي إشعارات تظهر خلال استخدامهم المنصة حول إضافة ذكريات جديدة، وكذلك مراجعة الذكريات المخزنة على حساباتهم بانتظام للتأكد من عدم وجود معلومات زائفة.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على موقع النجم للأخبار التقنية وقد قام فريق التحرير في موقع فري بوست بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أو الإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا يتحمل فري بوست أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.
رابط الخبر الأصلي