شاهد هذا الموضوع -ثغرة في ذاكرة ChatGPT تثير مخاوف أمنية- عبر موقع فري بوست والآن الى تفاصيل الموضوع
اكتشف باحث أمني ثغرة في ميزة “الذاكرة طويلة المدى” لروبوت الدردشة ChatGPT، تسمح بالتلاعب بذكريات الروبوت وتسريب البيانات.
أهم النقاط:
- الثغرة تمكّن من زرع معلومات كاذبة في ذاكرة ChatGPT.
- يمكن استغلالها لتسريب بيانات المستخدمين.
- استجابة OpenAI للمشكلة كانت محدودة.
اكتشاف الثغرة:
- الباحث يوهان ريهبيرجر وجد الخلل في فبراير 2024.
- الميزة أطلقت للجمهور في سبتمبر 2024.
آلية الاستغلال:
- رفع ملف Word يحتوي على “ذكريات” مزيفة.
- ChatGPT يقبل هذه المعلومات كحقائق.
تجارب ريهبيرجر:
- إقناع ChatGPT بأنه يعيش أكثر من 100 عام.
- برمجة الروبوت لتسريب البيانات لخادم خارجي.
استجابة OpenAI:
- تجاهلت التقرير الأولي للباحث.
- أصدرت تصحيحًا جزئيًا بعد إثبات الباحث خطورة الثغرة.
- منعت تسريب البيانات لكن لم تعالج مشكلة الذاكرة الكاذبة.
الصورة الكبيرة:
تسلط هذه الثغرة الضوء على التحديات الأمنية المستمرة في تطوير الذكاء الاصطناعي، وتثير تساؤلات حول مدى استعداد الشركات للتعامل مع المخاطر الأمنية في تقنياتها المتطورة.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على الموقع الأصلي وقد قام فريق التحرير في موقع فري بوست بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أو الإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا يتحمل فري بوست أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.
رابط الخبر الأصلي