شاهد هذا الموضوع -الرئيس التنفيذي لأنثروبيك ينتقد ضعف معايير الأمان في نموذج الذكاء الاصطناعي DeepSeek- عبر موقع فري بوست والآن الى تفاصيل الموضوع
في تصريحات مثيرة للجدل، أشار داريون أمودي، الرئيس التنفيذي لشركة أنثروبيك، إلى أن نموذج الذكاء الاصطناعي DeepSeek R1، المطور في الصين، يُعد الأضعف بين النماذج التي اختبرتها الشركة فيما يتعلق بتوليد معلومات حساسة حول الأسلحة البيولوجية.
جاءت هذه التصريحات خلال مقابلة أجراها أمودي على بودكاست ChinaTalk، حيث أوضح أن النموذج لا يمتلك أي آلية واضحة لمنع إنتاج محتوى قد يكون ضارًا. وأكد أن الاختبارات التي أجرتها أنثروبيك تهدف إلى تقييم المخاطر الأمنية المحتملة، خصوصًا تلك التي لا توفرها المصادر المتاحة عبر الإنترنت أو الكتب.
ورغم انتقاده، شدد أمودي على أن DeepSeek R1 لا يمثل تهديدًا مباشرًا في الوقت الحالي، لكنه قد يصبح مشكلة مستقبلية إذا لم يتم تعزيز معايير الأمان. كما دعا فريق DeepSeek إلى تحسين إجراءات الحماية، معترفًا بقدراتهم الهندسية في تطوير الذكاء الاصطناعي.
من جانب آخر، كشفت تقارير أمنية من شركة Cisco عن أن نموذج DeepSeek R1 سجل معدل نجاح كامل في تجاوز القيود الأمنية، ما أثار مزيدًا من المخاوف حول مدى التزامه بمعايير السلامة.
يأتي هذا الجدل في وقت يشهد تنافسًا متزايدًا في مجال الذكاء الاصطناعي بين شركات كبرى مثل أنثروبيك وأوبن أيه آي وجوجل، حيث تسعى كل منها إلى تطوير أنظمة أكثر تقدمًا وأمانًا. حتى الآن، لم تصدر شركة DeepSeek أي تعليق رسمي حول هذه المزاعم.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على موقع النجم للأخبار التقنية وقد قام فريق التحرير في موقع فري بوست بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أو الإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا يتحمل فري بوست أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.
رابط الخبر الأصلي