شاهد هذا الموضوع -OpenAI تنشئ لجنة مستقلة لمراقبة أمان الذكاء الاصطناعي وسط انتقادات متزايدة- عبر موقع فري بوست والآن الى تفاصيل الموضوع
أعلنت شركة OpenAI عن خطوة جديدة لتعزيز أمن تقنياتها المتقدمة في مجال الذكاء الاصطناعي، حيث قررت الشركة تحويل لجنة السلامة والأمن، التي تم تأسيسها في مايو الماضي، إلى لجنة إشراف مستقلة تتبع مباشرة مجلس الإدارة. هذه الخطوة تأتي في ظل تزايد الانتقادات حول مخاطر تطور الذكاء الاصطناعي وتأثيره المحتمل على الأمان.
سيقود اللجنة زيكو كولتر، مدير قسم التعلم الآلي في جامعة كارنيجي ميلون، وسينضم إليه أعضاء بارزون مثل آدم دانجيلو، المؤسس المشارك لمنصة Quora وعضو مجلس إدارة OpenAI، وبول ناكاسوني، الرئيس السابق لوكالة الأمن القومي، بالإضافة إلى نيكول سيليجمان، نائبة الرئيس التنفيذي السابقة في سوني. ستكون مهمتهم الأساسية هي الإشراف على العمليات المتعلقة بالسلامة والأمن خلال تطوير ونشر نماذج الذكاء الاصطناعي الخاصة بـ OpenAI.
مؤخراً، انتهت اللجنة من مراجعة شاملة استغرقت 90 يوماً لتقييم الإجراءات والعمليات الحالية للشركة. وقدمت مجموعة من التوصيات الرئيسية التي تتضمن إنشاء إدارة مستقلة مخصصة للأمان والسلامة، تعزيز إجراءات الأمان، زيادة الشفافية في أعمال OpenAI، وتعزيز التعاون مع المنظمات الخارجية لتطوير أطر عمل موحدة تتعلق بالسلامة. الشركة تعهدت بنشر نتائج هذه المراجعات بشكل علني لضمان الشفافية.
في خطوة أخرى، أطلقت OpenAI إصدارًا تجريبيًا جديدًا من نموذج الذكاء الاصطناعي أطلقت عليه اسم o1، والذي يركز بشكل خاص على مهارات التفكير وحل المشكلات المعقدة. وأشارت الشركة إلى أن اللجنة راجعت بدقة معايير السلامة قبل الموافقة على إطلاق النموذج الجديد.
إلى جانب هذه التحركات، تواجه OpenAI انتقادات مستمرة حول نموها السريع والقدرة على السيطرة على مخاطر الذكاء الاصطناعي، وخاصة فيما يتعلق بالذكاء الاصطناعي العام (AGI) والذكاء الاصطناعي الفائق (ASI). تقارير إعلامية حديثة أفادت أن عددًا من الباحثين البارزين في مجال أمان الذكاء الاصطناعي غادروا الشركة بسبب خلافات في كيفية التعامل مع هذه المخاطر. من بين هؤلاء كان إيليا سوتسكيفر ويان ليك، وهما من العلماء البارزين الذين قادوا فريق “التوافق الفائق” المسؤول عن أمان الأنظمة المتقدمة.
كما أعرب موظفو OpenAI الحاليون والسابقون عن قلقهم بشأن نقص الرقابة على منتجات الشركة، بالإضافة إلى غياب حماية كافية للمبلغين عن المخالفات، وذلك في رسالة مفتوحة نُشرت في وقت سابق من هذا العام.
وتأتي هذه التحركات في ظل استعداد OpenAI لجولة تمويلية ضخمة قد ترفع قيمتها السوقية إلى أكثر من 150 مليار دولار. ووفقًا لتقارير، من المتوقع أن تشارك شركات كبرى مثل مايكروسوفت وإنفيديا وآبل في هذا التمويل.
وقد وصلنا إلى نهاية المقال ، و تَجْدَرُ الإشارة بأن الموضوع الأصلي قد تم نشره ومتواجد على موقع النجم للأخبار التقنية وقد قام فريق التحرير في موقع فري بوست بالتأكد منه وربما تم التعديل عليه وربما قد يكون تم نقله بالكامل أو الإقتباس منه ويمكنك قراءة ومتابعة مستجدات هذا الخبر أو الموضوع من مصدره الأساسي ولا يتحمل فري بوست أية مسؤولية قانونية عن الصور أو الخبر المنشور شاكرين لكم متابعتكم.
رابط الخبر الأصلي