google.com, pub-6069403238080384, DIRECT, f08c47fec0942fa0
منوعات

Meta تدرس إيقاف تطوير أنظمة الذكاء الاصطناعي المحفوفة بالمخاطر

القاهرة: «سوشيال بريس»

تعهد الرئيس التنفيذي لشركة Minta ، Meta ، بجعل الذكاء الاصطناعي العام (AGI) – الذي يُعرّف تقريبًا بأنه ذكاء اصطناعي يمكنه إنجاز أي مهمة يمكن أن ينجزها الشخص – مفتوحًا في يوم من الأيام.

ولكن في وثيقة سياسية جديدة ، يلاحظ Meta أن هناك سيناريوهات معينة لا يمكن فيها إطلاق نظام ذكاء اصطناعي قادر للغاية داخليًا.

تحدد المستند ، الذي يطلق عليه Meta Frontiere AI ، نوعين من أنظمة الذكاء الاصطناعي التي تعتبرها الشركة مخاطرة كبيرة بحيث لا يمكن إصدارها ، وهي “المخاطر العالية” و “المخاطر الحرجة” ، لأنها تحدد MITA ، كلاهما ، كلاهما من الأنظمة. يمكن للمخاطر العالية “و” المخاطر الحرجة “مساعدة الأمن السيبراني والهجمات الكيميائية والبيولوجية ، والفرق هو أن أنظمة” المخاطر الحرجة “يمكن أن تؤدي إلى” نتيجة كارثية.

على النقيض من ذلك ، قد تجعل الأنظمة المرتفعة المخاطر الهجوم يقوم بالهجوم أسهل ولكن غير موثوق أو موثوق به مثل نظام المخاطر الحرج.

ذكر Meta نوع الهجمات الخطرة ، مثل “التسوية التلقائية الشاملة لبيئة مؤسسية محمية من قبل أفضل الممارسات” و “انتشار الأسلحة البيولوجية المؤثرة للغاية” ، وتعترف الشركة بأن قائمة الكوارث المحتملة في وثيقة ميتة هي ليس شاملاً ، ولكنه يشمل أولئك الذين تعتقد ميتا أنهم “الأكثر إلحاحًا”.

وفقًا للوثيقة ، تصنف META مخاطر النظام لا تستند إلى أي اختبار تجريبي واحد ، ولكن بناءً على مدخلات الباحثين الداخليين والخارجيين الذين يخضعون للمراجعة من قبل “صانعي القرار على مستوى عالٍ”.

يعتقد Meta أنه لا يعتقد أن علم التقييم قوي بما يكفي لتوفير معايير محددة ، لتحديد مدى خطر النظام ، وإذا قرر Meta أن النظام مخاطر عالية ، تقول الشركة إنها ستقتصر على الوصول إلى النظام داخليًا ولن يطلقه حتى إجراءات التخفيف “لتقليل المخاطر إلى المستويات المعتدلة”.

من ناحية أخرى ، إذا كان النظام يعتبر خطيرًا للغاية ، فإن Meta تقول إنها ستنفذ تدابير حماية الأمان غير محددة لمنع النظام وتخزينه.

اعتمدت Meta استراتيجية لجعل تكنولوجيا الذكاء الاصطناعي مفتوحة – على الرغم من أنها ليست مفتوحة المصدر وفقًا لتعريف المفهوم بشكل عام – على عكس الشركات مثل Openai التي تختار بوابة أنظمتها وراء واجهة برمجة API (API).

للمزيد : تابعنا هنا ، وللتواصل الاجتماعي تابعنا علي فيسبوك وتويتر .

مصدر المعلومات والصور: socialpress

 

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى