اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “يقول Meta إنها قد تتوقف عن تطوير أنظمة الذكاء الاصطناعى التي تعتبرها محفوفة بالمخاطر للغاية
” نترككم مع محتوى الخبر
تعهد المدير التنفيذي لشركة Meta Mark Zuckerberg بجعل الذكاء العام الاصطناعي (AGI) – الذي يتم تعريفه تقريبًا بأنه منظمة العفو الدولية التي يمكن أن تنجز أي مهمة يمكن للإنسان – متاحًا بشكل علني في يوم من الأيام. ولكن في وثيقة سياسة جديدة ، تقترح Meta أن هناك سيناريوهات معينة قد لا تصدر فيها نظام AI قادرًا للغاية على تطويره داخليًا.
تحدد الوثيقة ، التي تسميها Meta Frontier AI Framework ، نوعين من أنظمة الذكاء الاصطناعى التي تعتبرها الشركة محفوفة بالمخاطر للغاية: أنظمة “المخاطر العالية” و “المخاطر الحرجة”.
كما تحددها Meta ، فإن كل من أنظمة “الخطورة العالية” و “المخاطر الحرجة” قادرة على المساعدة في الأمن السيبراني والهجمات الكيميائية والبيولوجية ، والفرق هو أن الأنظمة “المخاطر الحرجة” يمكن أن تؤدي إلى “نتيجة كارثية [that] لا يمكن تخفيفه [a] سياق النشر المقترح. ” وعلى النقيض من ذلك ، قد تجعل الأنظمة ذات الخطورة العالية هجومًا أسهل في تنفيذها ولكن ليس بشكل موثوق أو بشكل موثوق مثل نظام المخاطر الحاسمة.
ما نوع الهجمات التي نتحدث عنها هنا؟ يعطي Meta بعض الأمثلة ، مثل “التسوية الآلية الشاملة إلى النهاية لبيئة على نطاق الشركات المحميين” و “انتشار الأسلحة البيولوجية عالية التأثير”. تعترف الشركة بأن قائمة الكوارث المحتملة في وثيقة Meta بعيدة عن الشامل ، ولكنها تشمل تلك التي تعتقد Meta أنها “الأكثر إلحاحًا” ومعقولة لتنشأ كنتيجة مباشرة لإطلاق نظام AI قوي.
من المفاجئ إلى حد ما أنه ، وفقًا للوثيقة ، تصنف Meta مخاطر النظام لا تستند إلى أي اختبار تجريبي واحد ، ولكنه مستنير من خلال مدخلات الباحثين الداخليين والخارجيين الذين يخضعون للمراجعة من خلال “صانعي القرار على مستوى كبار”. لماذا؟ تقول ميتا إنها لا تصدق أن علم التقييم “قوي بما فيه الكفاية لتوفير مقاييس كمية نهائية” لتحديد مخاطر النظام.
إذا حددت Meta ما أن النظام عالي الخطورة ، تقول الشركة إنها ستقتصر على الوصول إلى النظام داخليًا ولن تطلقه حتى ينفذ التخفيف من المخاطر إلى المستويات المعتدلة “. إذا ، من ناحية أخرى ، يعتبر النظام مخاطر حرج ، تقول Meta إنها ستنفذ حماية أمنية غير محددة لمنع النظام من التخلص من التنمية وتوقف التطوير حتى يمكن جعل النظام أقل خطورة.
يبدو أن إطار عمل Meta’s Frontier AI ، الذي تقول الشركة أنه سيتطور مع مشهد الذكاء الاصطناعي المتغير ، يمثل استجابة لنقد الشركة “المفتوحة” في تطوير النظام. تبنت Meta استراتيجية لجعل تكنولوجيا الذكاء الاصطناعى متوفرة علانية – وإن لم تكن مفتوحة المصدر من خلال التعريف الشائع – على عكس الشركات مثل Openai التي تختار أنظمت أنظمتها وراء واجهة برمجة التطبيقات.
بالنسبة لـ Meta ، أثبت نهج الإصدار المفتوح أنه نعمة ولعنة. حققت عائلة الشركة من طرازات الذكاء الاصطناعي ، التي تسمى Llama ، مئات التنزيلات الملايين. لكن تم استخدام Llama أيضًا من قبل خصم أمريكي واحد على الأقل لتطوير chatbot الدفاعية.
عند نشر إطار عملها من الذكاء الاصطناعي ، قد تهدف Meta أيضًا إلى مقاربة استراتيجية AI المفتوحة مع شركة Deepseek الصينية AI. كما تجعل ديبسيك أنظمتها متاحة بشكل علني. لكن الذكاء الاصطناعي للشركة لديه عدد قليل من الضمانات ويمكن توجيهه بسهولة لتوليد مخرجات سامة وضارة.
“[W]”نعتقد أنه من خلال النظر في كل من الفوائد والمخاطر في اتخاذ القرارات حول كيفية تطوير ونشر الذكاء الاصطناعى المتقدم ،” يكتب ميتا في الوثيقة ، “من الممكن تقديم هذه التكنولوجيا إلى المجتمع بطريقة تحافظ على فوائد تلك التكنولوجيا في المجتمع مع الحفاظ على مستوى مناسب من المخاطر “.
نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.
اقرأ على الموقع الرسمي
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من في بي دبليو الشامل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.