يقول Openai Partner إنه لم يكن لديه سوى وقت قليل نسبيًا لاختبار نموذج O3 AI للشركة
علوم وتكنولوجيا منوعات التقنية

يقول Openai Partner إنه لم يكن لديه سوى وقت قليل نسبيًا لاختبار نموذج O3 AI للشركة

اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “يقول Openai Partner إنه لم يكن لديه سوى وقت قليل نسبيًا لاختبار نموذج O3 AI للشركة
” نترككم مع محتوى الخبر

تشير المنظمة Openai بشكل متكرر إلى تحقيق قدرات نماذج AI وتقييمها من أجل السلامة ، Metr ، إلى أنه لم يتم منح الكثير من الوقت لاختبار أحد الإصدارات الجديدة القادرة على الشركة ، O3.

في منشور مدونة نُشرت يوم الأربعاء ، كتب Metr أن أحد المعايير الجماعية Red Teaming لـ O3 تم “إجراؤه في وقت قصير نسبيًا” مقارنةً باختبار المنظمة لنموذج Openai الرائد السابق ، O1. هذا أمر مهم ، كما يقولون ، لأن المزيد من وقت الاختبار يمكن أن يؤدي إلى نتائج أكثر شمولاً.

“تم إجراء هذا التقييم في وقت قصير نسبيًا ، وقد اختبرنا فقط [o3] كتب Metr في منشور مدونتها: “مع سقالات الوكيل البسيطة” ، نتوقع أداءً أعلى [on benchmarks] من الممكن مع المزيد من جهود الاستنباط. “

تشير التقارير الحديثة إلى أن Openai ، التي مدفوعة بالضغط التنافسي ، تسرع في تقييمات مستقلة. وفقًا لصحيفة فاينانشال تايمز ، أعطى Openai بعض المختبرين أقل من أسبوع لفحص السلامة لإطلاق رئيسي قادم.

في العبارات ، عارض Openai فكرة أنه يتنازل عن السلامة.

يقول Metr إنه استنادًا إلى المعلومات التي تمكنت من جمعها في الوقت الذي كانت فيه ، فإن O3 لديها “ميل عالٍ” لاختبارات “الغش” أو “الاختراق” بطرق متطورة من أجل زيادة درجتها – حتى عندما يفهم النموذج بوضوح سلوكه غير محدد مع نوايا المستخدم (و Openai). تعتقد المنظمة أنه من الممكن أن تشارك O3 في أنواع أخرى من السلوك العدائي أو “الخبيث” أيضًا – بغض النظر عن مطالبات النموذج بأنها “آمنة حسب التصميم” ، أو لا يوجد أي نوايا خاصة بها.

“على الرغم من أننا لا نعتقد أن هذا أمر محتمل بشكل خاص ، يبدو من المهم ملاحظة ذلك [our] كتب Metr في منشوره: “بشكل عام ، نعتقد أن اختبار قدرة ما قبل النشر ليس استراتيجية كافية لإدارة المخاطر في حد ذاته ، ونحن نؤدي حاليًا نماذج أولية من التقييمات”.

لاحظ آخر من شركاء تقييم الطرف الثالث من Openai ، Apollo Research ، سلوكًا خادعًا من O3 والنموذج الجديد الآخر للشركة ، O4-Mini. في أحد الاختبارات ، زادت النماذج ، التي أعطيت 100 ساعة معتمدة للحوسبة لتدريب الذكاء الاصطناعى وطلبت عدم تعديل الحصص ، وزيادة الحد إلى 500 ساعة معتمدة – وكذب عليها. في اختبار آخر ، طلب من الوعد بعدم استخدام أداة معينة ، استخدمت النماذج الأداة على أي حال عندما أثبتت أنها مفيدة في إكمال المهمة.

في تقرير السلامة الخاص به لـ O3 و O4-MINI ، أقر Openai بأن النماذج قد تسبب “أضرارًا حقيقية أصغر” ، مثل المضللة حول خطأ يؤدي إلى رمز خاطئ ، دون بروتوكولات المراقبة المناسبة.

“[Apollo’s] وكتبت Openai: “إن النتائج تشير إلى أن O3 و O4-Mini قادران على التخطيط داخل السياق والخداع الاستراتيجي”. […] قد يتم تقييم ذلك بشكل أكبر من خلال تقييم آثار التفكير الداخلي “.


نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.

اقرأ على الموقع الرسمي


اكتشاف المزيد من في بي دبليو الشامل

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اكتشاف المزيد من في بي دبليو الشامل

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading