كشفت مجموعة من الموظفين في شركة أوبن إيه آي عن حقيقة ما يصفونه بثقافة الاستهتار وعدم الشفافية في الشركة الناشئة التي تتنافس في سباق محموم على تطوير أقوى أنظمة الذكاء الاصطناعي على الإطلاق، وفقا لما ذكره تقرير من نيويورك تايمز.
وبحسب التقرير، عبر أعضاء المجموعة، التي تضم 9 موظفين حاليين وسابقين في الشركة، عن مخاوفهم المشتركة من أن “أوبن إيه آي” لم تتخذ ما يكفي من إجراءات وقائية تمنع أنظمة الذكاء الاصطناعي من تشكيل خطر في المستقبل.
وأكد أعضاء المجموعة أن الشركة التي بدأت رحلتها كمختبر أبحاث غير ربحي، تضع أولوية لتحقيق الأرباح والنمو في الوقت الذي تحاول فيه تطوير الذكاء الاصطناعي العام “إيه جي آي”(AGI)، وهو المصطلح الذي يُطلق في هذا المجال على البرمجيات الحاسوبية التي تستطيع تنفيذ أي مهام يمكن للإنسان تنفيذها.
كما يزعمون أن الشركة استخدمت أساليب صارمة ضد الموظفين عندما حاولوا التعبير عن مخاوفهم بشأن هذه التقنية، ومن هذه الأساليب اتفاقيات عدم مشاركة المعلومات المُقيِّدة التي طُلب من الموظفين المستقيلين التوقيع عليها.
وذكر دانيال كوكوتاييلو، الباحث السابق بقسم الحوكمة في الشركة وأحد منظمي المجموعة “أوبن إيه آي متحمسة للغاية بشأن تطوير الذكاء الاصطناعي العام، ويتسابقون بشكل متهور ليصبحوا الأوائل في هذا المجال”.
رسالة علنية
نشرت المجموعة رسالة علنية، أمس الثلاثاء، تدعو فيها الشركات الرائدة في مجال الذكاء الاصطناعي، ومنها شركة أوبن إيه آي، إلى توفير قدر أكبر من الشفافية ومزيد من الحماية للموظفين المبلغين عن المخالفات.
وتضم قائمة الأعضاء الآخرين ويليام سوندرز، وهو مهندس أبحاث غادر أوبن إيه آي في فبراير/شباط الماضي، و3 موظفين سابقين في الشركة هم كارول وينرايت وجاكوب هيلتون ودانييل زيغلر.
وأضاف دانيال كوكوتاييلو أن العديد من الموظفين الحاليين في أوبن إيه آي دعموا هذه الرسالة دون الكشف عن هويتهم لأنهم يخشون انتقام الشركة.
كما وقّع على الرسالة موظف حالي وآخر سابق في شركة غوغل ديب مايند، وهي مختبر غوغل المركزي في مجال الذكاء الاصطناعي.
من جانبها، صرحت ليندسي هيلد، المتحدثة باسم شركة أوبن إيه آي، في بيان لها نشره تقرير نيويورك تايمز “نحن فخورون بسجلنا الحافل بتوفير أكثر أنظمة الذكاء الاصطناعي كفاءة وأمانا، ونثق في نهجنا العلمي لمواجهة المخاطر. نحن نتفق على أن النقاش الجاد أمر بالغ الأهمية نظرا لقيمة هذه التقنية، وسنستمر في التواصل مع الحكومات والمجتمع المدني والمجتمعات الأخرى حول العالم”.
لحظة حرجة
وذكر التقرير أن هذه الحملة تأتي في لحظة حرجة بالنسبة لشركة أوبن إيه آي، إذ لا تزال الشركة تتعافى من محاولة انقلاب العام الماضي، عندما صوّت أعضاء مجلس إدارة الشركة على إقالة رئيسها التنفيذي سام ألتمان، وذلك نتيجة مخاوف بشأن مدى صراحته مع مجلس الإدارة. ثم عاد ألتمان بعدها بأيام لقيادة الشركة، وأعيد تشكيل مجلس الإدارة بأعضاء جدد.
كما تواجه الشركة معارك قانونية مع صانعي المحتوى ممن اتهموها بسرقة أعمال محمية بحقوق الطبع والنشر لتدريب نماذج الذكاء الاصطناعي التي تملكها. كما أن نزاعها الأخير العلني مع الممثلة الشهيرة سكارليت جوهانسون، التي ادعت أن أوبن إيه آي استخدمت صوتها دون الحصول على إذنها في مساعد صوتي طرحته الشركة مؤخرا أضر بصورتها.
ولكن وبحسب التقرير لم يؤثر بها أي اتهام مثل الاتهام بأن الشركة تتعامل باستهتار شديد مع مسألة الأمان والسلامة للذكاء الاصطناعي.
وفي مايو/أيار الماضي، غادر اثنان من كبار الباحثين في مجال السلامة داخل الشركة وهما إيليا سوتسكيفر، المؤسس المشارك للشركة، وجان ليكه. وشارك حينها ليكه مزيدا من التفاصيل حول سبب مغادرته الشركة، فكتب عبر حسابه على منصة إكس “إن صنع آلات أكثر ذكاء من البشر مسعى محفوف بالمخاطر بطبيعته. تتحمل أوبن إيه آي مسؤولية هائلة نيابة عن البشرية بأسرها. ولكن على مدى السنوات الماضية، تراجعت ثقافة السلامة وعملياتها على حساب المنتجات البرّاقة”.
كان الاثنان يقودان فريق المخاطر طويلة الأمد للذكاء الاصطناعي الذي كانت مهمته تركز على الإنجازات العلمية والتقنية لتوجيه أنظمة الذكاء الاصطناعي الأكثر ذكاء منا والتحكم فيها. لم يوقع الاثنان على الرسالة العلنية التي كتبها الموظفون السابقون، لكن استقالتهما من الشركة حفزت هؤلاء الموظفين السابقين على التحدث علنا.
العالم ليس جاهزا
انضم دانيال كوكوتاييلو، البالغ من العمر (31 عاما)، إلى أوبن إيه آي في عام 2022 كباحث في مجال الحوكمة، وطُلب منه توقُّع مدى تطور الذكاء الاصطناعي، ولكنه لم يكن متفائلا، بحسب تقرير نيويورك تايمز.
ففي وظيفته السابقة في إحدى منظمات سلامة الذكاء الاصطناعي، تنبأ باحتمال وصول الذكاء الاصطناعي العام في 2050. ولكن بعد رؤيته لمدى سرعة تطور هذه التقنيات، قلص المدة الزمنية التي توقعها، إذ يعتقد الآن أن ثمة احتمالا بنسبة 50% لوصول الذكاء الاصطناعي العام بحلول 2027، أي في غضون 3 سنوات فحسب.
كما يرى أن احتمالية تدمير الذكاء الاصطناعي المتطور للبشرية أو إلحاق أضرار كارثية بها تبلغ 70%، بحسب التقرير.
كما لاحظ أنه بالرغم من وجود بروتوكولات أمان لدى شركة أوبن إيه آي، ومنها جهود مشتركة مع مايكروسوفت تُعرف باسم “مجلس سلامة التطبيق”، والمفترض أن يراجع النماذج الجديدة بحثا عن المخاطر الأساسية قبل إصدارها للجمهور، فإنه نادرا ما كانت هذه البروتوكولات تبطئ من وتيرة عمل الشركة.
وأضاف أنه في عام 2022، بدأت مايكروسوفت مثلا في اختبار نسخة جديدة من محرك البحث بينغ في الهند بهدوء، واعتقد بعض موظفي أوبن إيه آي حينها أنه كان يتضمن نسخة لم تصدر بعد من نموذج “جي بي تي-4″، وهو النموذج اللغوي الأقوى لدى الشركة.
وأشار لإبلاغه أن مايكروسوفت لم تحصل على موافقة مجلس السلامة قبل اختبار النموذج الجديد، وبعد أن علم المجلس بتلك الاختبارات، عبر سلسلة من التقارير التي أفادت بأن بينغ يتصرف بطريقة غريبة تجاه المستخدمين، لم يتخذ أي إجراء لمنع مايكروسوفت من طرح محرك بحثها الجديد على نطاق أوسع، بحسب التقرير.
لكن فرانك شو، المتحدث باسم مايكروسوفت، نفى صحة تلك الادعاءات، وقال إن اختبارات محرك البحث بينغ في الهند لم تستخدم نموذج “جي بي تي-4” أو أيا من نماذج الذكاء الاصطناعي الخاص بشركة أوبن إيه آي.
وذكر أن أول مرة أصدرت فيها مايكروسوفت تقنية قائمة على نموذج “جي بي تي-4” كانت في أوائل عام 2023، وقد راجعها ووافق عليها المجلس مسبقا.
وفي النهاية، يذكر التقرير أن دانيال كوكوتاييلو أصبح يشعر بالقلق الشديد لدرجة دفعته في العام الماضي إلى إبلاغ سام ألتمان بأن على الشركة “التحول إلى السلامة” وتخصيص مزيد من الوقت والموارد للحماية من مخاطر الذكاء الاصطناعي بدلا من الاندفاع إلى تطوير نماذجها بهذه السرعة. وقال إن ألتمان ادعى الاتفاق معه في الرأي، ولكن لم يتغير أي شيء يذكر.
في شهر أبريل/نيسان الماضي، استقال كوكوتاييلو من الشركة. وقال في رسالة بريد إلكتروني إلى فريقه إنه سيغادر، لأنه “فقد الثقة بأن أوبن إيه آي ستتصرف بمسؤولية” مع اقتراب أنظمتها من مستوى الذكاء البشري.
وكتب في رسالته “العالم ليس جاهزا، ونحن لسنا مستعدين. ويساورني القلق من أننا نندفع إلى الأمام بغض النظر عن هذا الواقع، ونجد مبررات لأفعالنا”.
اقرأ على الموقع الرسمي
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من في بي دبليو الشامل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.