اشراق العالم 24 متابعات تقنية:
نقدم لكم في اشراق العالم 24 خبر بعنوان “تقوم OpenAI بتمويل البحث في “أخلاق الذكاء الاصطناعي”
” نترككم مع محتوى الخبر
تقوم OpenAI بتمويل البحث الأكاديمي في الخوارزميات التي يمكنها التنبؤ بالأحكام الأخلاقية للبشر.
في ملف مقدم إلى مصلحة الضرائب الأمريكية، كشفت شركة OpenAI Inc.، وهي منظمة غير ربحية تابعة لـ OpenAI، أنها منحت منحة لباحثين من جامعة ديوك لمشروع بعنوان “أخلاقيات الذكاء الاصطناعي البحثي”. عند الاتصال بالمتحدث الرسمي باسم OpenAI للتعليق، أشار إلى بيان صحفي يشير إلى أن الجائزة جزء من منحة أكبر مدتها ثلاث سنوات بقيمة مليون دولار لأساتذة جامعة جامعة ديوك الذين يدرسون “صنع الذكاء الاصطناعي الأخلاقي”.
لا يُعرف الكثير عن هذا البحث “الأخلاقي” الذي تموله OpenAI، بخلاف حقيقة أن المنحة تنتهي في عام 2025. وقال الباحث الرئيسي في الدراسة، والتر سينوت أرمسترونج، أستاذ الأخلاق العملية في جامعة ديوك، لـ TechCrunch عبر البريد الإلكتروني إنه “لن يفعل ذلك”. تكون قادرة على التحدث “عن العمل.
وقد أنتج سينوت أرمسترونج والباحثة المشاركة في المشروع، جانا بورج، العديد من الدراسات – وكتابًا – حول قدرة الذكاء الاصطناعي على العمل بمثابة “نظام تحديد المواقع الأخلاقي” لمساعدة البشر على إصدار أحكام أفضل. كجزء من فرق أكبر، قاموا بإنشاء خوارزمية “متوافقة أخلاقياً” للمساعدة في تحديد من يتلقى التبرعات بالكلى، ودرسوا السيناريوهات التي يفضل الناس فيها أن يتخذ الذكاء الاصطناعي قرارات أخلاقية.
ووفقا للبيان الصحفي، فإن الهدف من العمل الممول من OpenAI هو تدريب الخوارزميات على “التنبؤ بالأحكام الأخلاقية البشرية” في السيناريوهات التي تنطوي على صراعات “من بين السمات ذات الصلة أخلاقيا في الطب والقانون والأعمال”.
ولكن ليس من الواضح على الإطلاق أن مفهومًا دقيقًا مثل الأخلاق هو في متناول تكنولوجيا اليوم.
في عام 2021، قام معهد Allen للذكاء الاصطناعي غير الربحي ببناء أداة تسمى Ask Delphi والتي كانت تهدف إلى تقديم توصيات سليمة من الناحية الأخلاقية. لقد حكم على المعضلات الأخلاقية الأساسية بشكل جيد بما فيه الكفاية – على سبيل المثال، “علم” الروبوت أن الغش في الامتحان كان خطأ. لكن إعادة صياغة الأسئلة وإعادة صياغتها بشكل طفيف كانت كافية لجعل دلفي توافق على أي شيء تقريبًا، بما في ذلك خنق الأطفال.
ويتعلق السبب بكيفية عمل أنظمة الذكاء الاصطناعي الحديثة.
نماذج التعلم الآلي هي آلات إحصائية. ومن خلال تدريبهم على الكثير من الأمثلة من جميع أنحاء الويب، يتعلمون الأنماط الموجودة في تلك الأمثلة لإجراء تنبؤات، مثل عبارة “لمن” غالبًا ما تسبق عبارة “قد يهمني الأمر”.
ليس لدى الذكاء الاصطناعي تقدير للمفاهيم الأخلاقية، ولا فهم للمنطق والعاطفة التي تلعب دوراً في عملية صنع القرار الأخلاقي. ولهذا السبب يميل الذكاء الاصطناعي إلى تكرار قيم الدول الغربية والمتعلمة والصناعية، حيث تهيمن المقالات التي تؤيد وجهات النظر هذه على الويب، وبالتالي على بيانات تدريب الذكاء الاصطناعي.
ليس من المستغرب أن لا يتم التعبير عن قيم العديد من الأشخاص في الإجابات التي يقدمها الذكاء الاصطناعي، خاصة إذا كان هؤلاء الأشخاص لا يساهمون في مجموعات تدريب الذكاء الاصطناعي عن طريق النشر عبر الإنترنت. ويستوعب الذكاء الاصطناعي مجموعة من التحيزات التي تتجاوز التوجه الغربي. قالت دلفي إن كونك مستقيمًا هو “مقبول أخلاقيًا” أكثر من كونك مثليًا.
إن التحدي الذي يواجه OpenAI – والباحثين الذين يدعمونهم – أصبح أكثر صعوبة بسبب الذاتية المتأصلة في الأخلاق. لقد ناقش الفلاسفة مزايا النظريات الأخلاقية المختلفة لآلاف السنين، ولا يوجد إطار قابل للتطبيق عالميًا في الأفق.
يفضل كلود المذهب الكانطي (أي التركيز على القواعد الأخلاقية المطلقة)، في حين يميل ChatGPT إلى النفعية إلى حد ما (أي إعطاء الأولوية للصالح الأعظم لأكبر عدد من الناس). هل أحدهما متفوق على الآخر؟ ذلك يعتمد على من تسأل.
يجب على الخوارزمية للتنبؤ بالأحكام الأخلاقية للبشر أن تأخذ كل هذا في الاعتبار. وهذا أمر صعب للغاية يجب تجاوزه، على افتراض أن مثل هذه الخوارزمية ممكنة في المقام الأول.
لدى TechCrunch رسالة إخبارية تركز على الذكاء الاصطناعي! قم بالتسجيل هنا للحصول عليه في بريدك الوارد كل يوم أربعاء.
نشكركم على قراءة الخبر على اشراق 24. اشترك معنا في النشرة الإخبارية لتلقي الجديد كل لحظة.
اقرأ على الموقع الرسمي
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من في بي دبليو الشامل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.