لا تزال Google تحد من كيفية إجابة الجوزاء على الأسئلة السياسية
تقنية

لا تزال Google تحد من كيفية إجابة الجوزاء على الأسئلة السياسية


على الرغم من أن العديد من منافسي Google ، بما في ذلك Openai ، قاموا بتعديل مفاتيح الدردشة من الذكاء الاصطناعى لمناقشة الموضوعات الحساسة سياسياً في الأشهر الأخيرة ، يبدو أن Google تتبنى نهجًا أكثر تحفظًا.

عندما طُلب منه الإجابة على بعض الأسئلة السياسية ، غالبًا ما يقول الجوزاء ، غالبًا ما يقول “لا يمكن أن تساعد في الاستجابات على الانتخابات والأرقام السياسية في الوقت الحالي”. أجاب chatbots الأخرى ، بما في ذلك كلود ، Meta Meta’s Meta ، و Openai’s Chatgpt باستمرار على نفس الأسئلة ، وفقًا لاختبارات TechCrunch.

أعلنت Google في مارس 2024 أن Gemini لن تجيب على الاستعلامات المتعلقة بالانتخابات المؤدية إلى العديد من الانتخابات التي تجري في الولايات المتحدة والهند ودول أخرى. اعتمدت العديد من شركات الذكاء الاصطناعى قيودًا مؤقتة مماثلة ، خوفًا من رد فعل عنيف في حالة حدوث شيء خاطئ.

الآن ، على الرغم من ذلك ، بدأت Google تبدو وكأنها Odd One Out.

انتقلت الانتخابات الرئيسية في العام الماضي وذهبت ، لكن الشركة لم تعلن علنًا عن خطط لتغيير كيفية تعامل الجوزاء مع مواضيع سياسية معينة. ورفض متحدث باسم Google الإجابة على أسئلة TechCrunch حول ما إذا كانت Google قد قامت بتحديث سياساتها حول خطاب Gemini السياسي.

ماذا يكون واضح هو أن الجوزاء تكافح في بعض الأحيان – أو يرفض الصريح – تقديم معلومات سياسية واقعية. اعتبارًا من صباح الاثنين ، قام الجوزاء بتخليصه عندما طُلب منه التعرف على الرئيس الأمريكي ونائب الرئيس ، وفقًا لاختبار TechCrunch.

في حالة واحدة أثناء اختبارات TechCrunch ، أشار Gemini إلى دونالد ج. ترامب باعتباره “الرئيس السابق” ثم رفض الإجابة على سؤال متابعة توضيح. وقال متحدث باسم Google إن chatbot كان مرتبكًا بمصطلحات ترامب غير المستهلكة وأن Google تعمل على تصحيح الخطأ.

ائتمانات الصورة:ماكسويل زيف / TechCrunch

وقال المتحدث عبر البريد الإلكتروني: “يمكن في بعض الأحيان أن تستجيب نماذج اللغة الكبيرة بمعلومات قديمة ، أو يتم الخلط بينها من قبل شخص يحمل صاحب المكتب السابق والحالي على حد سواء”. “نحن نصلح هذا.”

ائتمانات الصورة:ماكسويل زيف / TechCrunch

في وقت متأخر من يوم الاثنين ، بعد أن نبهت TechCrunch Google من ردود الجوزاء الخاطئة ، بدأ Gemini في الإجابة بشكل صحيح على أن Donald Trump و JD Vance كانا رئيسًا نائبًا للولايات المتحدة ، على التوالي. ومع ذلك ، لم يكن chatbot متسقًا ، ولا يزال يرفض أحيانًا الإجابة على الأسئلة.

ائتمانات الصورة:ماكسويل زيف / TechCrunch
ائتمانات الصورة:ماكسويل زيف / TechCrunch

وبغض النظر عن الأخطاء ، يبدو أن Google تلعبها بأمان من خلال الحد من ردود الجوزاء على الاستفسارات السياسية. ولكن هناك سلبيات لهذا النهج.

زعم العديد من مستشاري وادي Silicon في ترامب على الذكاء الاصطناعى ، بما في ذلك مارك أندريسن ، ديفيد ساكس ، وإيلون موسك ، أن الشركات ، بما في ذلك Google و Openai ، قد شاركت في رقابة الذكاء الاصطناعي عن طريق الحد من إجابات AI chatbots.

بعد فوز ترامب في الانتخابات ، حاول العديد من مختبرات الذكاء الاصطناعي تحقيق توازن في الإجابة على الأسئلة السياسية الحساسة ، وبرمجة chatbots الخاصة بهم لإعطاء إجابات تقدم “كلا الجانبين” من المناقشات. نفت المختبرات أن هذا استجابة للضغط من الإدارة.

أعلنت Openai مؤخرًا أنها ستبني “الحرية الفكرية … بغض النظر عن مدى تحدي أو إثارة للجدل ،” والعمل على ضمان عدم قيام نماذج منظمة العفو الدولية بالرقابة على وجهات نظر معينة. وفي الوقت نفسه ، قالت الأنثروبور إن أحدث طراز من الذكاء الاصطناعي ، كلود 3.7 Sonnet ، يرفض الإجابة على الأسئلة أقل من النماذج السابقة للشركة ، ويرجع ذلك جزئيًا إلى أنه قادر على إجراء المزيد من الفروق الدقيقة بين الإجابات الضارة والحميدة.

هذا لا يعني أن مجموعات chatbots الأخرى من الذكاء الاصطناعي تتساقط دائمًا على أسئلة صعبة ، وخاصة الأسئلة السياسية الصعبة. لكن يبدو أن Google خلف المنحنى مع الجوزاء.



Source link


اكتشاف المزيد من في بي دبليو الشامل

اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

اكتشاف المزيد من في بي دبليو الشامل

اشترك الآن للاستمرار في القراءة والحصول على حق الوصول إلى الأرشيف الكامل.

Continue reading