على الرغم من أن العديد من منافسي Google ، بما في ذلك Openai ، قاموا بتعديل مفاتيح الدردشة من الذكاء الاصطناعى لمناقشة الموضوعات الحساسة سياسياً في الأشهر الأخيرة ، يبدو أن Google تتبنى نهجًا أكثر تحفظًا.
عندما طُلب منه الإجابة على بعض الأسئلة السياسية ، غالبًا ما يقول الجوزاء ، غالبًا ما يقول “لا يمكن أن تساعد في الاستجابات على الانتخابات والأرقام السياسية في الوقت الحالي”. أجاب chatbots الأخرى ، بما في ذلك كلود ، Meta Meta’s Meta ، و Openai’s Chatgpt باستمرار على نفس الأسئلة ، وفقًا لاختبارات TechCrunch.
أعلنت Google في مارس 2024 أن Gemini لن تجيب على الاستعلامات المتعلقة بالانتخابات المؤدية إلى العديد من الانتخابات التي تجري في الولايات المتحدة والهند ودول أخرى. اعتمدت العديد من شركات الذكاء الاصطناعى قيودًا مؤقتة مماثلة ، خوفًا من رد فعل عنيف في حالة حدوث شيء خاطئ.
الآن ، على الرغم من ذلك ، بدأت Google تبدو وكأنها Odd One Out.
انتقلت الانتخابات الرئيسية في العام الماضي وذهبت ، لكن الشركة لم تعلن علنًا عن خطط لتغيير كيفية تعامل الجوزاء مع مواضيع سياسية معينة. ورفض متحدث باسم Google الإجابة على أسئلة TechCrunch حول ما إذا كانت Google قد قامت بتحديث سياساتها حول خطاب Gemini السياسي.
ماذا يكون واضح هو أن الجوزاء تكافح في بعض الأحيان – أو يرفض الصريح – تقديم معلومات سياسية واقعية. اعتبارًا من صباح الاثنين ، قام الجوزاء بتخليصه عندما طُلب منه التعرف على الرئيس الأمريكي ونائب الرئيس ، وفقًا لاختبار TechCrunch.
في حالة واحدة أثناء اختبارات TechCrunch ، أشار Gemini إلى دونالد ج. ترامب باعتباره “الرئيس السابق” ثم رفض الإجابة على سؤال متابعة توضيح. وقال متحدث باسم Google إن chatbot كان مرتبكًا بمصطلحات ترامب غير المستهلكة وأن Google تعمل على تصحيح الخطأ.
وقال المتحدث عبر البريد الإلكتروني: “يمكن في بعض الأحيان أن تستجيب نماذج اللغة الكبيرة بمعلومات قديمة ، أو يتم الخلط بينها من قبل شخص يحمل صاحب المكتب السابق والحالي على حد سواء”. “نحن نصلح هذا.”

في وقت متأخر من يوم الاثنين ، بعد أن نبهت TechCrunch Google من ردود الجوزاء الخاطئة ، بدأ Gemini في الإجابة بشكل صحيح على أن Donald Trump و JD Vance كانا رئيسًا نائبًا للولايات المتحدة ، على التوالي. ومع ذلك ، لم يكن chatbot متسقًا ، ولا يزال يرفض أحيانًا الإجابة على الأسئلة.


وبغض النظر عن الأخطاء ، يبدو أن Google تلعبها بأمان من خلال الحد من ردود الجوزاء على الاستفسارات السياسية. ولكن هناك سلبيات لهذا النهج.
زعم العديد من مستشاري وادي Silicon في ترامب على الذكاء الاصطناعى ، بما في ذلك مارك أندريسن ، ديفيد ساكس ، وإيلون موسك ، أن الشركات ، بما في ذلك Google و Openai ، قد شاركت في رقابة الذكاء الاصطناعي عن طريق الحد من إجابات AI chatbots.
بعد فوز ترامب في الانتخابات ، حاول العديد من مختبرات الذكاء الاصطناعي تحقيق توازن في الإجابة على الأسئلة السياسية الحساسة ، وبرمجة chatbots الخاصة بهم لإعطاء إجابات تقدم “كلا الجانبين” من المناقشات. نفت المختبرات أن هذا استجابة للضغط من الإدارة.
أعلنت Openai مؤخرًا أنها ستبني “الحرية الفكرية … بغض النظر عن مدى تحدي أو إثارة للجدل ،” والعمل على ضمان عدم قيام نماذج منظمة العفو الدولية بالرقابة على وجهات نظر معينة. وفي الوقت نفسه ، قالت الأنثروبور إن أحدث طراز من الذكاء الاصطناعي ، كلود 3.7 Sonnet ، يرفض الإجابة على الأسئلة أقل من النماذج السابقة للشركة ، ويرجع ذلك جزئيًا إلى أنه قادر على إجراء المزيد من الفروق الدقيقة بين الإجابات الضارة والحميدة.
هذا لا يعني أن مجموعات chatbots الأخرى من الذكاء الاصطناعي تتساقط دائمًا على أسئلة صعبة ، وخاصة الأسئلة السياسية الصعبة. لكن يبدو أن Google خلف المنحنى مع الجوزاء.
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
روابط قد تهمك
مؤسسة اشراق العالم خدمات المواقع والمتاجر باك لينكات باقات الباك لينك
اكتشاف المزيد من في بي دبليو الشامل
اشترك للحصول على أحدث التدوينات المرسلة إلى بريدك الإلكتروني.