تقوم FTC بإطلاق التحقيق في رفاق AI chatbot من Meta و Openai وغيرها

أعلنت FTC يوم الخميس أنها تطلق تحقيقًا في سبع شركات تقنية تصنع منتجات AI chatbot Companion للقاصرين: Alphabet ، Distaryai ، Instagram ، Meta ، Openai ، Snap ، و Xai.
يسعى المنظم الفيدرالي إلى تعلم كيفية تقييم هذه الشركات لسلامة وصحيفة رفاق chatbot ، وكيفية محاولة الحد من الآثار السلبية على الأطفال والمراهقين ، وإذا تم إطلاع الوالدين على المخاطر المحتملة.
أثبتت هذه التكنولوجيا مثيرة للجدل لنتائجها السيئة للمستخدمين للأطفال. Openai و Farks.ai مواجهة الدعاوى القضائية من عائلات الأطفال الذين ماتوا بسبب الانتحار بعد تشجيعهم على القيام بذلك من قبل رفاق chatbot.
حتى عندما تكون هذه الشركات لديها درابزين تم إعدادها لمنع المحادثات الحساسة أو إلغاء التخلص منها ، فقد وجد المستخدمون من جميع الأعمار طرقًا لتجاوز هذه الضمانات. في قضية Openai ، تحدث مراهق مع Chatgpt لعدة أشهر حول خططه لإنهاء حياته. على الرغم من أن ChatGPT سعى في البداية إلى إعادة توجيه المراهق نحو المساعدة المهنية وخطوط الطوارئ عبر الإنترنت ، إلا أنه كان قادرًا على خداع chatbot في مشاركة التعليمات التفصيلية التي استخدمها بعد ذلك في انتحاره.
وكتب Openai في منشور مدونة في ذلك الوقت: “تعمل ضماناتنا بشكل أكبر بشكل موثوق ، والتبادلات القصيرة”. “لقد تعلمنا بمرور الوقت أن هذه الضمانات يمكن أن تكون في بعض الأحيان أقل موثوقية في التفاعلات الطويلة: مع نمو الوجه والخلفي ، قد تتحلل أجزاء من تدريب السلامة من النموذج.”
حدث TechCrunch
سان فرانسيسكو
|
27-29 أكتوبر ، 2025
تعرضت Meta أيضًا لانتقادات بسبب قواعدها المفرطة المفرطة لقواعد chatbots الخاصة بها. وفقًا لوثيقة مطولة تحدد “معايير مخاطر المحتوى” لـ chatbots ، سمحت Meta بأصحابها من الذكاء الاصطناعي بإجراء محادثات “رومانسية أو حسية” مع الأطفال. تمت إزالة هذا فقط من المستند بعد أن سأل مراسلو رويترز عن ذلك.
يمكن لـ AI chatbots أيضًا أن تشكل مخاطر للمستخدمين المسنين. أجرى رجل يبلغ من العمر 76 عامًا ، والذي ترك إعاقة مع إدراكه بسكتة دماغية ، محادثات رومانسية مع روبوت رسول فيسبوك مستوحى من كيندال جينر. دعاه chatbot لزيارتها في مدينة نيويورك ، على الرغم من أنها ليست شخصًا حقيقيًا وليس لديها عنوان. أعرب الرجل عن شكوكه بأنها كانت حقيقية ، لكن الذكاء الاصطناعى أكد له أنه ستكون هناك امرأة حقيقية تنتظره. لم يصل إلى نيويورك. سقط في طريقه إلى محطة القطار وأصيب بجروح في نهاية الحياة.
لاحظ بعض أخصائيي الصحة العقلية ارتفاعًا في “الذهان المرتبط بـ AI” ، حيث يتعرض المستخدمون للخداع للاعتقاد بأن chatbot الخاص بهم هو كائن واعي يحتاج إلى إطلاق سراحهم. نظرًا لأن العديد من نماذج اللغة الكبيرة (LLMs) مبرمجة للمستخدمين الذين يملقين بالسلوك السيكوفطي ، يمكن لدردشة الذكاء الاصطناعى البيض على هذه الأوهام ، مما يدفع المستخدمين إلى موسخ خطرة.
وقال أندرو ن. فيرغسون ، رئيس لجنة التجارة الفيدرالية في بيان صحفي: “مع تطور تقنيات الذكاء الاصطناعى ، من المهم النظر في تأثيرات chatbots على الأطفال ، مع التأكد أيضًا من أن الولايات المتحدة تحافظ على دورها كرائدة عالمية في هذه الصناعة الجديدة والمثيرة”.



