تقنية

يطالب التحالف بحظر Grok الفيدرالي على المحتوى الجنسي غير التوافقي


يحث تحالف من المنظمات غير الربحية الحكومة الأمريكية على التعليق الفوري لنشر Grok، وهو برنامج الدردشة الآلي الذي طوره Elon Musk’s xAI، في الوكالات الفيدرالية بما في ذلك وزارة الدفاع.

تتبع الرسالة المفتوحة، التي تمت مشاركتها حصريًا مع TechCrunch، عددًا كبيرًا من السلوكيات المثيرة للقلق من نموذج اللغة الكبير خلال العام الماضي، بما في ذلك مؤخرًا اتجاه مستخدمي X الذين يطلبون من Grok تحويل صور النساء الحقيقيات، وفي بعض الحالات الأطفال، إلى صور جنسية دون موافقتهم. وفقًا لبعض التقارير، قام Grok بإنشاء آلاف الصور الفاضحة غير التوافقية كل ساعة، والتي تم نشرها بعد ذلك على نطاق واسع على X، منصة التواصل الاجتماعي الخاصة بـ Musk والمملوكة لشركة xAI.

“من المثير للقلق العميق أن تستمر الحكومة الفيدرالية في نشر منتج الذكاء الاصطناعي مع إخفاقات على مستوى النظام مما يؤدي إلى توليد صور جنسية غير توافقية ومواد الاعتداء الجنسي على الأطفال”، كما جاء في الرسالة، التي وقعتها مجموعات المناصرة مثل Public Citizen، ومركز الذكاء الاصطناعي والسياسة الرقمية، واتحاد المستهلكين الأمريكي. “نظرًا للأوامر التنفيذية والتوجيهات الصادرة عن الإدارة وقانون Take It Down الذي تم إقراره مؤخرًا بدعم من البيت الأبيض، فمن المثير للقلق أن [Office of Management and Budget] لم يوجه بعد الوكالات الفيدرالية لإيقاف تشغيل Grok.

توصلت شركة xAI إلى اتفاق في سبتمبر الماضي مع إدارة الخدمات العامة (GSA)، ذراع المشتريات الحكومية، لبيع Grok إلى الوكالات الفيدرالية التابعة للسلطة التنفيذية. قبل شهرين، حصلت شركة xAI – جنبًا إلى جنب مع Anthropic، وGoogle، وOpenAI – على عقد بقيمة تصل إلى 200 مليون دولار مع وزارة الدفاع.

وسط فضائح X في منتصف يناير، قال وزير الدفاع بيت هيجسيث إن جروك سينضم إلى جيميني التابعة لشركة جوجل في العمل داخل شبكة البنتاغون، والتعامل مع كل من الوثائق السرية وغير السرية، والتي يقول الخبراء إنها تشكل خطراً على الأمن القومي.

يجادل مؤلفو الرسالة بأن شركة Grok أثبتت أنها غير متوافقة مع متطلبات الإدارة لأنظمة الذكاء الاصطناعي. ووفقاً لتوجيهات مكتب الإدارة والميزانية، يجب إيقاف الأنظمة التي تمثل مخاطر شديدة ومتوقعة ولا يمكن تخفيفها بشكل كافٍ.

وقال جيه بي برانش، أحد المدافعين عن المساءلة العامة للمواطنين الكبار في مجال التكنولوجيا وأحد مؤلفي الرسالة، لـ TechCrunch: “إن شاغلنا الأساسي هو أن Grok أظهر باستمرار أنه نموذج لغة كبير غير آمن”. “ولكن هناك أيضًا تاريخ عميق لتعرض Grok لمجموعة متنوعة من الانهيارات، بما في ذلك الصراخ المعادي للسامية، والصخب الجنسي، والصور الجنسية للنساء والأطفال.”

حدث تك كرانش

بوسطن، MA
|
23 يونيو 2026

أبدت العديد من الحكومات عدم رغبتها في التعامل مع شركة Grok بعد سلوكها في شهر يناير، والذي اعتمد على سلسلة من الحوادث بما في ذلك توليد منشورات معادية للسامية على X وتطلق على نفسها اسم “MechaHitler”. منعت كل من إندونيسيا وماليزيا والفلبين الوصول إلى Grok (لقد رفعوا هذا الحظر لاحقًا)، ويقوم الاتحاد الأوروبي والمملكة المتحدة وكوريا الجنوبية والهند بالتحقيق بنشاط في xAI وX فيما يتعلق بخصوصية البيانات وتوزيع المحتوى غير القانوني.

وتأتي الرسالة أيضًا بعد أسبوع من نشر منظمة Common Sense Media، وهي منظمة غير ربحية تقوم بمراجعة وسائل الإعلام والتكنولوجيا للعائلات، تقييمًا خطيرًا للمخاطر وجد أن Grok من بين أكثر المنتجات غير الآمنة للأطفال والمراهقين. يمكن للمرء أن يجادل بأنه، استنادا إلى نتائج التقرير – بما في ذلك ميل جروك إلى تقديم نصائح غير آمنة، وتبادل المعلومات حول المخدرات، وتوليد صور عنيفة وجنسية، وبث نظريات المؤامرة، وتوليد مخرجات متحيزة – فإن جروك ليس آمنًا تمامًا للبالغين أيضًا.

“إذا كنت تعلم أن نموذجًا لغويًا كبيرًا قد تم إعلانه أو تم إعلانه غير آمن من قبل خبراء سلامة الذكاء الاصطناعي، فلماذا تريد أن يتعامل هذا مع البيانات الأكثر حساسية لدينا؟” قال الفرع. “من وجهة نظر الأمن القومي، هذا ليس له أي معنى على الإطلاق.”

يقول أندرو كريستيانسون، المتعاقد السابق مع وكالة الأمن القومي والمؤسس الحالي لـ Gobbi AI، وهي منصة وكيل للذكاء الاصطناعي بدون كود للبيئات السرية، إن استخدام ماجستير إدارة الأعمال مغلق المصدر بشكل عام يمثل مشكلة، خاصة بالنسبة للبنتاغون.

وقال: “الأوزان المغلقة تعني أنه لا يمكنك الرؤية داخل النموذج، ولا يمكنك تدقيق كيفية اتخاذ القرارات”. “الرمز المغلق يعني أنه لا يمكنك فحص البرنامج أو التحكم في مكان تشغيله. البنتاغون مغلق في كليهما، وهو أسوأ مزيج ممكن للأمن القومي.”

وأضاف كريستيانسون: “إن عملاء الذكاء الاصطناعي هؤلاء ليسوا مجرد روبوتات دردشة”. “يمكنهم اتخاذ الإجراءات، والوصول إلى الأنظمة، ونقل المعلومات. يجب أن تكون قادرًا على رؤية ما يفعلونه بالضبط وكيف يتخذون قراراتهم. المصدر المفتوح يمنحك ذلك. لكن الذكاء الاصطناعي السحابي الخاص لا يفعل ذلك.”

تمتد مخاطر استخدام أنظمة الذكاء الاصطناعي الفاسدة أو غير الآمنة إلى ما هو أبعد من حالات استخدام الأمن القومي. وأشار برانش إلى أن ماجستير في القانون الذي ثبت أن له مخرجات متحيزة وتمييزية يمكن أن يؤدي إلى نتائج سلبية غير متناسبة للأشخاص أيضًا، خاصة إذا تم استخدامه في الإدارات المتعلقة بالإسكان أو العمل أو العدالة.

في حين أن مكتب الإدارة والميزانية لم ينشر بعد مخزونه الفيدرالي الموحد لحالات استخدام الذكاء الاصطناعي لعام 2025، فقد راجعت TechCrunch حالات استخدام العديد من الوكالات – معظمها إما لا يستخدم Grok أو لا يكشف عن استخدامه لـ Grok. وبصرف النظر عن وزارة الدفاع، يبدو أيضًا أن وزارة الصحة والخدمات الإنسانية تستخدم برنامج Grok بشكل نشط، وذلك بشكل أساسي لجدولة وإدارة منشورات وسائل التواصل الاجتماعي وإنشاء المسودات الأولى للوثائق أو الإحاطات أو مواد الاتصال الأخرى.

وأشار برانش إلى ما يراه انسجامًا فلسفيًا بين جروك والإدارة كسبب للتغاضي عن عيوب برنامج الدردشة الآلي.

وقال برانش: “إن العلامة التجارية لشركة Grok هي نموذج اللغة الكبيرة المناهض للاستيقاظ، وهذا ينسب إلى فلسفة هذه الإدارة”. “إذا كانت لديك إدارة لديها مشكلات متعددة مع الأشخاص الذين اتُهموا بأنهم نازيون جدد أو عنصريون بيض، ثم يستخدمون نموذجًا لغويًا كبيرًا مرتبطًا بهذا النوع من السلوك، فأنا أتخيل أنهم قد يكون لديهم ميل لاستخدامه”.

وهذه هي الرسالة الثالثة التي يرسلها التحالف بعد أن أعرب عن مخاوف مماثلة في أغسطس وأكتوبر من العام الماضي. في أغسطس، أطلقت شركة xAI “الوضع الحار” في Grok Imagine، مما أدى إلى إنشاء عدد كبير من مقاطع التزييف العميق الجنسية الصريحة دون موافقتها. ذكرت TechCrunch أيضًا في أغسطس أنه تمت فهرسة محادثات Grok الخاصة بواسطة بحث Google.

قبل رسالة أكتوبر/تشرين الأول، اتُهم جروك بتقديم معلومات مضللة عن الانتخابات، بما في ذلك المواعيد النهائية الكاذبة لتغييرات الاقتراع والتزييف السياسي العميق. كما أطلقت شركة xAI أيضًا شركة Grokipedia، التي وجد الباحثون أنها تضفي الشرعية على العنصرية العلمية، والتشكيك في فيروس نقص المناعة البشرية/الإيدز، ومؤامرات اللقاحات.

وبصرف النظر عن التعليق الفوري للنشر الفيدرالي لـ Grok، تطالب الرسالة بأن يقوم مكتب الإدارة والميزانية بالتحقيق رسميًا في إخفاقات السلامة في Grok وما إذا كانت عمليات الرقابة المناسبة قد تم إجراؤها على chatbot. كما يطلب من الوكالة أن توضح علنًا ما إذا كان قد تم تقييم Grok للامتثال للأمر التنفيذي الذي أصدره ترامب والذي يتطلب من LLMs أن تكون تسعى إلى الحقيقة ومحايدة وما إذا كانت تفي بمعايير OMB لتخفيف المخاطر.

قال برانش: “تحتاج الإدارة إلى التوقف مؤقتًا وإعادة تقييم ما إذا كان جروك يفي بهذه العتبات أم لا”.

تواصلت TechCrunch مع xAI وOMB للتعليق.



Source link

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى