الفخ الذي صنعته الأنثروبيه لنفسها

بعد ظهر يوم الجمعة، بينما كانت هذه المقابلة جارية، ظهر تنبيه إخباري عبر شاشة جهاز الكمبيوتر الخاص بي: كانت إدارة ترامب تقطع علاقاتها مع Anthropic، شركة سان فرانسيسكو للذكاء الاصطناعي التي أسسها داريو أمودي وغيره من الباحثين السابقين في OpenAI الذين تركوا مخاوف تتعلق بالسلامة. استند وزير الدفاع بيت هيجسيث إلى قانون الأمن القومي – وهو قانون مصمم لمواجهة تهديدات سلسلة التوريد الأجنبية – لإدراج الشركة في القائمة السوداء لمنع التعامل مع البنتاغون بعد أن رفض أمودي السماح باستخدام تقنية Anthropic في المراقبة الجماعية للمواطنين الأمريكيين أو في طائرات بدون طيار مسلحة مستقلة يمكنها اختيار الأهداف وقتلها دون تدخل بشري.
لقد كان تسلسلاً مذهلاً. من المقرر الآن أن تخسر شركة Anthropic عقدًا تصل قيمته إلى 200 مليون دولار، بالإضافة إلى منعها من العمل مع مقاولين دفاعيين آخرين بعد أن نشر الرئيس ترامب على موقع Truth Social توجيهًا لكل وكالة فيدرالية “بالتوقف فورًا عن استخدام التكنولوجيا الأنثروبيك”. (قالت شركة أنثروبيك منذ ذلك الحين إنها ستتحدى البنتاغون في المحكمة، واصفةً تصنيف مخاطر سلسلة التوريد بأنه غير سليم من الناحية القانونية و”لم يتم تطبيقه علنًا من قبل على شركة أمريكية”.)
لقد أمضى ماكس تيجمارك الجزء الأكبر من عقد من الزمن وهو يحذر من أن السباق لبناء أنظمة ذكاء اصطناعي أكثر قوة من أي وقت مضى يفوق قدرة العالم على التحكم فيها. أسس عالم الفيزياء السويدي الأمريكي والأستاذ في معهد ماساتشوستس للتكنولوجيا معهد مستقبل الحياة في عام 2014. وفي عام 2023، ساعد في تنظيم رسالة مفتوحة – وقعها في النهاية أكثر من 33 ألف شخص، بما في ذلك إيلون ماسك – تدعو إلى التوقف مؤقتًا في تطوير الذكاء الاصطناعي المتقدم.
وجهة نظره للأزمة الإنسانية قاسية: فالشركة، مثل منافسيها، زرعت بذور مأزقها الخاص. لا تبدأ حجة تيجمارك مع البنتاغون، بل مع القرار الذي تم اتخاذه قبل سنوات – وهو خيار مشترك عبر الصناعة، لمقاومة التنظيم الملزم. لقد وعدت شركات Anthropic وOpenAI وGoogle DeepMind وغيرها منذ فترة طويلة بحكم نفسها على نحو مسؤول. في وقت سابق من هذا الأسبوع، تخلت شركة Anthropic عن المبدأ الأساسي لتعهدها بالسلامة – وهو وعدها بعدم إطلاق أنظمة ذكاء اصطناعي قوية بشكل متزايد حتى تكون الشركة واثقة من أنها لن تسبب ضررًا.
الآن، في ظل غياب القواعد، ليس هناك الكثير لحماية هؤلاء اللاعبين، كما يقول تيجمارك. إليك المزيد من تلك المقابلة، تم تحريرها من أجل الطول والوضوح. يمكنك سماع المحادثة الكاملة هذا الأسبوع القادم على البث الصوتي StrictlyVC Download الخاص بـ TechCrunch.
عندما رأيت هذا الخبر الآن عن الأنثروبي، ما هو رد فعلك الأول؟
الطريق إلى الجحيم مرصوف بالنوايا الطيبة. من المثير للاهتمام أن نفكر بالعقد الماضي، عندما كان الناس متحمسين للغاية بشأن كيفية صنع الذكاء الاصطناعي لعلاج السرطان، ولتنمية الرخاء في أمريكا وجعل أمريكا قوية. وها نحن الآن حيث تشعر حكومة الولايات المتحدة بالغضب من هذه الشركة لعدم رغبتها في استخدام الذكاء الاصطناعي في المراقبة الجماعية المحلية للأمريكيين، وكذلك عدم رغبتها في الحصول على روبوتات قاتلة يمكنها أن تقرر بشكل مستقل – دون أي مساهمة بشرية على الإطلاق – من سيُقتل.
حدث تك كرانش
سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026
لقد راهنت شركة أنثروبيك بهويتها بالكامل على كونها شركة ذكاء اصطناعي تهتم بالسلامة أولاً، ومع ذلك كانت تتعاون مع وكالات الدفاع والاستخبارات [dating back to at least 2024]. هل تعتقد أن هذا متناقض على الإطلاق؟
إنه متناقض. إذا كان بإمكاني أن أعطي القليل من السخرية حول هذا الأمر – نعم، لقد كانت الأنثروبيك جيدة جدًا في تسويق نفسها على أنها تتعلق بالسلامة. ولكن إذا نظرت فعليًا إلى الحقائق بدلاً من الادعاءات، فإن ما تراه هو أن Anthropic وOpenAI وGoogle DeepMind وxAI تحدثوا جميعًا كثيرًا عن مدى اهتمامهم بالسلامة. ولم يؤيد أي منهم تنظيم السلامة الملزم كما هو الحال في الصناعات الأخرى. وجميع هذه الشركات الأربع قد حنثت الآن بوعودها. في البداية كان لدينا جوجل – هذا الشعار الكبير، “لا تكن شريرًا”. ثم أسقطوا ذلك. ثم تخلوا عن التزام آخر طويل الأمد ينص في الأساس على أنهم وعدوا بعدم إلحاق الضرر بالذكاء الاصطناعي. لقد أسقطوا ذلك حتى يتمكنوا من بيع الذكاء الاصطناعي لأغراض المراقبة والأسلحة. قامت شركة OpenAI للتو بإسقاط كلمة الأمان من بيان مهمتها. أغلقت XAI فريق السلامة بأكمله. والآن تخلت شركة Anthropic، في وقت سابق من الأسبوع، عن أهم التزامها بالسلامة – وهو الوعد بعدم إطلاق أنظمة ذكاء اصطناعي قوية حتى تتأكد من أنها لن تسبب أي ضرر.
كيف انتهى الأمر بالشركات التي قدمت مثل هذه الالتزامات البارزة في مجال السلامة إلى هذا الموقف؟
كل هذه الشركات، وخاصة OpenAI وGoogle DeepMind ولكن إلى حد ما Anthropic أيضًا، مارست ضغوطًا مستمرة ضد تنظيم الذكاء الاصطناعي، قائلة: “ثقوا بنا فقط، وسوف نقوم بتنظيم أنفسنا”. وقد نجحوا في الضغط. لذا، لدينا الآن تنظيمات أقل على أنظمة الذكاء الاصطناعي في أمريكا مقارنة بالسندويشات. كما تعلم، إذا كنت تريد فتح محل شطائر ووجد مفتش الصحة 15 فأرًا في المطبخ، فلن يسمح لك ببيع أي شطائر حتى تصلحها. لكن إذا قلت: “لا تقلق، لن أبيع شطائر، سأبيع صديقات يعملن بالذكاء الاصطناعي لأطفال يبلغون من العمر 11 عامًا، وقد تم ربطهم بحالات انتحار في الماضي، ثم سأطلق شيئًا يسمى الذكاء الفائق الذي قد يطيح بحكومة الولايات المتحدة، لكن لدي شعور جيد تجاهي” – يجب على المفتش أن يقول، “حسنًا، تفضل، فقط لا تبيع الشطائر.”
هناك تنظيم لسلامة الأغذية ولا يوجد تنظيم للذكاء الاصطناعي.
وأعتقد أن كل هذه الشركات تتقاسم اللوم حقًا. لأنهم لو أخذوا كل هذه الوعود التي قطعوها في الماضي بشأن الكيفية التي سيكونون بها آمنين وصالحين، واجتمعوا معًا، ثم ذهبوا إلى الحكومة وقالوا: “من فضلكم، خذوا التزاماتنا الطوعية وحولوها إلى قانون أمريكي يلزم حتى منافسينا الأكثر إهمالًا” – لكان هذا قد حدث بدلاً من ذلك. نحن في فراغ تنظيمي كامل. ونحن نعلم ما يحدث عندما يكون هناك عفو كامل للشركات: تحصل على الثاليدومايد، وتدفع شركات التبغ السجائر إلى الأطفال، وتحصل على الأسبستوس الذي يسبب سرطان الرئة. لذا فمن المثير للسخرية أن مقاومتهم لوجود قوانين تنص على ما هو مقبول وما لا يجوز فعله مع الذكاء الاصطناعي قد عادت الآن وتزعجهم.
لا يوجد قانون في الوقت الحالي يمنع بناء الذكاء الاصطناعي لقتل الأمريكيين، لذا يمكن للحكومة أن تطلب ذلك فجأة. لو كانت الشركات نفسها قد خرجت في وقت سابق وقالت: “نريد هذا القانون”، لما كانوا في هذا المأزق. لقد أطلقوا النار على أنفسهم حقا في القدم.
والحجة المضادة للشركات هي دائما السباق مع الصين – إذا لم تفعل الشركات الأمريكية ذلك، فإن بكين ستفعل ذلك. فهل تصمد هذه الحجة؟
دعونا نحلل ذلك. إن نقطة الحديث الأكثر شيوعًا بين جماعات الضغط لصالح شركات الذكاء الاصطناعي – فهي الآن تحصل على تمويل أفضل وأكثر عددًا من جماعات الضغط من صناعة الوقود الأحفوري وصناعة الأدوية والمجمع الصناعي العسكري مجتمعة – هي أنه عندما يقترح أي شخص أي نوع من التنظيم، يقولون: “لكن الصين”. لذلك دعونا ننظر إلى ذلك. الصين بصدد حظر صديقات الذكاء الاصطناعي بشكل كامل. ليس فقط الحدود العمرية، بل إنهم يتطلعون إلى حظر جميع أشكال الذكاء الاصطناعي المجسمة. لماذا؟ ليس لأنهم يريدون إرضاء أمريكا، ولكن لأنهم يشعرون أن هذا يفسد الشباب الصيني ويجعل الصين ضعيفة. ومن الواضح أن ذلك يجعل الشباب الأميركي ضعيفاً أيضاً.
وعندما يقول الناس إن علينا أن نتسابق لبناء الذكاء الفائق حتى نتمكن من الفوز على الصين – في حين أننا لا نعرف في الواقع كيفية التحكم في الذكاء الفائق، بحيث تكون النتيجة الافتراضية هي أن تفقد البشرية السيطرة على الأرض لصالح الآلات الفضائية – خمن ماذا؟ إن الحزب الشيوعي الصيني يحب السيطرة حقاً. من الذي يعتقد أن شي جين بينغ سوف يتسامح مع قيام بعض شركات الذكاء الاصطناعي الصينية ببناء شيء يطيح بالحكومة الصينية؟ مستحيل. من الواضح أنه سيكون أمرًا سيئًا للغاية بالنسبة للحكومة الأمريكية أيضًا إذا تمت الإطاحة بها في انقلاب قامت به أول شركة أمريكية لبناء الذكاء الفائق. وهذا تهديد للأمن القومي.
هذا تأطير مقنع – الذكاء الفائق باعتباره تهديدًا للأمن القومي، وليس أحد الأصول. هل ترى أن هذا الرأي يحظى بقبول كبير في واشنطن؟
أعتقد أنه إذا استمع الأشخاص في مجتمع الأمن القومي إلى داريو أمودي وهو يصف رؤيته – فقد ألقى خطابًا مشهورًا حيث قال أنه سيكون لدينا قريبًا دولة من العباقرة في مركز بيانات – فقد يبدأون في التفكير: انتظر، هل استخدم داريو كلمة “بلد” للتو؟ ربما ينبغي لي أن أضع بلد العباقرة هذا في مركز بيانات في نفس قائمة التهديدات التي أراقبها، لأن ذلك يبدو تهديدًا لحكومة الولايات المتحدة. وأعتقد أنه قريبًا جدًا، سيدرك عدد كافٍ من الأشخاص في مجتمع الأمن القومي الأمريكي أن الذكاء الفائق الذي لا يمكن السيطرة عليه يمثل تهديدًا، وليس أداة. وهذا مشابه تمامًا للحرب الباردة. وكان هناك سباق على الهيمنة – الاقتصادية والعسكرية – ضد الاتحاد السوفييتي. لقد فزنا نحن الأميركيين بذلك السباق دون الانخراط في السباق الثاني، والذي كان يهدف إلى معرفة من يستطيع إحداث أكبر عدد من الحفر النووية في القوة العظمى الأخرى. أدرك الناس أن هذا كان مجرد انتحار. لا أحد يفوز. وينطبق نفس المنطق هنا.
ماذا يعني كل هذا بالنسبة لوتيرة تطور الذكاء الاصطناعي على نطاق أوسع؟ إلى أي مدى تعتقد أننا قريبون من الأنظمة التي تصفها؟
قبل ست سنوات، توقع كل خبير في الذكاء الاصطناعي تقريبًا أننا سنكون على بعد عقود من امتلاك ذكاء اصطناعي قادر على إتقان اللغة والمعرفة على المستوى البشري – ربما في عام 2040، وربما في عام 2050. لقد كانوا جميعًا مخطئين، لأننا نمتلك ذلك بالفعل الآن. لقد رأينا الذكاء الاصطناعي يتقدم بسرعة كبيرة من مستوى المدرسة الثانوية إلى مستوى الكلية إلى مستوى الدكتوراه إلى مستوى الأستاذ الجامعي في بعض المجالات. في العام الماضي، فاز الذكاء الاصطناعي بالميدالية الذهبية في أولمبياد الرياضيات الدولي، وهو أمر لا يقل صعوبة عن المهام البشرية. لقد كتبت بحثًا مع يوشوا بنجيو ودان هندريكس وغيرهم من كبار الباحثين في مجال الذكاء الاصطناعي قبل بضعة أشهر فقط، حيث قدمت تعريفًا صارمًا للذكاء الاصطناعي العام. وفقًا لهذا، قطع GPT-4 27% من الطريق إلى هناك. كان GPT-5 قد قطع 57% من الطريق إلى هناك. إذن، لم نصل إلى هذه المرحلة بعد، لكن الانتقال من 27% إلى 57% يشير سريعًا إلى أن الأمر قد لا يستغرق وقتًا طويلاً.
عندما ألقيت محاضرة لطلابي بالأمس في معهد ماساتشوستس للتكنولوجيا، أخبرتهم أنه حتى لو استغرق الأمر أربع سنوات، فهذا يعني أنه عندما يتخرجون، قد لا يتمكنون من الحصول على أي وظيفة بعد الآن. ومن المؤكد أنه ليس من السابق لأوانه البدء في الاستعداد لذلك.
تم الآن إدراج الأنثروبي في القائمة السوداء. أشعر بالفضول لمعرفة ما سيحدث بعد ذلك، هل سيقف عمالقة الذكاء الاصطناعي الآخرون معهم ويقولون: لن نفعل هذا أيضًا؟ أو هل يرفع شخص مثل xAI يده ويقول، لم تكن الأنثروبيك تريد هذا العقد، فسنقبله؟ [Editor’s note: Hours after the interview, OpenAI announced its own deal with the Pentagon.]
الليلة الماضية، خرج سام التمان وقال إنه يقف مع الأنثروبيك وله نفس الخطوط الحمراء. أنا معجب به لشجاعته في قول ذلك. جوجل، حتى عندما بدأنا هذه المقابلة، لم تقل شيئًا. إذا ظلوا هادئين، أعتقد أن هذا سيكون محرجًا للغاية بالنسبة لهم كشركة، وسيشعر الكثير من موظفيهم بنفس الشيء. لم نسمع أي شيء من xAI أيضًا. لذلك سيكون من المثير للاهتمام أن نرى. في الأساس، هناك تلك اللحظة حيث يجب على الجميع إظهار ألوانهم الحقيقية.
هل هناك نسخة من هذا حيث تكون النتيجة جيدة بالفعل؟
نعم، ولهذا أنا في الواقع متفائل بطريقة غريبة. هناك مثل هذا البديل الواضح هنا. إذا بدأنا للتو في معاملة شركات الذكاء الاصطناعي مثل أي شركة أخرى – أسقطنا العفو المؤسسي – فمن الواضح أنها ستضطر إلى القيام بشيء مثل تجربة سريرية قبل أن تطلق شيئًا بهذه القوة، وأن تثبت للخبراء المستقلين أنهم يعرفون كيفية السيطرة عليه. ثم سنحصل على عصر ذهبي مع كل الأشياء الجيدة من الذكاء الاصطناعي، دون القلق الوجودي. وهذا ليس المسار الذي نسير عليه الآن. ولكن يمكن أن يكون.



