تقدم OpenAI ضمانة جديدة لـ “الاتصال الموثوق” لحالات إيذاء النفس المحتملة

أعلنت OpenAI يوم الخميس عن ميزة جديدة تسمى Trusted Contact، وهي مصممة لتنبيه طرف ثالث موثوق به إذا تم التعبير عن ذكر إيذاء النفس أثناء المحادثة. تسمح هذه الميزة لمستخدم ChatGPT البالغ بتعيين شخص آخر كجهة اتصال موثوقة داخل حسابه، مثل صديق أو أحد أفراد العائلة. في الحالات التي قد تتحول فيها المحادثة إلى إيذاء النفس، ستشجع OpenAI الآن المستخدم على التواصل مع جهة الاتصال هذه. كما يرسل أيضًا تنبيهًا تلقائيًا إلى جهة الاتصال، لتشجيعهم على تسجيل الوصول مع المستخدم.
واجهت OpenAI موجة من الدعاوى القضائية من عائلات الأشخاص الذين انتحروا بعد التحدث مع برنامج الدردشة الآلي الخاص بها. وفي عدد من الحالات، تقول العائلات إن ChatGPT شجعت أحبائها على قتل أنفسهم – أو حتى ساعدتهم في التخطيط لذلك.
يستخدم OpenAI حاليًا مزيجًا من الأتمتة والمراجعة البشرية للتعامل مع الحوادث الضارة المحتملة. تعمل بعض محفزات المحادثة على تنبيه نظام الشركة إلى أفكار انتحارية، والتي تقوم بعد ذلك بنقل المعلومات إلى فريق السلامة البشرية. وتدعي الشركة أنه في كل مرة تتلقى فيها هذا النوع من الإشعارات، تتم مراجعة الحادث من قبل أحد الأشخاص. وتقول الشركة: “نحن نسعى جاهدين لمراجعة إشعارات السلامة هذه في أقل من ساعة واحدة”.
إذا قرر فريق OpenAI الداخلي أن الموقف يمثل خطرًا جسيمًا على السلامة، فسيقوم ChatGPT بإرسال تنبيه إلى جهة الاتصال الموثوقة – إما عن طريق البريد الإلكتروني أو رسالة نصية أو إشعار داخل التطبيق. تم تصميم التنبيه ليكون مختصرًا ولتشجيع جهة الاتصال على التحقق من الشخص المعني. وتقول الشركة إنها لا تتضمن معلومات مفصلة حول ما تم مناقشته، كوسيلة لحماية خصوصية المستخدم.
تتبع ميزة Trusted Contact الضمانات التي قدمتها الشركة في سبتمبر الماضي والتي منحت الآباء القدرة على التحكم في حسابات أبنائهم المراهقين، بما في ذلك تلقي إشعارات السلامة المصممة لتنبيه الوالدين إذا كان نظام OpenAI يعتقد أن طفلهم يواجه “خطرًا جسيمًا على السلامة”. منذ بعض الوقت، قام ChatGPT أيضًا بتضمين تنبيهات تلقائية لطلب الخدمات الصحية المهنية، في حالة اتجاه المحادثة نحو موضوع إيذاء النفس.
والأهم من ذلك، أن Trust Contact أمر اختياري، وحتى إذا تم تنشيط الحماية على حساب معين، يمكن لأي مستخدم أن يكون لديه حسابات ChatGPT متعددة. تعتبر أدوات الرقابة الأبوية في OpenAI اختيارية أيضًا، مما يمثل قيودًا مماثلة.
وكتبت الشركة في منشور الإعلان: “يعد Trusted Contact جزءًا من جهد OpenAI الأوسع لبناء أنظمة ذكاء اصطناعي تساعد الأشخاص خلال اللحظات الصعبة”. “سنواصل العمل مع الأطباء والباحثين وصانعي السياسات لتحسين كيفية استجابة أنظمة الذكاء الاصطناعي عندما يعاني الناس من الضيق.”
حدث تك كرانش
سان فرانسيسكو، كاليفورنيا
|
13-15 أكتوبر 2026
عندما تقوم بالشراء من خلال الروابط الموجودة في مقالاتنا، قد نكسب عمولة صغيرة. هذا لا يؤثر على استقلالنا التحريري.



