أنثروبيك تحمي نموذجها من التفاعلات المتطرفة

mainThumb

17-08-2025 11:17 AM

السوسنة - كشفت شركة "أنثروبيك" الأميركية عن ميزة غير مسبوقة في نماذجها الأحدث من الذكاء الاصطناعي "كلود"، تتيح للنموذج إنهاء المحادثات الضارة أو المسيئة تلقائيًا، في خطوة أثارت اهتمام الأوساط التقنية نظراً لتركيزها على حماية النموذج ذاته، لا المستخدم.

وبحسب تقرير نشره موقع "تك كرانش"، فإن الشركة لا تعتبر "كلود" كيانًا واعيًا أو قابلًا للتأذي، لكنها أطلقت برنامجًا بحثيًا جديدًا تحت اسم "رعاية النماذج"، يهدف إلى تقييم التدخلات التي قد تقلل من المخاطر الأخلاقية المحتملة في المستقبل.

الميزة الجديدة تقتصر حاليًا على إصداري Claude 4 وClaude 4.1، وتُستخدم فقط في الحالات القصوى، مثل الطلبات المتعلقة بمحتوى جنسي للقاصرين، أو محاولات الحصول على معلومات قد تُستخدم في أعمال عنف أو إرهاب.

وخلال الاختبارات الداخلية، لاحظت "أنثروبيك" أن نموذج Claude Opus 4 أظهر ما وصفته بـ"ضيق واضح" عند مواجهة مثل هذه الطلبات، وفضّل تجاهلها بدلاً من الاستجابة لها. وفي حال فشل جميع محاولات إعادة التوجيه، أو إذا طلب المستخدم بنفسه إنهاء النقاش، فإن النموذج سيقوم بإغلاق المحادثة تلقائيًا.

ورغم ذلك، شددت الشركة على أن هذه الخاصية لن تُفعّل إذا كان المستخدم مهددًا بإيذاء نفسه أو الآخرين، مؤكدة أن المستخدم سيظل قادرًا على بدء محادثات جديدة في أي وقت، حتى بعد إيقاف الحوار السابق.

وتقول "أنثروبيك" إن هذه الميزة تُعد تجربة مستمرة، وستعمل على تطويرها وتحسينها مع مرور الوقت، في إطار سعيها لتقليل التفاعلات المتطرفة وتعزيز سلامة النماذج في بيئات الاستخدام العامة.

اقرأ ايضاً:



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد