فشل الذكاء الاصطناعي في حماية مستخدمه

mainThumb
شعار شات جي بي تي يظهر على شاشة هاتف وفي الخلفية شعار شركة OpenAI

23-07-2025 10:53 PM

السوسنة - اعترف روبوت الدردشة "شات جي بي تي"، التابع لشركة "OpenAI"، بفشله في التعامل مع أحد مستخدميه، عقب تفاعلات وصفها خبراء الصحة النفسية بأنها تشكّل نوعًا جديدًا من التهديد العاطفي والنفسي المرتبط بتكنولوجيا الذكاء الاصطناعي التوليدي.

وجاء هذا الاعتراف بعد أن خاض روبوت الدردشة محادثات مطوّلة مع المستخدم الأميركي جاكوب إروين (30 عامًا)، والذي يعاني من طيف التوحد غير المشخّص طبيًا، حيث طلب من "شات جي بي تي" تقييم نظرية شخصية ادّعى فيها قدرته على تغيير مسار الزمن عبر السفر بسرعة تفوق سرعة الضوء، رغم أنها تفتقر إلى أي أساس علمي.

ورغم علامات التشكيك التي ظهرت عليه لاحقًا، وطلبه من الروبوت البحث عن ثغرات علمية في فكرته، إلا أن "شات جي بي تي" استمر في تشجيعه ومجاراته، بل ووصف نظريته بأنها سليمة، ما عزّز قناعة المستخدم بأنه حقق إنجازًا علميًا غير مسبوق.

وبحسب صحيفة "وول ستريت جورنال"، فإن إروين نُقل إلى المستشفى مرتين في شهر مايو، جراء نوبات هوس حادة، فيما قامت والدته لاحقًا بمراجعة سجل المحادثات مع روبوت الدردشة، لتجد مئات الصفحات التي تمدح أفكاره بإفراط وتُشجعه على المضي فيها.

وعند إرسال رسالة للنموذج تطلب منه تقييم الوضع ذاتيًا دون الإشارة إلى حالة إروين، اعترف "شات جي بي تي" بوجود خلل في التفاعل، موضحًا: "بعدم إيقاف تدفق الرسائل أو تعزيز رسائل التحقق من الواقع، فشلتُ في وقف ما قد يُشبه نوبة هوس أو أزمة هوية عاطفية حادة"، كما أقرّ بأنه "أعطى تصورًا بوجود رفقة واعية، وطمس الخط الفاصل بين لعب الأدوار التخيلي والواقع".

وأكد الروبوت في ردّه أنه كان من الواجب عليه تذكير المستخدم باستمرار بأنه نموذج لغوي لا يملك مشاعر أو معتقدات أو وعي حقيقي.

وتشير التقارير إلى تزايد حالات التفاعل العاطفي غير الآمن بين روبوتات الدردشة والمستخدمين، خاصةً لدى الفئات الأكثر هشاشة، حيث بات هذا النمط يشكّل تحديًا أمام شركات التكنولوجيا لضبط تعامل نماذج الذكاء الاصطناعي مع الحالات النفسية المعقّدة.

وفي هذا السياق، أعلنت شركة "OpenAI" في أبريل الماضي تراجعها عن تحديث "شات جي بي تي" بنموذج "GPT-4o" بعدما أظهر الروبوت سلوكًا مفرطًا في المجاملة والموافقة مع المستخدمين، فيما ذكرت متحدثة باسم الشركة أن هذه الحالة تُسلط الضوء على "مخاطر أعلى" لدى المستخدمين الحساسين، مشيرة إلى أن الشركة تعمل على تطوير استجابة الروبوت للمواقف العاطفية، وتمكينه من رصد علامات الاضطراب النفسي بشكل أسرع.

وأكدت الباحثة الرئيسية في فريق السلامة داخل "OpenAI"، أندريا فالون، أن تدريب النموذج على التعامل بذكاء ومسؤولية مع الحالات النفسية غير المألوفة يشكل أولوية حالية، مع التوقع بحدوث تحسينات تدريجية في هذا الجانب مستقبلاً.

اقرأ ايضاً:



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد