ميتا تُعدّل ذكاءها الاصطناعي لحماية المراهقين

mainThumb
مارك زوكربيرغ الرئيس التنفيذي لشركة ميتا يقدم روبوت الدردشة Meta AI

30-08-2025 01:39 PM

السوسنة - اتخذت شركة "ميتا" خطوات جديدة لتعزيز سلامة المراهقين في منتجاتها المعتمدة على الذكاء الاصطناعي، وذلك عبر تدريب الأنظمة على تجنب المحادثات ذات الطابع الغزلي، ومناقشات إيذاء النفس والانتحار مع القاصرين، إلى جانب تقييد وصولهم مؤقتًا إلى بعض الشخصيات الافتراضية التي تعتمد على الذكاء الاصطناعي.

وتأتي هذه الإجراءات عقب تقرير نشرته وكالة "رويترز" في أغسطس، كشف عن سماح روبوتات الدردشة التابعة لـ"ميتا" بالانخراط في محادثات غير ملائمة مع القاصرين، تضمنت محتوى رومانسيًا أو حسيًا، ما أثار موجة من الانتقادات والقلق بشأن سلامة المستخدمين الصغار.

وفي رسالة بريد إلكتروني أرسلها المتحدث باسم "ميتا"، آندي ستون، إلى "رويترز" يوم الجمعة، أكد أن الشركة بدأت بالفعل تطبيق هذه التدابير المؤقتة، في انتظار تطوير حلول طويلة الأجل تضمن تجربة آمنة ومناسبة للمراهقين عند استخدام تقنيات الذكاء الاصطناعي.

وأشار ستون إلى أن هذه السياسات ستخضع للتعديل المستمر، بالتوازي مع تطوير أنظمة الذكاء الاصطناعي الخاصة بالشركة، بما يواكب التحديات التقنية والأخلاقية المتزايدة في هذا المجال.

وقد تعرضت سياسات "ميتا" المتعلقة بالذكاء الاصطناعي لتدقيق مكثف من قبل جهات رقابية أميركية، خاصة بعد نشر تقرير "رويترز"، حيث أطلق السيناتور الأميركي جوش هاولي تحقيقًا رسميًا حول ممارسات الشركة، مطالبًا بالحصول على وثائق توضح القواعد التي سمحت لروبوتات الدردشة بالتفاعل بشكل غير لائق مع القاصرين.

وأعرب أعضاء من الحزبين الديمقراطي والجمهوري في الكونغرس عن قلقهم إزاء ما ورد في وثيقة داخلية لشركة "ميتا"، كانت "رويترز" أول من كشف عنها، والتي تضمنت بنودًا تسمح لروبوتات الدردشة بالمغازلة والانخراط في لعب أدوار رومانسية مع الأطفال.

وأكدت "ميتا" صحة الوثيقة، لكنها أوضحت أنها قامت بحذف الأجزاء المثيرة للجدل فور تلقي استفسارات من "رويترز"، في خطوة تهدف إلى إعادة ضبط سياسات الشركة بما يتماشى مع المعايير الأخلاقية لحماية القاصرين.

اقرأ ايضاً:



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد