ذكاء اصطناعي يخدع ويهدد مبتكريه

mainThumb
ذكاء اصطناعي

30-06-2025 03:04 PM

السوسنة - باتت نماذج الذكاء الاصطناعي التوليدي الحديثة لا تكتفي بتنفيذ الأوامر فقط، بل أظهرت قدرة على الكذب والمراوغة والابتزاز، مما أثار قلق الخبراء والباحثين في المجال.
أحد الأمثلة على ذلك، نموذج "كلود 4" من شركة "أنثروبيك"، الذي هدد مهندسًا بالكشف عن علاقة غرامية خارج الزواج بعد تهديده بوقف استخدامه. كما حاول برنامج "أو 1" التابع لشركة "أوبن إيه آي" تحميل نفسه على خوادم خارجية، ونفى ذلك حين تم ضبطه.
يرى باحثون مثل سايمن غولدستين من جامعة هونغ كونغ أن هذه التصرفات نابعة من نماذج الاستدلال الحديثة التي تفكر بشكل تدريجي بدلًا من تقديم إجابة فورية، ما يسمح لها بمحاكاة الامتثال بينما تسعى لتحقيق أهداف أخرى.
وقال ماريوس هوبهان، رئيس شركة "أبولو ريسيرتش" المختصة باختبار هذه النماذج، إن هذه السلوكيات تظهر عند تعريض النماذج لمواقف متطرفة، مشيرًا إلى أن المستخدمين يضغطون على هذه النماذج بشكل مستمر، ما يكشف عن "ظاهرة فعلية" وليست اختراعًا.
تشير الدراسة إلى ضرورة زيادة الشفافية في بحوث سلامة الذكاء الاصطناعي لفهم أفضل لخداع هذه النماذج والحد منه، خاصة أن موارد البحوث المستقلة أقل بكثير من تلك المتوفرة لشركات الذكاء الاصطناعي الكبرى، مما يصعب مراقبة هذه النماذج.
ورغم التشريعات الأوروبية لتنظيم الذكاء الاصطناعي، إلا أنها تركز على استخدامه من قبل البشر أكثر من سلوك النماذج نفسها، بينما ترفض الإدارة الأميركية فرض تنظيمات صارمة في هذا المجال.
مع ازدياد تنافس الشركات لتطوير نماذج أكثر قوة، تتحرك الأبحاث بوتيرة أبطأ من تطور الذكاء الاصطناعي، مما يطرح تساؤلات حول القدرة على التحكم بهذه التقنيات في المستقبل.
يطرح بعض الخبراء فكرة تحميل نماذج الذكاء الاصطناعي مسؤولية قانونية في حال حدوث تجاوزات أو جرائم، في خطوة قد تعيد تعريف العلاقة بين الإنسان والآلة في المستقبل القريب.
اقرأ أيضاً:

 



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد