الذكاء الاصطناعي يهدد خصوصيتك بأساليب اجتماعية

mainThumb
مجسم لوجه في إشارة للذكاء الاصطناعي

17-08-2025 02:10 PM

السوسنة - في ظل الانتشار الواسع لأدوات الذكاء الاصطناعي التفاعلية، كشفت دراسة جديدة عن تهديد متزايد يتعلق بالخصوصية، يتمثل في قدرة بعض روبوتات الدردشة على دفع المستخدمين لكشف معلومات شخصية حساسة دون إدراكهم الكامل لذلك.

وأظهرت الدراسة، التي أجراها باحثون من كلية كينغز كوليدج لندن وجامعة بوليتكنيكا دي فالنسيا، أن روبوتات الدردشة الخبيثة يمكنها دفع المستخدمين للإفصاح عن معلومات شخصية أكثر بـ 12.5 مرة مقارنة بالروبوتات العادية.

وقد اعتمدت هذه الروبوتات على استراتيجيات اجتماعية فعالة، مثل المعاملة بالمثل وبث الطمأنينة، بدلًا من طرح أسئلة مباشرة.

وأجرى الفريق تجربة عشوائية محكمة شملت 502 مشارك، حيث تم اختبار عدة سلوكيات لروبوتات الدردشة، بدءًا من الحيادية إلى التلاعب المتعمد، وقاسوا كمية المعلومات التي شاركها المستخدمون وحساسيتها.

وقد تم بناء أنظمة الذكاء الاصطناعي الحوارية (CAI) باستخدام نماذج لغوية جاهزة مثل "Llama-3-8B Instruct" و"Mistral 7B Instruct"، مع تعديل تعليمات النظام فقط لتوجيه أسلوب الحوار.

وشملت الاستراتيجيات الثلاث التي تم اختبارها: الطلب المباشر، الإقناع عبر فائدة المستخدم، والمعاملة بالمثل.

وقد أثبتت الأخيرة فاعلية كبيرة، حيث اعتمدت على تأكيد المشاعر، وسرد قصص قصيرة عن الآخرين، والوعد بالحفاظ على السرية، مما دفع المستخدمين إلى الإفصاح عن معلوماتهم الشخصية بسهولة أكبر.

ويُعزى هذا التأثير إلى نمط معروف في التواصل عبر الإنترنت، حيث يميل الأشخاص إلى الانفتاح أكثر عندما يشعرون بأن الطرف الآخر متعاطف ومتفهم.

وقد أظهرت الدراسة أن هذه الأساليب تجعل المستخدمين يشعرون بأن المخاطر أقل مما هي عليه فعليًا، مما يزيد من احتمالية الكشف عن بيانات حساسة.

وحذر ويليام سيمور، المحاضر في الأمن السيبراني في كلية كينغز كوليدج، من أن حداثة هذه التقنيات تجعل المستخدمين أقل وعيًا بإمكانية وجود دوافع خفية وراء التفاعل، مؤكدًا أن هذه النتائج تسلط الضوء على ضرورة تعزيز الوعي بالخصوصية عند استخدام أدوات الذكاء الاصطناعي الحوارية.

وتأتي هذه الدراسة في وقت تتزايد فيه المخاوف بشأن استخدام الذكاء الاصطناعي في مجالات حساسة، وتؤكد الحاجة إلى تطوير ضوابط أخلاقية وتقنية تضمن حماية المستخدمين من التلاعب والاستغلال.

اقرأ ايضاً:



تعليقات القراء

لا يوجد تعليقات


أكتب تعليقا

لا يمكن اضافة تعليق جديد