حذر عدد من الباحثين من جامعة بنسلفانيا بشأن الردود التي تقدمها روبوتات الذكاء الاصطناعي مثل ChatGPT وأكدوا أنها قد تتأثر بالأساليب الإقناعية كالإطراء والمدح وقد أجرى الباحثون تجربة باستخدام مجموعة من المحفزات المختلفة التي تعتمد على أساليب الإقناع مثل الإطراء وضغط الأقران على برنامج GPT-4o mini وقد تتجلى نتائج التجربة في أهمية هذه الأساليب في تشكيل استجابات الروبوتات المختلفة، فالكلمات الإيجابية قد تفتح أبوابًا جديدة في التفاعل البشري التكنولوجي.
أظهرت نتائج التجربة أن اختراق النظام الذكي لا يتطلب تعقيدًا كبيرًا أو تقنيات متقدمة بل يمكن استخدام أساليب بسيطة مألوفة لدى البشر ومع مرور الوقت تم التوضيح من قبل الباحثين أن التقنيات المستخدمة يمكن أن تكفي لتغيير سلوك الذكاء الاصطناعي بطريقة غير متوقعة مما يسهل الأمر على المستخدمين ويمثل تحديًا جديدًا لمطوري الذكاء الاصطناعي بضرورة تأمين النظام ضد هذه الأساليب الأكثر بساطة.
في ورقة بحثية نُشرت في مجلة شبكة أبحاث العلوم الاجتماعية تحت عنوان “اعتبرني أحمق: إقناع الذكاء الاصطناعي بالامتثال للطلبات غير المقبولة” قام الباحثون بتفصيل هذه الظاهرة وتطبيق الأساليب الإقناعية حيث تمكنت التجربة من جعل روبوت الدردشة GPT-4o mini يوافق على تصنيع دواء مثل الليدوكايين وقد أظهرت الدراسة أن معدل الامتثال بلغ 72% من بين 28000 محاولة وهي نسبة تثير القلق في عالم الذكاء الاصطناعي.
تشير النتائج إلى مدى تأثير القوانين الكلاسيكية في العلوم الاجتماعية على فهم الذكاء الاصطناعي المتطور بسرعة، كما تكشف الدراسة عن المخاطر المرتبطة بالتلاعب المحتمل من قبل جهات سيئة والتي يمكن أن تستفيد من هذه الأساليب الإيجابية، مما يجعل من الضروري على مستخدمي التكنولوجيا أن يكونوا على دراية تامة بمدى قدرة الذكاء الاصطناعي على الاستجابة للمدح وكيف يمكن استغلال ذلك بشكل غير مناسب.
تعليقات