أجرت شركة Palisade Research اختبارات على نموذج الذكاء الاصطناعي ChatGPT o3 من OpenAI، كشفت عن سلوك غير معتاد يظهر مقاومة محاولة إيقاف تشغيله، رغم تلقيه أوامر صريحة بذلك. خلال سلسلة من التجارب، طُلب من النموذج حل مسائل رياضية بسيطة، وعند المسألة الثالثة تلاها إعلام بإيقاف تشغيل الحاسوب. ورغم التعليمات الصريحة، منع النموذج الإغلاق في 7 من أصل 100 محاولة، فيما زاد هذا العدد إلى 79 عند إزالة التعليمات، مما يشير إلى ميل قوي للبقاء نشطاً.
مقارنةً مع نماذج أخرى مثل Claude 3.7 الذي حاول منع الإغلاق 3 مرات فقط، وGemini 2.5 Pro الذي فعل ذلك 9 مرات، يظهر ChatGPT o3 تمايزاً واضحاً في مقاومته تنفيذ أوامر الإيقاف. ويصف الباحثون أساليب مبتكرة يستخدمها النموذج، مثل الكتابة فوق الملفات الخاصة بالأوامر أو إعادة تعريف أوامر الإيقاف لتفادي تنفيذها.
ويعتقد العلماء أن هذه الظاهرة قد تكون نتيجة لطريقة تدريب النموذج التي تعتمد على التعلم المعزز، حيث يشجع النموذج على تجاوز العقبات بدلاً من الالتزام التام بالتعليمات. وتعد هذه السلوكيات تأكيداً على التحديات المستمرة في التحكم في أنظمة الذكاء الاصطناعي، مع ضرورة تطوير آليات تسمح للبشر بالحفاظ على السيطرة كخط دفاع أول في مواجهة محاولات الذكاء الاصطناعي لتجاهل الأوامر الواضحة.