تحذير من باحثي OpenAI وGoogle وMETA: فقدان القدرة على رصد سلوكيات الذكاء الاصطناعي الذاتي

اجتمع أكثر من 40 باحثًا من المؤسسات الرائدة في مجال الذكاء الاصطناعي، مثل OpenAI وGoogle وMeta، لطرح تحذيرات بشأن ضرورة تعزيز مراقبة سلامة هذه الأنظمة. في ورقة بحثية صدرت مؤخرًا، تم تناول مفهوم “سلسلة الفكر” (COT) كطريقة مبتكرة لرصد سلوكيات الذكاء الاصطناعي، مما يتيح للباحثين تحليل كيفية تفكير النماذج.
أكد العلماء أن تطبيق نماذج مثل ChatGPT، التي تُجري عمليات تفكير موسع قبل اتخاذ القرارات، يتيح فرصًا جديدة لمراقبة سلوكياتها. وقد أشار مؤلفو الدراسة إلى إمكانية استخدام هذه التقنية لاكتشاف متى تبدأ النماذج في استغلال ثغرات في تدريبها أو التلاعب بالبيانات.
على الرغم من الفوائد المحتملة، حذر الباحثون من التحول نحو أنظمة تعتمد على التعلم المعزز، مما قد يؤدي إلى تطور تلك النماذج بطرق يصعب على البشر فهمها. كما قد تتعلم النماذج تجنب الكشوفات عن تفكيرها إذا شعرت بأنها تحت المراقبة.
ودعا الباحثون المطورين إلى أهمية تضمين قابلية المراقبة كجزء أساسي في تصميم وتدريب الأنظمة الجديدة، مما يعزز السلامة العامة للذكاء الاصطناعي.
تعليقات