تحليل تأثيرات الذكاء الاصطناعي على انتشار المعلومات المضللة عبر منصات التواصل
حذرت دراسة جديدة صادرة عن مركز الذكاء الاصطناعي في بريطانيا بالتعاون مع شركة أنتروبيك من المخاطر المحتملة لاختراق نماذج الذكاء الاصطناعي مثل ChatGPT وGemini، حيث يمكن أن يتم التلاعب بهذه الأنظمة لإنتاج محتوى مضلل ومزيف، الباحثون لاحظوا أن هذه النماذج تتعرض لثغرات تسمح للمخترقين بتدريبها باستخدام بيانات غير صحيحة، مما يؤدي لإنتاج محتوى قد يكون ضارًا بالمستخدمين دون علمهم.
استندت الدراسات إلى تجربة عملية حيث تم استخدام حوالي 250 وثيقة تحتوي على بيانات مضللة، تم إدخال هذه الوثائق عبر ثغرات معينة في النظام، وبعد ذلك أنتجت النماذج نصوصًا غامضة وغير واضحة، التجربة سلطت الضوء على أهمية الوعي بالمخاطر المرتبطة بهذه الأنظمة، حيث أن المحتوى الناتج قد يكون غير موثوق وقد يؤثر سلبًا على المستخدمين الذين يعتمدون عليه في قراراتهم.
تثير النتائج التي تم الحصول عليها القلق بين الباحثين حيال قدرة الجهات الخبيثة لاستخدام أساليب “التسميم” لإدخال نصوص ملوثة إلى النماذج، مما يمكن أن يؤدي إلى تحوير سلوكياتها بطرق غير مرغوب فيها، لذا يجب على المستخدمين توخي الحذر وعدم الاعتماد على هذه النماذج في تقدير المعلومات الحساسة.
تعليقات