أفادت شركة OpenAI، المطورة لـChatGPT، بزيادة ملحوظة في استخدام مجموعات صينية لتقنيتها في أنشطة ضارة متعددة. ورغم أن هذه العمليات تميل إلى أن تكون صغيرة النطاق وتستهدف جمهورًا محدودًا، إلا أن التنوع في أساليب هذه المجموعات يثير القلق المتزايد حول تأثيرات الذكاء الاصطناعي التوليدي.
منذ إطلاق ChatGPT في أواخر عام 2022، ظهرت مخاوف متصاعدة تتعلق بإمكانية استغلال تقنيات الذكاء الاصطناعي لإنشاء نصوص وصور قد تستخدم للتشويش أو التضليل. وتتابع OpenAI بشكل مستمر رصد الأنشطة المشبوهة على منصتها، التي تشمل تطوير برمجيات خبيثة وصنع محتوى زائف.
في سياق التحقيقات، حظرت الشركة عددًا من الحسابات التي نشرت محتوى سياسيًا وجيوسياسيًا حساسًا مرتبطًا بالصين، مثل انتقاد ألعاب فيديو تتناول موضوع تايوان، أو نشر مزاعم كاذبة ضد نشطاء من دول أخرى. بالإضافة إلى ذلك، تم اكتشاف محاولات من متسللين مرتبطين بالصين لاستغلال تقنيات الذكاء الاصطناعي في عمليات قرصنة تشمل تعديل النصوص وتطوير أدوات تهدف لاختراق كلمات المرور.
في تطور تقني هام، كشفت شركة Rumi المتخصصة في الذكاء الاصطناعي أن نماذج حديثة من ChatGPT، مثل GPT-3 وGPT-4، باتت تضيف علامات مائية رقمية إلى النصوص المولدة. هذه العلامات، رغم أنها تظهر كمسافات عادية، تحمل شيفرات مميزة تساعد في تتبع أصالة المحتوى، وتظهر فقط في النصوص الطويلة، على عكس النسخ القديمة من النموذج.
تأتي هذه الخطوات ضمن جهود OpenAI لتعزيز أدوات الكشف والتحقق من المحتوى المُنتَج عبر الذكاء الاصطناعي، بما في ذلك تطوير تقنيات العلامات المائية في النصوص والصور، بهدف الحد من سوء الاستخدام وضمان الشفافية والمصداقية في المحتويات الرقمية.