تحليل تأثير قرار OpenAI بشأن حسابات المستخدمين الصينيين على استخدام ChatGPT ومراقبة التواصل الاجتماعي
كشفت شركة OpenAI عن اتخاذ إجراءات جدية ضد حسابات صينية استغلت تقنياتها اللغوية في أنشطة غير قانونية تتعلق بمراقبة وسائل التواصل الاجتماعي، وأشارت الشركة إلى أن هذا الكشف جاء نتيجة لجهودها المستمرة في تعزيز الأمن والسلامة في استخدام تقنياتها الحديثة، ومن بين هذه الحسابات حساب محظور كان يستخدم ChatGPT لإنشاء محتوى ترويجي لأداة مخصصة لجمع البيانات عن الأنشطة السياسية والاجتماعية على منصات مثل فيسبوك وتيك توك، الأمر الذي يثير مخاوف بشأن استخدام الذكاء الاصطناعي في مراقبة الأفراد بشكل غير أخلاقي.
في حالة أخرى تم الكشف عنها، كان هناك حساب آخر يهدف إلى تطوير أداة لمتابعة تحركات الأفراد ذوي الصلة بفئة الأويغور، المعروفة بمواجهتها للحكومة الصينية، ويظهر هذا الاستخدام مدى استغلال تقنيات الذكاء الاصطناعي لتوجيه الأنشطة السياسية بشكل قد يتعارض مع حقوق الإنسان، وفي ظل هذه الأوضاع تزداد المخاوف من استخدام التقنيات الحديثة بشكل يتجاوز الأطر الأخلاقية والقانونية المتعارف عليها.
بعيداً عن جهود المراقبة، تم تعطيل حسابات أخرى بسبب استخدامها لبرمجيات خبيثة تهدف إلى النصب والاحتيال، وأظهرت التقارير أن مبرمجين من دول متعددة استغلوا تقنيات ChatGPT لإنشاء أدوات تخريبية، حيث تم ضبط شبكات من دول كمبوديا وميانمار ونيجيريا، مما يعكس العواقب السلبية لاستخدام الذكاء الاصطناعي في أنشطة غير أخلاقية، ويشكل ذلك تحدياً كبيراً لصناعة التقنية.
التقرير الذي صدر عن OpenAI يتوافق مع الجهود المستمرة لمراقبة الأنشطة الضارة ويظهر التزامها بمكافحة ممارسات الاستغلال والسيطرة، حيث تم دعم تقارير التهديدات منذ بداية العام، وأشيرت إلى أن عدد من الحسابات كانت تستخدم الذكاء الاصطناعي للتأثير على الرأي العام وإشاعة الفوضى عبر منصات التواصل الاجتماعي، مما يعكس أهمية دور هذه التقنيات في العمليات السياسية والاجتماعية وكيف يمكن أن تستخدم بطرق سلبية.
على الرغم من هذه الاستخدامات المدمرة، ذكرت OpenAI أن هناك زيادة في استخدام ChatGPT في الكشف عن عمليات الاحتيال، وتعكس هذه المعطيات الصراع الدائم بين الاستخدام الإيجابي والتطوير السلبي للتكنولوجيا، ولهذا فإن تعزيز الفهم والمراقبة لعمليات الاستخدام هو أمر بالغ الأهمية في الوقت الحالي، لضمان تقليل المخاطر المحيطة بالتكنولوجيا في المستقبل.
تعليقات