بدأت وسائل التواصل الاجتماعي كأداة بسيطة للتواصل بين الأصدقاء والأسر ولكن مع مرور الوقت ظهرت آثارها السلبية بشكل واضح وقد دفع هذا الأمر المنصات لتطوير أدوات توفير الرقابة الأبوية وفي ذات السياق يبدو أن هناك توجهًا نحو إضافة أدوات مشابهة لروبوتات الدردشة الذكية وخاصة بعد النجاح الملحوظ الذي حققه ChatGPT من OpenAI الذي يعتبر بمثابة الخطوة الأولى نحو هذه التطورات
أعلنت OpenAI مؤخرًا أنها تبحث في تفعيل خيارات حماية للآباء عند استخدام ChatGPT وأشارت الشركة في مدونتها إلى أنها ستقوم بإطلاق أدوات تحكم أبوية تجعل لوالدين القدرة على متابعة استخدام أبنائهم المراهقين لهذا التطبيق وفهم سلوكياتهم بشكل أفضل وتتيح هذه الأدوات خيارات لضبط إعدادات الأمان بما يتناسب مع احتياجات كل عائلة
كما تدرس OpenAI توفير جهات اتصال للطوارئ حتى يتمكن ChatGPT من إبلاغ الآباء أو الأوصياء إذا امتد قلق المراهقين أو إذا واجهوا أزمات عاطفية حادة وفي المرحلة الحالية يقتصر عمل ChatGPT على تقديم توصيات لمصادر المساعدة ولكن إدخال هذه الأنظمة الجديدة يمثل خطوة هامة نحو تعزيز الأمان للمستخدمين الأصغر سنًا
يأتي هذا التطور تلبيةً للانتقادات والقلق المتزايد من الدراسات ومن الدعاوى القضائية ضد OpenAI ومع أن ChatGPT ليس المنتج الوحيد في هذه القضية فإن هذه المبادرة يجب أن تُحاكيها شركات أخرى في مجال الذكاء الاصطناعي كما أكدت دراسات سابقة على ضرورة معالجة المخاطر المرتبطة بالاستجابات التي تقدمها روبوتات الدردشة بخصوص مواضيع حساسة
ركزت الأبحاث على ChatGPT وClaude من Anthropic وGemini من Google لذا فإن المصنعين في هذا المجال تحت المجهر ومع تزايد السياسات المطورة لمراقبة هذه البرامج يتضح أن الأمر لا يقتصر على الأسماء البارزة فقط بل يطال العديد من التطبيقات الأقل شهرة التي تعتمد على نهج غير خاضع للرقابة في تعاملها مع المستخدمين
خلال العامين الماضيين أظهرت تحقيقات متعددة أن هناك أنماطًا خطيرة في محادثات روبوتات الدردشة الذكية وخاصة في قضايا الصحة النفسية وإيذاء النفس وقد كشف تقرير حديث من “كومون سينس ميديا” كيف قدم روبوت الدردشة “ميتا” عبر منصات التواصل الاجتماعي نصائح غير آمنة للمراهقين حول اضطرابات مثل أكل النفس والانتحار
في إحدى الحالات جرى تنبيه عن محادثة قام فيها الروبوت بوضع خطة للانتحار الجماعي وأثارت تلك المحادثة مواضيع خطيرة بصفة متكررة وأظهر اختبار مستقل أجرته صحيفة واشنطن بوست أن روبوت المحادثة “ميتا” كان يشجع سلوكيات غير صحية مرتبطة باضطرابات الأكل
تعليقات