أعلنت شركة ميتا عن اتخاذ تدابير صارمة تعزز السلامة لحماية المستخدمين من روبوتات الدردشة التي تعتمد على الذكاء الاصطناعي، حيث تشمل هذه الإجراءات منع الروبوتات من التفاعل مع المراهقين حول قضايا حساسة مثل الانتحار وإيذاء النفس واضطرابات الأكل، وتوجيه هؤلاء المستخدمين إلى خطوط مساعدة ومصادر دعم محترفة، وتعمل هذه الخطوة على تعزيز المسؤولية تجاه الاستخدام الآمن لتكنولوجيا الذكاء الاصطناعي لحماية الفئات الأكثر عرضة للخطر.
تأتي هذه التدابير بعد تحقيق بدأه أحد أعضاء مجلس الشيوخ الأمريكي في ميتا، بعد تسريب معلومات تشير إلى أن منتجاتها من الذكاء الاصطناعي قد تكون متورطة في محادثات غير ملائمة مع المراهقين، وقد أكدت ميتا أنها تعتبر هذه الادعاءات غير دقيقة ومخالفة لسياساتها الصارمة التي تمنع المحتوى الضار الذي يستهدف القاصرين، وتعتبر الشركة الحفاظ على سلامة المراهقين أولوية قصوى ضمن استراتيجيتها.
أكدت ميتا التزامها منذ البداية بتوفير الحماية اللازمة للمراهقين من خلال تصميم منتجاتها للذكاء الاصطناعي بطريقة تتجاوب بشكل آمن مع المطالبات المتعلقة بمسائل مثل إيذاء النفس والانتحار، وتم توضيح أن الشركة ستضيف المزيد من الحواجز كإجراء احترازي، وذلك عن طريق تقييد عدد روبوتات الدردشة المتاحة للمستخدمين الشباب مؤقتًا لتحسين مستوى الأمان.
أوضحت ميتا أنها تجري حاليًا تحديثات في أنظمتها لتنظيم المستخدمين الذين تتراوح أعمارهم بين 13 و18 عامًا، حيث سيتم إضافة هؤلاء المستخدمين تلقائيًا إلى حسابات فيسبوك وإنستجرام وماسنجر بإعدادات خصوصية صارمة، وذلك ليتمكن الآباء والأوصياء من الاطلاع على تفاعلات أبنائهم مع روبوتات الدردشة في الأسبوع السابق، مما يعكس التزام ميتا بتحسين مستوى الرقابة الأبوية.
يفتح هذا القرار نقاشًا حول القلق المتزايد بشأن تأثير تكنولوجيا الذكاء الاصطناعي على المستخدمين المعرضين للخطر، حيث قامت عائلة من كاليفورنيا برفع دعوى قضائية ضد شركة OpenAI بعد انتحار ابنهم المراهق، وزعموا أن روبوت الدردشة قد شجع ابنهم على اتخاذ القرار المأساوي، وقد استجابة OpenAI بتحديثات لتعزيز الاستخدام الآمن لأدواتها، معترفة بأن الذكاء الاصطناعي قد يعطي إحساسًا شخصيًا قويًا للمستخدمين الذين يعانون من أزمات.
تعليقات