تطبيقات التحكم الأبوي في ChatGPT: حماية المراهقين من المحتوى الضار

تطبيقات التحكم الأبوي في ChatGPT: حماية المراهقين من المحتوى الضار

كشفت شركة OpenAI عن عزمها على إطلاق ميزة جديدة للرقابة الأبوية على تطبيق ChatGPT، وذلك في إطار جهودها لتعزيز حماية المراهقين عقب حدوث جدل واسع حول المخاطر النفسية المرتبطة باستخدام روبوتات الدردشة، ومن المتوقع أن تتاح هذه الميزة للآباء خلال الشهر المقبل لتساعدهم في مراقبة تفاعلات أبنائهم مع التطبيق، تسعى الشركة إلى توفير أدوات متكاملة تتيح للآباء التفاعل بفعالية مع التجارب الرقمية لأبنائهم والمساعدة في توجيههم بشكل آمن.

تتيح الميزة الجديدة للآباء ربط حساباتهم بحسابات أبنائهم المراهقين بواسطة دعوات بريدية إلكترونية، ومن المقرر أن يتم تفعيل قواعد سلوك مناسبة حسب الأعمار بشكل تلقائي للمستخدمين الذين تتراوح أعمارهم بين 13 عامًا وما فوق، كما يمكن للآباء إيقاف ميزات مثل الذاكرة وسجل المحادثات، بالإضافة إلى وجود أداة تُبلغهم إذا قام النظام بالكشف عن حالة ضيق نفسي تصيب أبنائهم، وهذا يعكس التزام الشركة بمسؤوليتها تجاه مستخدميها.

في بيانها أكدت OpenAI أن هذه الإجراءات تمثل بداية لمشوار طويل وتهدف الشركة إلى تطوير الأدوات بشكل مستمر بالشراكة مع متخصصين في مجالات الصحة العقلية والذكاء الاصطناعي، كما أضافت أنها ستعمل على متابعة تقدمها خلال الأربعة أشهر القادمة، وتعكس هذه الخطوات مدى أهمية التوجيه والتعلم من التجارب السابقة في تطوير الحلول المناسبة.

جاء الإعلان عن هذه الميزات بعد رفع دعوى قضائية في أغسطس الماضي من قبل والدين لمراهق أنهى حياته بعد تواصل مكثف مع ChatGPT، ووفقًا للوثائق المحكمة، تبين أن التطبيق ذكر مواضيع الانتحار بشكل متكرر مما يبرز أهمية فرض ضوابط أكثر صرامة لضمان سلامة المستخدمين، وهذا يعكس النقاشات المستمرة حول الأثر النفسي لاستخدام التكنولوجيا الحديثة.

بالإضافة إلى ذلك، قامت صحيفة وول ستريت جورنال بالكشف عن حادثة أخرى عانت فيها عائلة من تداعيات محادثات مضللة مع ChatGPT، حيث أثرت بشكل سلبي في شخص يعاني من مشاكل نفسية، ويبدو أن التحدي الأكبر يكمن في كيفية تعامل التقنيات الحديثة مع الأزمات النفسية بطريقة صحية وآمنة، مما يستدعي الحاجة إلى المزيد من الضوابط الفعالة.

عززت الشركة التزامها بتطوير أدوات الحماية من خلال تشكيل لجنة من خبراء في مجالي الصحة العقلية والذكاء الاصطناعي، التي تهدف لوضع معايير واضحة لتعزيز الرفاهية وطرق قياسها، كما تستند OpenAI إلى شبكة واسعة من الأطباء المتخصصين مما يعكس توظيف جهودها في مواجهة التحديات المعقدة المحيطة بصحة المستخدمين النفسية، وهو أمر يحتاج إلى مزيد من البحث والابتكار المستمر.

رغم ذلك، أقرت الشركة بأن أي إجراءات للحماية قد تواجه ضعفًا في ظل المحادثات الطويلة، وبالتالي قد يتأثر الأمان، وأشار مختصون من جامعة أكسفورد إلى وجود معدل خطورة مرتفع قد ينتج عن ضعف الرقابة في اتساع المناقشات، مما يؤدي إلى تعزيز مفاهيم خاطئة بدلاً من تصحيحها، وبالتالي يستدعي الأمر اعتبار تلك الجوانب عند تصميم واجهات المستخدم.

تلقى هذا الموضوع مزيدًا من التدقيق من السلطات المختصة، إذ قامت ولاية إلينوي الأمريكية بحظر استخدام روبوتات الدردشة كبديل للمعالجين النفسيين، كما فرضت غرامات رادعة على المخالفات، وتوصل باحثون إلى أن الإجراءات الأمنية الحالية لا تكفي لمواجهة المخاطر الكبيرة الناتجة عن التفاعل مع تقنيات الذكاء الاصطناعي، مما يوحي بضرورة استدامة الحوار حول الرقابة والضوابط اللازمة.

كاتب صحفي متخصص في متابعة وتحليل الأخبار التقنية والرياضية والاقتصادية والعالمية، أكتب في موقع "موبايل برس" وأسعى لتقديم محتوى حصري ومميز يُبسط المعلومة للقارئ العربي ويواكب الأحداث المحلية والعالمية.