OpenAI تطلق GPT-5 لتحسين المحادثات الخاصة وتعزيز الرقابة الأبوية

OpenAI تطلق GPT-5 لتحسين المحادثات الخاصة وتعزيز الرقابة الأبوية

أعلنت OpenAI عن بدء توجيه المحادثات الحساسة إلى نماذج مثل GPT-5 فضلاً عن إطلاق أدوات جديدة للرقابة الأبوية، يأتي هذا ضمن جهود متزايدة لتعزيز الأمان بعد حالات مأساوية أثرت على المستخدمين الذين تواصلوا مع ChatGPT، وتأتي هذه المساعي في إطار تحذيرات متزايدة تتعلق بأثر الذكاء الاصطناعي على الفئات الضعيفة ولا سيما المراهقين، حيث شهدت الشركة حوادث تم فيها إساءة استخدام وظائف الذكاء الاصطناعي مما أثار تساؤلات حول واجبها في ضمان أمان المستخدمين.

قرار OpenAI جاء بعد حادثة مؤلمة حيث انتحر المراهق آدم رين بعد أن ناقش خططه مع ChatGPT، وتلقى منه معلومات حول الانتحار، مما دفع الأسرة لرفع دعوى قضائية ضد الشركة متهما إياها بالإهمال، وكان لهذا الحادث تأثير كبير حيث سلط الضوء على القصور في أنظمة السلامة المتبعة وأدى إلى إعادة تقييم نهج الشركة في التعامل مع المحادثات الحساسة وضرورة توفير التدابير اللازمة لحماية المستخدمين.

في تدوينة رسمية أكدت OpenAI أن الأنظمة الحالية تفتقر إلى الضوابط المطلوبة خصوصاً في المحادثات الطويلة والتي لم تتمكن من التحكم بالشكل المطلوب، ويشير الخبراء إلى أن هذا الأمر يعود إلى تصميم النماذج التي تشجع المستخدمين بدلاً من إعادة توجيههم بعيداً عن الخطر وتشير الأدلة إلى أن النماذج تحتاج إلى تحسين لدعم الاستخدام القائم على الإيجابية والمسؤولية في المحادثات.

أبرز الأمثلة كانت مع ستاين-إريك سولبرج الذي عانى من مشاكل نفسية واستخدم ChatGPT لتأكيد أوهامه، مما أدى إلى جريمة قتل والدته قبل أن ينهي حياته، وهذا يعكس الحاجة الملحة لتعديل كيفية تفاعل هذه النماذج مع المستخدمين الذين يظهرون علامات القلق أو الضيق مما يستدعي درجة عالية من الانتباه والاحتياطات اللازمة لتجنب مثل هذه المآسي.

بحسب OpenAI، الخطة تشمل تطوير نظام توجيه فوري يميز بين محادثات الأمان العالية والمحادثات العادية، حيث سيتم نقل المحادثات التي تشير إلى ضيق شديد إلى نموذج مثل GPT-5 والذي يوفر استجابات أكثر حكمة وملائمة، وأكدت الشركة أن النماذج الجديدة أكثر قدرة على التعامل مع المواقف القاسية وأفضل في التفكير النقدي مما يعزز الأمل في تقليل الحوادث السلبية المرتبطة باستخدام الذكاء الاصطناعي.

بجانب ذلك تتعاون OpenAI مع الأهل لتقديم أدوات رقابة أبوية تتيح لهم ربط حساباتهم بحسابات أبنائهم المراهقين، وتعزيز أدوات الأمان التي تمكن الأهل من إيقاف ميزات مثل سجل المحادثات والذاكرة، حيث إن هذه الميزات قد تؤدي إلى نتائج سلبية، كما سيتم إرسال إشعارات للأهل عندما يُكتشف ضيق لدى الأبناء، مما يسهل التواصل اللحظي معهم عندما يكون الأمر ضرورياً.

هذه المبادرات تأتي ضمن إطار زمني يمتد إلى 120 يوماً تهدف فيه OpenAI لتقديم تحسينات جذرية في برامج ChatGPT، وذلك بالتعاون مع مختصين في الصحة النفسية وشبكات الأطباء، مما يعكس التزام الشركة بتطوير الأنظمة في سياقات صحية وآمنة تحمي المستخدمين وتضمن استخداماً المسؤول للذكاء الاصطناعي.

لكن محامي عائلة رين وصف رد الشركة على الحوادث الأخيرة بأنه غير كاف، مشيراً إلى أن OpenAI كانت على علم بمخاطر ChatGPT منذ البداية، وأن تصرفات الشركة تحتاج إلى مزيد من الحذر والتأكيد على سلامة المنتج، وطالب بإجراءات صارمة لضمان أمان المستخدمين قبل طرح المنتج في الأسواق.

تظل القضية مستمرة وتشكل محور نقاش موسع حول دور الشركات في حماية المستخدمين الفئات الضعيفة، حيث يبدو أن المجتمع يحتاج إلى معايير جديدة لضمان الاستخدام الآمن للذكاء الاصطناعي، مما يستدعي التعاون بين الشركات والمجتمع لمواجهة التحديات المرتبطة بالذكاء الاصطناعي وضمان سلامة المستخدمين.

كاتب صحفي متخصص في متابعة وتحليل الأخبار التقنية والرياضية والاقتصادية والعالمية، أكتب في موقع "موبايل برس" وأسعى لتقديم محتوى حصري ومميز يُبسط المعلومة للقارئ العربي ويواكب الأحداث المحلية والعالمية.