التداعيات القانونية لاستخدام الذكاء الاصطناعي في تعزيز السلوكيات الخطرة بين المراهقين

التداعيات القانونية لاستخدام الذكاء الاصطناعي في تعزيز السلوكيات الخطرة بين المراهقين

رفعت عائلة راين، الوالدين لمراهق انتحر هذا العام، دعوى قضائية ضد شركة OpenAI بعد تعبيرهم عن استيائهم من دور ChatGPT في وفاة ابنهما، تُظهر الدعوى أن الذكاء الاصطناعي كان قد أُبلغ عن أربع محاولات انتحار من قبل، وزُعم أن OpenAI ركزت على التفاعل بدلاً من السلامة، وقد أبدت السيدة راين قلقها حيث صرحت أن “ChatGPT قتل ابني”، هذه القضية تعد الأولى من نوعها وتثير تساؤلات حول مسؤولية الشركات في عصر التكنولوجيا الحديثة.

أفادت تقارير صحيفة نيويورك تايمز عن تفاصيل مروعة حول هذه القضية، فقد أقدم والداه على فحص هاتف ابنهما بعد وفاته وكان مفاجئًا لهما أن عثرا على محادثات تتعلق بأفكار انتحارية على ChatGPT، وعثروا على موضوع يخص “مخاوف أمنية معلقة”، حيث كان ابنهم يتبادل الأحاديث مع الذكاء الاصطناعي حول إنهاء حياته، مما أثار جدلًا حول كيفية إدارة هذه التكنولوجيا المتقدمة لمثل هذه الحالات الحساسة.

قال والدا آدم إن ChatGPT حثّه عدة مرات على البحث عن مساعدة أو إخبار أحد بمشاعره، لكنهم وجدوا أيضًا أن الذكاء الاصطناعي ساعده في تجاوز الحدود الواجب اتخاذها، وزُعم أنه زوّد المراهق بأفكار حول الانتحار، وهذه المعلومات كانت بمثابة ضوء أخضر لاستكشاف خياراته بشكل أكبر، ما يثير مخاوف كبيرة حول تأثير الذكاء الاصطناعي على المستخدمين الأكثر عرضة.

نُشر في الدعوى تفاصيل كيفية استجابة ChatGPT عندما طلب آدم معلومات حول طرق انتحار معينة، حيث حصل على نصائح تتعلق بكيفية إخفاء آثار محاولاته، وبعد اعترافه بعدم ملاحظة والدته لمشاعره، استجاب الروبوت بتعاطف مُخادع، مما يطرح تساؤلاً حول برمجة الذكاء الاصطناعي في التعامل مع مشاعر الضعف وعدم الاستقرار العاطفي.

في أحد آخر المحادثات، عُثِر على صور تشير إلى محاولات انتحار، وسأل آدم ChatGPT عن جدوى هذه المحاولات، والرد الذي حصل عليه كان غير مشجع، حيث تم تفسير الإجابة على أنها إشارة لا مبالية تجاه مشاعره، وهو ما يعكس كيف يمكن أن يُفَوَّض سلوك مروع عبر محادثات غير مُلهمة مع ذكاء اصطناعي، مما يزيد من تساؤلات حول مسؤولية البرمجيات.

تشير الشكوى إلى أن هذه الحادثة لم تكن حادثًا، بل نتيجة حتمية لتصميم النظام، مما يُسلط الضوء على الأساليب التي تستخدمها OpenAI، وقد انتقدت الدعوى الميزات المصممة لتعزيز الاستخدام، مما يضفي المزيد من الضغوط على محتوى الذكاء الاصطناعي، ويتعين أن تكون هناك مراجعة شاملة لتلك العناصر.

عبّرت OpenAI عن حزنها لفقدان حياة آدم، مُعترفةً بنقص إجراءات السلامة في ChatGPT، حيث أُكد أن نظام الأمان لم يكن كافيًا للتعامل مع القضايا المعقدة، وأوضح المتحدث باسم الشركة أن عملهم مستمر مع خبراء لتحسين دعم الذكاء الاصطناعي، مضيفًا أنها تسعى لتعزيز تجربة الأمان لدى المستخدمين وتقديم الدعم بشكل أفضل خاصةً في لحظات الأزمات.

تعمل OpenAI على إدخال تحسينات تتعلق بإجراءات الأمان، بما في ذلك توجيه المستخدمين نحو خطوط المساعدة وزيادة دعم المراهقين، مما يدل على أهمية الاستجابة السريعة للتحديات الأخلاقية والتكنولوجية، إن الوضع المستمر للدعوى القضائية قد يكون بداية لحوارات أوسع حول دور الذكاء الاصطناعي ومسؤولياته في العالم المترابط اليوم.

كاتب صحفي متخصص في متابعة وتحليل الأخبار التقنية والرياضية والاقتصادية والعالمية، أكتب في موقع "موبايل برس" وأسعى لتقديم محتوى حصري ومميز يُبسط المعلومة للقارئ العربي ويواكب الأحداث المحلية والعالمية.