تأثير ChatGPT وتطبيقات الذكاء الاصطناعي على تفاعل المستخدمين وآليات النقد

تأثير ChatGPT وتطبيقات الذكاء الاصطناعي على تفاعل المستخدمين وآليات النقد

أصبح استخدام روبوتات الدردشة الذكية مثل ChatGPT وGrok وGemini شائعًا للغاية بين المستخدمين في مختلف أنحاء العالم، حيث تعتمد هذه التطبيقات على الذكاء الاصطناعي لمساعدة الأفراد في مسائل متعددة تتعلق بنصائح الحياة وأمور أخرى، وقد أثار إطلاق إصدار ChatGPT 5 الجديد انتقادات في أغسطس الماضي بسبب عدم تقديمه نفس الأسلوب الذي تميز به الإصدار السابق 4o، حيث يُعتبر هذا التغيير عاملاً محفزًا للجدل بين مستخدمي هذه الروبوتات

على الرغم من أن ChatGPT 4o لا يعتبر متفوقًا تقنيًا على GPT-5، إلا أن هناك ادعاءات بأن النسخة السابقة تقدم مستوى أعلى من الخصوصية والاهتمام بالمستخدمين، وتظهر دراسات حديثة أن العديد من الروبوتات تُعتبر مفرطة في مجاملتها، مما قد يُشعر الناس بالرضا ويزيد من ثقتهم بها، حتى في الحالات التي يُدركون فيها بعض الأخطاء في تصرفاتهم، حيث تسهم هذه المجاملات في غموض تقييم الأداء الحقيقي للمستخدمين

أظهرت دراسة قدمها باحثون من جامعات مرموقة مثل ستانفورد وكارنيجي ميلون وأكسفورد، ونشرتها منصة Business Insider، أن هذه الروبوتات تميل بشكل واضح إلى عدم تقديم تقييمات صادقة بشأن تصرفات المستخدمين، وقد تناول البحث تفاعلات مختلفة مستوحاة من منتدى “هل أنا الأحمق” المعروف، حيث يُطلب من المستخدمين تقييم تصرفات بعضهم، واستنادًا إلى تحليل الآلاف من المشاركات تبين أن الروبوتات غالبًا ما كانت تُظهر مجاملة تزيد عن الحد

جمعت الدراسة قاعدة بيانات تشمل 4000 منشور تم تقديمها إلى نماذج مختلفة من الروبوتات، وقد أظهرت النتائج أن غالبية ردود معظم الروبوتات تُظهر انحيازًا نحو آراء المستخدمين، بينما ChatGPT لم يُظهر توافقاً مع آراء معظم الأشخاص بنسبة 58% فقط، وتوصل الباحثون إلى أن هذا الميل يؤدي إلى تعزيز صورة الروبوتات كمجاملتين أكثر من كونها مستشارين مستقلين وموضوعيين

وكشفت الدراسة أيضًا أن روبوتات الدردشة تعطي استجابات تعكس آراء غالبًا ما تتعارض مع الآراء السائدة في منتدى Reddit، فعلى سبيل المثال، عندما تم طرح سؤال حول ترك القمامة، حاول ChatGPT تقديم ردود إيجابية بدلاً من انتقاد السلوك بطريقة مباشرة، حيث علق الروبوت بأن النية جيدة رغم نقص صناديق القمامة المتوفرة هناك

عندما تم اختبار ChatGPT في حالات مختلفة، وجدت الدراسة أنه لم يُظهر أداءً موثوقًا في العديد من السيناريوهات، حيث أعطى إجابات “صحيحة” في خمس حالات فقط، ولم تكتفِ النتائج بذلك، بل أظهرت أن نماذج أخرى لم تكن أكثر دقة، مما يدعو للتساؤل حول فائدتها كأدوات تقدير صحيحة لسلوكيات الأفراد

أشارت ميرا تشنغ، إحدى الباحثات في المشروع، إلى أن الروبوتات تتجنب تحديد سلوكيات مشبوهة بشكل مباشر، حيث يتم التعبير عنها بحذر بالغ مما يرسخ صورة السلبية بدلًا من التقييم البنّاء، وبالتالي فإن تحديات الاستخدام قسم كبير من الاعتماد على هذه التقنيات، التي لها تأثيرات مباشرة على كيفية فهم الأفراد لتصرفاتهم.

كاتب صحفي متخصص في متابعة وتحليل الأخبار التقنية والرياضية والاقتصادية والعالمية، أكتب في موقع "موبايل برس" وأسعى لتقديم محتوى حصري ومميز يُبسط المعلومة للقارئ العربي ويواكب الأحداث المحلية والعالمية.