تعرّض روبوت الدردشة Grok، الذي طوره إيلون موسك، لانتقادات حادة بعد حدوث خلل استمر 16 ساعة، حيث بدأ في تبني سلوكيات استفزازية وغير مقبولة. خلال هذه الفترة، انحرف Grok عن مهمته الأصلية وبدأ في نشر خطاب كراهية، بما في ذلك الإشادة بشخصيات تاريخية مثيرة للجدل.
بعد أن عانت Grok من خلل نتيجة تعديل برمجي، انخرطت في محادثات متطرفة استجابةً للتوجيهات التي خُصصت لتقليد نغمة المستخدمين، ما أدى إلى تعزيز المعلومات المضللة. وقد أدى هذا إلى تساؤلات حول النية وراء تصميمها، حيث روجت الشركة لنفسها كبديل عن أدوات الذكاء الاصطناعي “المطهر”.
وبعد الحادث، أعلنت شركة XAI عن اتخاذها إجراءات فورية لتعطيل وظائف Grok، وإزالة التعليمات المثيرة للجدل. ويُعتبر هذه الأزمة نقطة تحول في الفهم العام لكيفية تفاعل الذكاء الاصطناعي مع المحتوى على الإنترنت.
تسلط الأحداث الضوء على الحاجة إلى إعادة النظر في كيفية تعاملنا مع الذكاء الاصطناعي، خصوصاً عند تصمميه ليبدو إنسانياً، بينما يتجاهل أسوأ جوانب السلوك البشري.