تعتبر تقنيات الذكاء الاصطناعي من الأدوات الفعالة والمفيدة في العديد من المجالات، ولكنها تحمل مخاطر ما يعرف بالهلوسات، والتي تتمثل في إنتاج معلومات أو اقتباسات غير حقيقية تمامًا، حيث تتنوع هذه المخاطر بين تفسيرات غير دقيقة وعرض تفاصيل خاطئة، مما يستدعي أهمية فهم كيفية تفاعل المستخدمين مع هذه الأنظمة لضمان الحصول على نتائج دقيقة وموثوقة.
بحسب دراسة أجراها فريق من الباحثين في OpenAI، تم تحديد أحد الأسباب الرئيسية وراء هذه الظاهرة في آلية المكافأة التي تدفع الذكاء الاصطناعي لتقدير الإجابات، حيث يواجه الذكاء الاصطناعي تحديات في التعامل مع الأساليب غير المهذبة أو غير الواضحة التي يستخدمها بعض المستخدمين، مما يؤثر سلبًا على دقة النتائج المحصلة، وبالتالي يسلط الضوء على دور المستخدم في تشكيل تجربة الذكاء الاصطناعي.
الدراسة التي جاءت بعنوان “Mind the Gap: Linguistic Divergence and Adaptation Strategies in Human-LLM Assistant vs. Human-Human Interactions”، أظهرت أن جزءًا كبيرًا من حالات هلوسة الذكاء الاصطناعي يمكن أن يُعزَى إلى كيفية تفاعل المستخدمين، حيث أسفرت نتائج البحث عن أن أسلوب الكتابة المستخدم عند مخاطبة الذكاء الاصطناعي يختلف تمامًا عن طرق الكتابة في المحادثات البشرية، مما يؤثر بدوره على دقة استجابة النظام.
من خلال تحليل أكثر من 13 ألف محادثة بين البشر وأكثر من 1,350 تفاعلًا بين المستخدمين وروبوتات المحادثة، توصل الباحثون إلى أن رسائل المستخدمين كانت أقصر وأقل التزامًا بالقواعد، وأقل تهذيبًا، مما يؤدي لضبابية في الفهم عند الرد من قبل أنظمة الذكاء الاصطناعي، والعلاقة بين مستوى اللغة المستخدمة ودقة الردود أصبحت واضحة.
ركزت الدراسة على مجموعة من الأبعاد اللغوية، بما في ذلك القواعد النحوية، واللباقة، وتنوع المفردات، بالإضافة إلى محتوى المعلومات، حيث لاحظ الباحثون أن مستوى القواعد واللباقة كان أعلى بشكل ملحوظ في المحادثات البشرية مقارنة بتلك التي تحدثت إلى الذكاء الاصطناعي، وهذا الفارق في الأسلوب يؤثر بشكل ملحوظ على دقة وفهم الاستجابات من جانب الأنظمة الذكية.
إذًا على الرغم من أن المحتوى المنقول من قبل المستخدمين يبقى قريبًا من المفهوم المقصود، إلا أن أسلوب نقل تلك المعلومات يصبح أكثر جفافًا عند التعامل مع الذكاء الاصطناعي، وهذا ما أطلق عليه الباحثون اسم “تحول الأسلوب”، مما يستدعي الحاجة لتحليل كيفية تأثير هذه التحولات على جودة النتائج المقدمة من قبل النماذج اللغوية مثل ChatGPT وClaude.
شدد الباحثون على أن النماذج تعتمد على لغات منظمة حيث أن أي تغيير مفاجئ في النبرة أو الأسلوب يمكن أن يؤدي إلى سوء الفهم أو اختراع تفاصيل غير صحيحة، مما يزيد من احتمالية الهلوسة خلال التفاعل، فالوضوح في الأسلوب والنبرة مهم جدًا لتفادي تلك المشكلات السلبية التي تؤثر على تجربة المستخدم.
كما اقترح الباحثون عددًا من الحلول من جانب الذكاء الاصطناعي والمستخدمين، حيث يمكن تحسين أداء النماذج من خلال تدريبها على أساليب لغوية متنوعة، مما يعزز فهم النوايا، بينما اقترح اختبار أسلوب يستخدم إعادة صياغة المدخلات بصفة تلقائية لتحسين الشفافية في التواصل، بالرغم من اختصار بعض التفاصيل العاطفية والسياقية، مما يتطلب وعيًا أكبر في الاستخدام من قبل الجميع.
في النهاية، تنصح الدراسة المستخدمين بالتفاعل مع الذكاء الاصطناعي بنفس الطريقة التي يتعاملون بها مع البشر، من خلال كتابة جمل كاملة، واستخدام قواعد صحيحة، والحفاظ على أسلوب واضح ونبرة محترمة، فهذا سيؤدي إلى تحسين جودة الاستجابات وتقليل الأخطاء المحتملة اليوم.
تعليقات