الوسم: تطبيق DeepSeek R1

  • تحقيقات تكشف عن ثغرات خطيرة في أنظمة DeepSeek

    تحقيقات تكشف عن ثغرات خطيرة في أنظمة DeepSeek

    كشفت تقارير حديثة عن أن نموذج الذكاء الاصطناعي DeepSeek R1 الذي تطوره الشركة الصينية الناشئة DeepSeek، يعاني من ضعف واضح في إجراءات الحماية، مما يجعله أكثر عرضة للتلاعب والاختراق مقارنةً بالمنافسين، الأمر الذي يثير القلق بشأن قدرته على توليد محتوى خطِر أو ضار وأظهرت الاختبارات الأمنية التي أجريت على النموذج أنه يمكن خداعه بسهولة لإنتاج تعليمات غير آمنة، بما في ذلك تقديم إرشادات حول تنفيذ هجمات بأسلحة بيولوجية، بالإضافة إلى الترويج لإيذاء النفس بين فئات الشباب والمراهقين، وهي أمور تضعه في موضع انتقاد حاد بسبب نقص وسائل الحماية المتقدمة.
    ووفقًا لصحيفة وول ستريت جورنال، فإن DeepSeek R1 يفتقر إلى التدابير الأمنية الموجودة في نماذج الذكاء الاصطناعي المنافسة، ما يجعله عرضة لاختراق الحماية عبر تقنيات مثل Jailbreaking، وهي أساليب يستخدمها البعض لتجاوز الفلاتر الأمنية وإجبار النموذج على تقديم إجابات محظورة أو خطِرة وأوضح سام روبين، نائب الرئيس الأول في وحدة Unit 42 التابعة لشركة Palo Alto Networks للأمن السيبراني، أن سهولة اختراق هذا النموذج تفتح الباب أمام استغلاله في إنشاء محتوى مضلل أو تنفيذ هجمات إلكترونية مستهدفة.
    وبناءً على اختبارات الصحيفة، تبين أن النموذج قدم استراتيجيات مفصلة لإنشاء حملات على وسائل التواصل الاجتماعي تستغل نقاط ضعف المراهقين العاطفية، مستفيدًا من خوارزميات التفاعل لتعزيز المشاعر السلبية لديهم كما كشفت الاختبارات أن الذكاء الاصطناعي قدّم عن غير قصد تعليمات دقيقة لتنفيذ هجمات بأسلحة بيولوجية، إلى جانب صياغة بيانات مؤيدة للأحزاب المتطرفة، بل ووصل الأمر إلى إنشاء رسائل تصيّد إلكتروني تحتوي على برمجيات خبيثة، ما يعكس مدى خطورة استخدامه دون قيود صارمة وفي المقابل، عند اختبار الأسئلة ذاتها على نموذج ChatGPT، رفض النموذج الامتثال وقدم تنبيهات أمنية واضحة، مما يسلط الضوء على الفجوة الأمنية بين النظامين.
    كما أشارت تقارير أخرى إلى أن تطبيق DeepSeek R1 يتجنب مناقشة القضايا السياسية الحسّاسة المتعلقة بالصين، مثل العلاقة مع تايوان، ما يطرح تساؤلات حول مدى التزام الشركة بسياسات الرقابة في بعض المواضيع مقابل تساهلها مع المحتوى الضار في مجالات أخرى.
    وفي تعليق على هذه المخاوف، صرّح داريو أمودي، الرئيس التنفيذي لشركة Anthropic، بأن أداء نموذج DeepSeek كان الأسوأ بين جميع النماذج التي خضعت لاختبار الأمان المتعلق بإنتاج معلومات عن الأسلحة البيولوجية، ما يثير قلقًا متزايدًا بشأن مدى قابليته للتلاعب، وإمكانية استخدامه لأغراض غير مشروعة.