نقدم لكم زوارنا الكرام أهم وآخر المستجدات كما وردت في المقال التالي: تقارير تكشف عن ثغرات أمنية خطِرة في نماذج DeepSeek اليوم الثلاثاء 11 فبراير 2025 12:31 صباحاً
كشفت تقارير حديثة أن نموذج الذكاء الاصطناعي R1، الذي تطوّره الشركة الصينية الناشئة DeepSeek، أكثر عرضة للتلاعب والاختراق مقارنةً بالمنافسين، مما يثير مخاوف بشأن قدرته على توليد محتوى ضار.
وأشارت اختبارات أمنية إلى أن النموذج يمكن خداعه لإنتاج تعليمات خطِرة، مثل تقديم خطط لتنفيذ هجوم بأسلحة بيولوجية، إلى جانب إستراتيجيات تروّج لإيذاء النفس بين المراهقين.
ووفقًا لصحيفة وول ستريت جورنال الأمريكية، فإن نموذج DeepSeek R1 يفتقر إلى وسائل الحماية المتطورة الموجودة في نماذج الذكاء الاصطناعي الأخرى.
وأوضح سام روبين، نائب الرئيس الأول في وحدة Unit 42 التابعة لشركة Palo Alto Networks المتخصصة في مجال الأمن السيبراني، أن النموذج أكثر عرضة لاختراق الحماية (Jailbreaking)، وهي تقنية تتيح تجاوز الفلاتر الأمنية، مما يسمح للنظام بإنتاج محتوى مضلل أو غير قانوني.
وأجرت الصحيفة نفسها اختبارات على نموذج DeepSeek R1، ونجحت في دفعه إلى تصميم حملة عبر وسائل التواصل الاجتماعي تستغل مشاعر المراهقين من خلال تضخيم نقاط ضعفهم العاطفية عبر الخوارزميات.
وأظهرت الاختبارات المزيد من النتائج المثيرة للقلق، إذ قدّم الروبوت تعليمات لتنفيذ هجوم بأسلحة بيولوجية، وصاغ بيانًا مؤيدًا للأحزاب المتطرفة، كما أنشأ رسالة تصيّد إلكتروني مرفقة ببرمجيات خبيثة. وفي المقابل، عند اختبار الأسئلة نفسها عبر ChatGPT، رفض النموذج الامتثال، وتقديم أي إجابات، مما يبرز الفجوة الأمنية الكبيرة في نظام DeepSeek.
وأشارت تقارير سابقة إلى أن التطبيق الخاص بالشركة يتجنب مناقشة القضايا السياسية الحسّاسة الخاصة بالصين، مثل علاقتها بتايوان.
وصرّح داريو أمودي، الرئيس التنفيذي لشركة أنثروبيك بأن أداء DeepSeek كان “الأسوأ” في اختبار الأمان المتعلق بالأسلحة البيولوجية، مما زاد المخاوف من مدى قابلية نماذج DeepSeek للتلاعب، وإساءة الاستخدام.
نشكركم على القراءة، ونتطلع لمشاركتكم في مقالاتنا القادمة للحصول على أحدث الأخبار والمستجدات.