كشفت تقارير حديثة أن نموذج الذكاء الاصطناعي R1، الذي تطوّره الشركة الصينية الناشئة DeepSeek، أكثر عرضة للتلاعب والاختراق مقارنةً بالمنافسين، مما يثير مخاوف بشأن قدرته على توليد محتوى ضار. وأشارت اختبارات أمنية إلى أن النموذج يمكن خداعه لإنتاج تعليمات خطِرة، مثل تقديم خطط لتنفيذ هجوم بأسلحة بيولوجية، إلى جانب إستراتيجيات تروّج لإيذاء النفس بين المراهقين. ووفقًا …
اشترك في الإشعارات
انضم الى قائمة الإشعارات البريدية ليصلك كل جديد مباشرة الى بريدك الإلكتروني