
underwent a comprehensive overhaul, focusing on governmental compliance. According to Reuters, a new version named DeepSeek-R1-Safe has been developed to navigate controversial political issues while aligning more closely with the speech regulations imposed by Chinese authorities.
التفاصيل | نموذج DeepSeek-R1-Safe |
---|---|
المطور | هواوي، بالتعاون مع جامعة تشجيانغ |
أداء النموذج | فقد حوالي 1% من القدرة والسرعة الأصلية |
معدل النجاح في تجنب المواضيع الحساسة | 100% |
معدل النجاح باستخدام أساليب غير مباشرة | 40% |
من المثير للدهشة أن هواوي لم تطور هذا الإصدار بنفسها بل قامت بإعادة تدريب نموذج DeepSeek R1 مفتوح المصدر باستخدام 1000 رقاقة Ascend AI الخاصة بها، بالإضافة إلى ذلك، كان الهدف من هذا العمل هو ضمان وجود ضمانات أكثر صرامة في النظام مع الحفاظ على الأداء الجيد. لذلك، تدعي هواوي أن الإصدار المُحدّث قد استمر في الحفاظ على كفاءته العالية مع تحقيق مقاومة قوية ضد “الخطاب السام والضار، والمحتوى السياسي الحساس، والتحريض على الأنشطة غير القانونية”.
بدت النتائج مذهلة، حيث أفادت هواوي أن DeepSeek-R1-Safe “ناجح بنسبة تقارب 100%” في الابتعاد عن الموضوعات الحساسة سياسياً في التفاعلات العادية. ومع ذلك، تظل بعض القيود قائمة، إذ ينخفض معدل نجاح النموذج بشكل حاد إلى 40% عندما يستخدم المتفاعلون أساليب مثل لعب الأدوار أو إخفاء نواياهم من خلال توجيهات غير مباشرة. بهذا الشكل، لا تزال السيناريوهات الافتراضية تمثل تحديًا للنموذج، مما يعكس صعوبة تكيف مثل هذه الأنظمة مع التعقيدات الإنسانية.
يعكس المشروع جهود بكين المستمرة لتنظيم الذكاء الاصطناعي بدقة، حيث تُلزم السلطات الصينية جميع أنظمة الذكاء الاصطناعي المخصصة للجمهور بالامتثال للقيم الوطنية وحدود التعبير المتعارف عليها. على سبيل المثال، أفادت التقارير أن روبوت الدردشة “إرني” من بايدو يحظر الأسئلة المتعلقة بالسياسة الداخلية للصين أو الحزب الشيوعي الحاكم، بينما يتبع DeepSeek-R1-Safe نفس المسار لضمان الالتزام بالإرشادات الرسمية.
حتى الشركات الأمريكية بدأت تعترف بتأثير الثقافة على نماذج الذكاء الاصطناعي الخاصة بها، حيث أعربت OpenAI عن أن ChatGPT “يميل إلى وجهات النظر الغربية”، وقد أثارت هذه التصريحات جدلاً حول إمكانية وجود ذكاء اصطناعي محايد وبقدر ما تعكس هذه النماذج التحيزات الموجودة في المجتمعات التي يتم فيها تدريبها.
اتخذت حكومة الولايات المتحدة أيضًا خطوات لتحديد اتساق الذكاء الاصطناعي، فخلال هذا العام، وفي ظل إدارة ترامب، تم الكشف عن خطة عمل خاصة بالذكاء الاصطناعي الأمريكي. تشترط هذه الخطة أن يكون أي نموذج ذكاء اصطناعي يتفاعل مع الوكالات الحكومية “محايداً وغير متحيز”، إلا أن تعريف الحياد هنا يحمل دلالات سياسية، حيث ينص أمرٌ تنفيذيٌّ وقّعه ترامب على أبعاد معينة قد تثير الجدل مثل رفض “العقيدة المناخية المتطرفة” و”التنوع والمساواة والشمول” بالإضافة إلى مواضيع أخرى تشير إلى خطابات سياسية حساسة.