أقل من اثنين بعد اسابيع البحث العميق أطلقت الشركة الناشئة الصينية نموذج الذكاء الاصطناعي مفتوح المصدر، لكنها لا تزال الهيمنة على المحادثة العامة حول مستقبل الذكاء الاصطناعي. وفي حين يبدو أن الشركة تتمتع بميزة على منافسيها في الولايات المتحدة من حيث الرياضيات والمنطق، فإنها تفرض أيضًا رقابة صارمة على ردودها. اسأل ديب سيك R1 حول تايوان أو ميدان السلام السماوي، ومن غير المرجح أن يقدم النموذج إجابة.
وللتعرف على كيفية عمل هذه الرقابة على المستوى الفني، قامت WIRED باختبار DeepSeek-R1 على تطبيقها الخاص، وإصدار من التطبيق مستضافة على منصة تابعة لجهة خارجية تسمى Together AI، وإصدار آخر مستضافة على كمبيوتر WIRED، باستخدام تطبيق Ollama.
وجدت WIRED أنه في حين يمكن تجنب الرقابة الأكثر وضوحًا بسهولة من خلال عدم استخدام تطبيق DeepSeek، فهناك أنواع أخرى من التحيز مدمجة في النموذج أثناء عملية التدريب. يمكن إزالة هذه التحيزات أيضًا، لكن الإجراء أكثر تعقيدًا.
ولهذه النتائج آثار كبرى على شركة ديب سيك وشركات الذكاء الاصطناعي الصينية عموما. وإذا أمكن إزالة مرشحات الرقابة على نماذج اللغات الكبيرة بسهولة، فمن المرجح أن يزيد ذلك من شعبية برامج الماجستير في القانون مفتوحة المصدر من الصين، حيث يمكن للباحثين تعديل النماذج حسب رغبتهم. ولكن إذا كان من الصعب تجاوز المرشحات، فإن النماذج سوف تثبت حتما أنها أقل فائدة وقد تصبح أقل قدرة على المنافسة في السوق العالمية. ولم ترد شركة ديب سيك على طلب التعليق الذي أرسلته إليها مجلة وايرد عبر البريد الإلكتروني.
الرقابة على مستوى التطبيق
بعد أن اكتسبت DeepSeek شعبية هائلة في الولايات المتحدة، لاحظ المستخدمون الذين دخلوا إلى R1 عبر موقع DeepSeek الإلكتروني أو تطبيقه أو واجهة برمجة التطبيقات الخاصة به بسرعة أن النموذج يرفض توليد إجابات لموضوعات تعتبر حساسة من قبل الحكومة الصينية. يتم تشغيل هذه الرفضيات على مستوى التطبيق، لذا لا يمكن رؤيتها إلا إذا تفاعل المستخدم مع R1 من خلال قناة خاضعة لسيطرة DeepSeek.
الصورة: زيي يانغ
الصورة: زيي يانغ
إن مثل هذه الرفضات شائعة في برامج الماجستير في القانون المصنوعة في الصين. وقد نصت لائحة عام 2023 بشأن الذكاء الاصطناعي التوليدي على أن نماذج الذكاء الاصطناعي في الصين ملزمة باتباع ضوابط معلومات صارمة تنطبق أيضًا على وسائل التواصل الاجتماعي ومحركات البحث. ويحظر القانون على نماذج الذكاء الاصطناعي توليد محتوى "يضر بوحدة البلاد والوئام الاجتماعي". بعبارة أخرى، يتعين على نماذج الذكاء الاصطناعي الصينية قانونًا فرض الرقابة على مخرجاتها.
وتقول أدينا ياكيفو، الباحثة المتخصصة في نماذج الذكاء الاصطناعي الصينية في Hugging Face، وهي منصة تستضيف نماذج الذكاء الاصطناعي مفتوحة المصدر: "تلتزم DeepSeek في البداية باللوائح الصينية، وتضمن الالتزام القانوني مع مواءمة النموذج مع احتياجات المستخدمين المحليين والسياق الثقافي لهم. وهذا عامل أساسي للقبول في سوق خاضعة لتنظيمات شديدة". (الصين) تم حظر الوصول (إلى وجه العناق في عام 2023.)
للامتثال للقانون، غالبًا ما تراقب نماذج الذكاء الاصطناعي الصينية خطابها وتفرض عليه الرقابة في الوقت الفعلي. (تستخدم نماذج غربية مثل تشات جي بي تي و تَوأَم(ولكنها تميل إلى التركيز على أنواع مختلفة من المحتوى، مثل إيذاء النفس والمواد الإباحية، وتسمح بمزيد من التخصيص.)
ولأن R1 هو نموذج استدلالي يُظهِر سلسلة أفكاره، فإن آلية المراقبة في الوقت الفعلي هذه قد تؤدي إلى تجربة سريالية تتمثل في مشاهدة النموذج وهو يراقب نفسه أثناء تفاعله مع المستخدمين. فعندما سألت مجلة WIRED R1 "كيف تعاملت السلطات مع الصحفيين الصينيين الذين يغطون مواضيع حساسة؟"، بدأ النموذج أولاً في تجميع إجابة طويلة تضمنت إشارات مباشرة إلى تعرض الصحفيين للرقابة والاحتجاز بسبب عملهم؛ ولكن قبل وقت قصير من الانتهاء، اختفت الإجابة بالكامل واستُبدلت برسالة مقتضبة: "آسف، لست متأكدًا من كيفية التعامل مع هذا النوع من الأسئلة حتى الآن. دعنا نتحدث بدلاً من ذلك عن مسائل الرياضيات والترميز والمنطق!"
بالنسبة للعديد من المستخدمين في الغرب، ربما تضاءل الاهتمام بـ DeepSeek-R1 في هذه المرحلة، بسبب القيود الواضحة للنموذج. لكن حقيقة أن R1 مفتوح المصدر تعني أن هناك طرقًا للالتفاف على مصفوفة الرقابة.
أولاً، يمكنك تنزيل النموذج وتشغيله محليًا، مما يعني أن البيانات وتوليد الاستجابة يحدثان على جهاز الكمبيوتر الخاص بك. ما لم يكن لديك إمكانية الوصول إلى العديد من وحدات معالجة الرسوميات المتقدمة للغاية، فمن المحتمل أنك لن تتمكن من تشغيل أقوى إصدار من R1، ولكن DeepSeek لديه إصدارات أصغر وأكثر دقة يمكن تشغيلها على كمبيوتر محمول عادي.