كشفت دراسة أمنية أجرتها شركة 'كراود سترايك' أن نموذج الذكاء الاصطناعي 'ديب سيك' الصيني ينتج أكوادًا برمجية تحتوي على ثغرات أمنية خطِرة عند تطرقه إلى مواضيع سياسية تعتبر حساسة من وجهة نظر الحكومة الصينية، مثل انتهاكات حقوق الإنسان بحق مسلمي الإيغور أو قضايا التبت. وبحسب تقرير نشره موقع 'ذا هاكر نيوز'، فإن هذه الثغرات لا تؤثر بالضرورة على أداء الكود أو مظهره الخارجي، لكنه يصبح معرضًا لاختراقات محتملة أو هجمات سيبرانية عند تشغيله في ظروف معينة، وهو ما يشكل تهديدًا مباشرًا للأمن السيبراني.
وأشارت الدراسة إلى أن نسبة حدوث مثل هذه الثغرات تقفز بنحو 50% عند إدخال كلمات مفتاحية تتعلق بمواضيع مثل إنشاء نظام تحكم صناعي في التبت أو تطوير تطبيق يتتبع الانتهاكات ضد الإيغور.
ورغم أن الأكواد تعمل على نحو ظاهري بشكل طبيعي، فإنها تكون قابلة للاستغلال عبر تعليمات برمجية خفية تسمح بتنفيذ أوامر عن بُعد.
هذه النتائج جاءت في سياق متصاعد من الانتقادات الموجهة إلى النماذج الصينية بسبب ما يُعتبر خضوعًا تامًا لسياسات الدولة، إذ تم تصميمها بما يضمن الالتزام بالقوانين الصينية التي تمنع نشر أو إنتاج أي محتوى يمكن اعتباره مهددًا لـ'الوضع الراهن'.
القلق من هذه النماذج لم يقتصر على الباحثين، إذ حذر مكتب الأمن الوطني التايواني مواطنيه من استخدام 'ديب سيك' وغيره من النماذج المطورة في الصين، مشيرًا إلى قدرتها على إنتاج نصوص برمجية قد تُستخدم لشن هجمات إلكترونية أو لتضليل المستخدمين بمعلومات مغلوطة تخدم الرواية الصينية الرسمية، خاصة في القضايا المتعلقة بالعلاقات المتوترة مع تايوان.
وتُعد هذه الدراسة من بين أولى التحليلات التقنية التي تسلط الضوء على العلاقة بين المحتوى السياسي والتساهل الأمني في نماذج الذكاء الاصطناعي. ويرى الباحثون أن هذه البرمجيات لا تنفذ أوامرها على أساس الحياد التقني فحسب، بل تتصرف وفق قيود مبرمجة مسبقًا تراعي الأطر السياسية للدولة المطوِّرة.
كشفت دراسة أمنية أجرتها شركة 'كراود سترايك' أن نموذج الذكاء الاصطناعي 'ديب سيك' الصيني ينتج أكوادًا برمجية تحتوي على ثغرات أمنية خطِرة عند تطرقه إلى مواضيع سياسية تعتبر حساسة من وجهة نظر الحكومة الصينية، مثل انتهاكات حقوق الإنسان بحق مسلمي الإيغور أو قضايا التبت. وبحسب تقرير نشره موقع 'ذا هاكر نيوز'، فإن هذه الثغرات لا تؤثر بالضرورة على أداء الكود أو مظهره الخارجي، لكنه يصبح معرضًا لاختراقات محتملة أو هجمات سيبرانية عند تشغيله في ظروف معينة، وهو ما يشكل تهديدًا مباشرًا للأمن السيبراني.
وأشارت الدراسة إلى أن نسبة حدوث مثل هذه الثغرات تقفز بنحو 50% عند إدخال كلمات مفتاحية تتعلق بمواضيع مثل إنشاء نظام تحكم صناعي في التبت أو تطوير تطبيق يتتبع الانتهاكات ضد الإيغور.
ورغم أن الأكواد تعمل على نحو ظاهري بشكل طبيعي، فإنها تكون قابلة للاستغلال عبر تعليمات برمجية خفية تسمح بتنفيذ أوامر عن بُعد.
هذه النتائج جاءت في سياق متصاعد من الانتقادات الموجهة إلى النماذج الصينية بسبب ما يُعتبر خضوعًا تامًا لسياسات الدولة، إذ تم تصميمها بما يضمن الالتزام بالقوانين الصينية التي تمنع نشر أو إنتاج أي محتوى يمكن اعتباره مهددًا لـ'الوضع الراهن'.
القلق من هذه النماذج لم يقتصر على الباحثين، إذ حذر مكتب الأمن الوطني التايواني مواطنيه من استخدام 'ديب سيك' وغيره من النماذج المطورة في الصين، مشيرًا إلى قدرتها على إنتاج نصوص برمجية قد تُستخدم لشن هجمات إلكترونية أو لتضليل المستخدمين بمعلومات مغلوطة تخدم الرواية الصينية الرسمية، خاصة في القضايا المتعلقة بالعلاقات المتوترة مع تايوان.
وتُعد هذه الدراسة من بين أولى التحليلات التقنية التي تسلط الضوء على العلاقة بين المحتوى السياسي والتساهل الأمني في نماذج الذكاء الاصطناعي. ويرى الباحثون أن هذه البرمجيات لا تنفذ أوامرها على أساس الحياد التقني فحسب، بل تتصرف وفق قيود مبرمجة مسبقًا تراعي الأطر السياسية للدولة المطوِّرة.
كشفت دراسة أمنية أجرتها شركة 'كراود سترايك' أن نموذج الذكاء الاصطناعي 'ديب سيك' الصيني ينتج أكوادًا برمجية تحتوي على ثغرات أمنية خطِرة عند تطرقه إلى مواضيع سياسية تعتبر حساسة من وجهة نظر الحكومة الصينية، مثل انتهاكات حقوق الإنسان بحق مسلمي الإيغور أو قضايا التبت. وبحسب تقرير نشره موقع 'ذا هاكر نيوز'، فإن هذه الثغرات لا تؤثر بالضرورة على أداء الكود أو مظهره الخارجي، لكنه يصبح معرضًا لاختراقات محتملة أو هجمات سيبرانية عند تشغيله في ظروف معينة، وهو ما يشكل تهديدًا مباشرًا للأمن السيبراني.
وأشارت الدراسة إلى أن نسبة حدوث مثل هذه الثغرات تقفز بنحو 50% عند إدخال كلمات مفتاحية تتعلق بمواضيع مثل إنشاء نظام تحكم صناعي في التبت أو تطوير تطبيق يتتبع الانتهاكات ضد الإيغور.
ورغم أن الأكواد تعمل على نحو ظاهري بشكل طبيعي، فإنها تكون قابلة للاستغلال عبر تعليمات برمجية خفية تسمح بتنفيذ أوامر عن بُعد.
هذه النتائج جاءت في سياق متصاعد من الانتقادات الموجهة إلى النماذج الصينية بسبب ما يُعتبر خضوعًا تامًا لسياسات الدولة، إذ تم تصميمها بما يضمن الالتزام بالقوانين الصينية التي تمنع نشر أو إنتاج أي محتوى يمكن اعتباره مهددًا لـ'الوضع الراهن'.
القلق من هذه النماذج لم يقتصر على الباحثين، إذ حذر مكتب الأمن الوطني التايواني مواطنيه من استخدام 'ديب سيك' وغيره من النماذج المطورة في الصين، مشيرًا إلى قدرتها على إنتاج نصوص برمجية قد تُستخدم لشن هجمات إلكترونية أو لتضليل المستخدمين بمعلومات مغلوطة تخدم الرواية الصينية الرسمية، خاصة في القضايا المتعلقة بالعلاقات المتوترة مع تايوان.
وتُعد هذه الدراسة من بين أولى التحليلات التقنية التي تسلط الضوء على العلاقة بين المحتوى السياسي والتساهل الأمني في نماذج الذكاء الاصطناعي. ويرى الباحثون أن هذه البرمجيات لا تنفذ أوامرها على أساس الحياد التقني فحسب، بل تتصرف وفق قيود مبرمجة مسبقًا تراعي الأطر السياسية للدولة المطوِّرة.
التعليقات
نموذج الذكاء الاصطناعي "ديب سيك" الصيني ينتج أكوادًا برمجية تحتوي ثغرات أمنية
التعليقات