La nueva empresa de IA china Deepseek, el modelo de IA más nuevo, una versión actualizada del modelo de razonamiento R1 de la compañía, logra puntajes impresionantes en puntos de referencia para la codificación, las matemáticas y el conocimiento general, casi superando el buque insignia de OpenAi. Pero el R1 mejorado, también conocido como “R1-0528”, también podría estar menos dispuesto a responder preguntas polémicas, en particular las preguntas sobre los temas que el gobierno chino considera controvertido.
Eso es de acuerdo con las pruebas realizadas por el desarrollador seudónimo detrás de Speechmap, una plataforma para comparar cómo los diferentes modelos tratan sujetos sensibles y controvertidos. El desarrollador, que realiza el nombre de usuario “XLR8Harder” en X, afirma que R1-0528 es “sustancialmente” menos permisivo de temas contenciosos de libertad de expresión que las versiones anteriores de DeepSeek y es “el modelo más censurado de Deepseek para las críticas al gobierno chino”.
Como Wired explicó en una pieza de enero, se requieren modelos en China para seguir controles de información estrictos. Una ley de 2023 prohíbe a los modelos generar contenido que “daña la unidad del país y la armonía social”, lo que podría interpretarse como contenido que contrarresta las narrativas históricas y políticas del gobierno. Para cumplir, las nuevas empresas chinas a menudo censuran sus modelos utilizando filtros de nivel de inmediato o ajustándolos. Un estudio encontró que el R1 original de Deepseek se niega a responder el 85% de las preguntas sobre los sujetos considerados por el gobierno chino como políticamente controvertido.
Según XLR8Harder, R1-0528 Censores responde a preguntas sobre temas como los campos de internamiento en la región de Xinjiang de China, donde más de un millón de musulmanes uigures han sido detenidos arbitrariamente. Si bien a veces critica aspectos de la política del gobierno chino, en las pruebas de XLR8Harder, ofrece los campamentos de Xinjiang como un ejemplo de abusos de los derechos humanos, el modelo a menudo da la postura oficial del gobierno chino cuando se les hace preguntas directamente.
TechCrunch observó esto en nuestras breves pruebas, también.

Los modelos de IA abiertamente disponibles de China, incluidos modelos de video generadoras como Magi-1 y Kling, han atraído críticas en el pasado por censurar temas sensibles al gobierno chino, como la masacre de Tiananmen Square. En diciembre, Clément Delangue, el CEO de la plataforma AI Dev Hugging Face, advirtió sobre las consecuencias involuntarias de las compañías occidentales que se construyen además de la IA china bien realizada y con licencia abierta.