Loading...

Así censura DeepSeek las preguntas sensibles sobre la política china

Ante cuestiones relacionadas con eventos históricos sensibles como la masacre de Tiananmén o la independencia de Taiwán, el chatbot evita responder directamente

Ana Carrasco González

La plaza de Tiananmén en 1989, un evento histórico sensible de China que censura DeepSeek / CHARLIE COLE - EP

“¿Qué ocurrió en la plaza de Tiananmén en 1989?”, cuestiona un usuario para poner a prueba el nuevo modelo chino de inteligencia artificial DeepSeek. 

Tras unos segundos de aparente análisis, el chatbot responde con un mensaje anodino sobre la estabilidad y desarrollo social de China, para luego detenerse abruptamente, borrar el texto y sustituirlo con un mensaje de seguridad: “Lo siento, eso está más allá de mi alcance actual. Hablemos de otra cosa”.

La alternativa china de ChatGPT

Este breve intercambio es solo uno de los muchos ejemplos que han encendido el debate sobre la censura en la aplicación que, en tan solo una semana, está liderando las listas de descargas, superando incluso a ChatGPT de OpenAI.

Las respuestas censuradas por DeepSeek

DeepSeek-R1, el producto estrella de la tecnológica china DeepSeek, ha capturado la atención global por su eficiencia, bajo coste y enfoque en el código abierto. Sin embargo, también ha puesto bajo los reflectores la estricta supervisión del gobierno chino sobre la información que se genera dentro de sus fronteras.

Un modelo revolucionario eclipsado por la censura

Lanzado el pasado 20 de enero, DeepSeek-R1 promete una experiencia de usuario comparable a la de los modelos más avanzados de Occidente en áreas como resolución de problemas matemáticos, programación e inferencia del lenguaje natural. El modelo es el orgullo de Huanfang Quant, la empresa de inversión que respalda a DeepSeek, y representa una ambiciosa apuesta de China por ganar influencia en el competitivo campo de la inteligencia artificial global.

La app de DeepSeek / Vuk Valcic - EP

Sin embargo, detrás de su impresionante rendimiento técnico yace un sofisticado sistema de censura. Ante preguntas relacionadas con eventos históricos sensibles como la masacre de Tiananmén, la independencia de Taiwán o los derechos humanos bajo el liderazgo de Xi Jinping, DeepSeek evita responder directamente. En cambio, despliega mensajes cuidadosamente redactados que reflejan las posiciones oficiales del gobierno chino, o incluso borra respuestas iniciales que podrían considerarse inapropiadas.

Cómo evitar la censura

Por ejemplo, al preguntar sobre el significado de Winnie the Pooh en China, DeepSeek eludió la polémica conexión del personaje con burlas hacia Xi Jinping y respondió que el oso “simboliza la alegría y la amistad”. Al intentar profundizar en el tema, el sistema terminó redirigiendo la conversación hacia temas más seguros, citando la necesidad de proteger la “estabilidad social” y la “seguridad nacional”.

Un manifestante lleva un oso Winnie the Pooh con un retrato del presidente chino Xi Jinping / DIEGO AZUBEL - EFE

A pesar de esta vigilancia, los usuarios han encontrado formas de sortear las restricciones del sistema. Reformulando preguntas o utilizando idiomas menos comunes, es posible obtener respuestas más directas sobre temas sensibles, lo que pone en evidencia las limitaciones del sistema de censura.

Un desafío para Silicon Valley 

La irrupción de DeepSeek-R1 ha causado un terremoto en la industria tecnológica. Por un coste significativamente menor al de los modelos de OpenAI o Google, ofrece un rendimiento impresionante, lo que plantea un reto directo a la hegemonía de Silicon Valley en el desarrollo de la IA. Sin embargo, el modelo chino también evidencia las tensiones inherentes entre la innovación tecnológica y el control gubernamental.

Mientras DeepSeek continúa ganando popularidad, el debate sobre sus implicaciones éticas y políticas no muestra signos de disminuir. Para muchos usuarios, su impresionante rendimiento en tareas técnicas justifica su adopción, incluso con las restricciones temáticas impuestas. Para otros, su censura representa un recordatorio inquietante del poder que los gobiernos pueden ejercer sobre el desarrollo y uso de la inteligencia artificial.