DeepSeek, el ChatGPT chino, renueva su inteligencia artificial para competir con Gemini y GPT-5

Este modelo de IA se robustece, si bien algunos expertos creen que las estrictas regulaciones sobre contenido en el país podrían limitar su expansión internacional

Un móvil con la app de Deepseek / UNSPLASH
Un móvil con la app de Deepseek / UNSPLASH

En la jungla de la inteligencia artificial (IA), donde hay depredadores y presas, áreas grises y vacíos legales, cada empresa intente mostrarse como la mejor y la más avanzada. La competencia es feroz y, ahora, la china DeepSeek ha presentado sus nuevos modelos de razonamiento avanzado, que, según la compañía, alcanzan un rendimiento comparable al de sistemas estadounidenses como Gemini 3 Pro y GPT-5 pese a las limitaciones del país asiático en el acceso a semiconductores avanzados.

DeepSeek afirma, en un artículo publicado en su cuenta oficial de WeChat -semejante a WhatsApp-, que el modelo bajo la denominación V3.2 "alcanza el nivel de GPT-5" en pruebas públicas de razonamiento, mientras que la variante V3.2-Espéciale estaría "solo ligeramente por debajo de Gemini-3.0-Pro" en estas tareas.

Medallas de oro en competiciones matemáticas

La firma asegura además que Speciale incorpora capacidades de demostración matemática derivadas de su modelo DeepSeek-Math-V2 y que ha logrado "medallas de oro" en competiciones como la Olimpiada Internacional de Matemáticas (IMO) y la Olimpiada Internacional de Informática (IOI).

Una persona prueba el asistente DeepSeek / EDUARDO PARRA - EUROPA PRESS
Una persona prueba el asistente DeepSeek / EDUARDO PARRA - EP

El artículo subraya que V3.2 es el primer modelo de la compañía que integra razonamiento en el uso de herramientas tanto en opción estándar como en modo de pensamiento, lo que permitiría "respuestas más detalladas y precisas" mediante ciclos combinados de análisis y llamadas a funciones externas.

Entrenamiento con instrucciones complejas

DeepSeek sostiene que la mejora deriva de un corpus sintético de entrenamiento para agentes con más de 1.800 entornos y 85.000 instrucciones complejas.

La firma ha puesto el modelo V3.2 a disposición de la comunidad en plataformas como Hugging Face y ModelScope, mientras que la variante Speciale estará disponible solo a través de API "por su mayor consumo de tokens", precisa. Pese a los avances, DeepSeek reconoce que V3.2 "todavía queda por detrás" de sus homólogos estadounidenses en eficiencia de tokens y conocimiento del mundo, y asegura que aspira a cerrar esa brecha.

Texto comprimido

En las últimas semanas, DeepSeek ha ampliado su apuesta por modelos más eficientes con el lanzamiento de DeepSeek-OCR, un sistema multimodal capaz de comprimir texto mediante percepción visual y procesarlo con menos recursos computacionales, disponible en código abierto.

La firma también ha ganado visibilidad internacional después de que su modelo V3.1 liderara un experimento de inversión automatizada frente a sistemas como GPT-5 y Gemini 2.5 Pro, consolidando su presencia en el competitivo ecosistema global de IA. Con todo, algunos expertos creen que las estrictas regulaciones sobre contenido en China podrían limitar la expansión internacional de estos sistemas.