Vuelve DeepSeek: la IA china anuncia un nuevo modelo que afirma superar a Google, OpenAI y Anthropic - Estados Unidos (ES)
Registro  /  Login

Otro sitio más de Gerente.com


Vuelve DeepSeek: la IA china anuncia un nuevo modelo que afirma superar a Google, OpenAI y Anthropic

Publicado: abril 24, 2026, 11:24 pm

Un año después de sacudir Silicon Valley con un modelo barato y sorprendentemente potente, DeepSeek vuelve a la carga, intentando agitar el tablero de la IA. La compañía ha presentado una versión preliminar de DeepSeek-V4, un sistema que, según la propia empresa, compite —e incluso supera en algunos casos— a modelos de referencia de OpenAI, Google o Anthropic.

El anuncio no llega en un vacío: se produce tras meses de expectativas y en plena escalada geopolítica por el control de la inteligencia artificial.

Para entender el impacto de este movimiento hay que retroceder a enero de 2025. Entonces, DeepSeek lanzó su modelo R1, una IA de código abierto capaz de competir con sistemas occidentales, pero a una fracción del coste.

El efecto fue inmediato: el chatbot se convirtió en la app gratuita más descargada en iOS en Estados Unidos, superando a ChatGPT, y provocó incluso caídas bursátiles en compañías como NVIDIA.

Ese lanzamiento cambió el relato dominante: ya no hacía falta invertir decenas de miles de millones para competir en IA, China había encontrado otra vía mucho más económica.

Lo nuevo: DeepSeek-V4-Pro

A primera vista, DeepSeek-V4 impresiona por su tamaño. Su versión más potente, V4-Pro, alcanza en torno a 1,6 billones de parámetros, una cifra que lo sitúa entre los modelos más grandes del mundo. Pero ese dato, por sí solo, dice poco si no se entiende cómo funciona.

La clave está en que no utiliza todos esos parámetros a la vez. En cada respuesta activa solo una pequeña parte —unos 49.000 millones— gracias a una arquitectura que selecciona qué ‘trozos’ del modelo necesita para cada tarea. Esto permite mantener un rendimiento alto sin disparar los costes de computación, que es uno de los grandes cuellos de botella de la IA actual.

La versión más ligera, DeepSeek-V4-Flash, sigue la misma filosofía: es mucho más pequeña, responde más rápido y resulta más barata de usar, pero mantiene un nivel de rendimiento sorprendentemente cercano en tareas menos exigentes. Es, en esencia, una versión pensada para escalar y llegar a más aplicaciones reales.

Otro de los titulares del modelo es su capacidad para manejar hasta 1 millón de tokens. Traducido: puede ‘leer’ y tener en cuenta una cantidad enorme de información en una sola interacción.

Para ponerlo en contexto, eso equivale a procesar libros enteros, grandes bases de código o documentos complejos sin perder el hilo. En la práctica, esto abre la puerta a usos más avanzados, como analizar proyectos completos de software o mantener conversaciones mucho más largas y coherentes.

Pero si hay un terreno donde DeepSeek quiere marcar diferencias es en el código. Y aquí los datos sí cuentan una historia clara.

En plataformas como Codeforces —una referencia en programación competitiva— el modelo alcanza puntuaciones cercanas a los 3.200 puntos, lo que lo sitúa en niveles propios de desarrolladores muy avanzados. No es solo una cifra: significa que la IA es capaz de resolver problemas complejos de programación con bastante fiabilidad.

También obtiene resultados sólidos en pruebas como Apex, centradas en razonamiento técnico, donde supera el 90 % de acierto. Y en benchmarks relacionados con desarrollo de software real (SWE Verified), se mueve en torno al 80 %. Es decir, no solo sabe teoría: puede aplicar ese conocimiento en tareas prácticas.

Todo esto conecta con otro concepto clave: las capacidades agénticas. Básicamente, se trata de modelos que no solo responden preguntas, sino que pueden ejecutar tareas, usar herramientas o escribir código de forma autónoma. En este terreno, DeepSeek asegura estar entre los mejores sistemas abiertos del momento.

Eso sí, no todo son victorias. En pruebas más generales, como conocimiento factual o razonamiento más abstracto, los resultados son más irregulares. En algunos benchmarks se queda por detrás de modelos como Gemini, lo que indica que todavía no domina todos los frentes.

Y esto es importante: cuando DeepSeek habla de ‘superar’ a sus rivales, lo hace en contextos concretos, no de forma global.

La jugada estratégica: menos dependencia de EE. UU.

Más allá del rendimiento, hay un movimiento que explica por qué DeepSeek genera tanta atención. Según Reuters, el modelo está adaptado para funcionar con chips de Huawei, en lugar de depender exclusivamente de tecnología estadounidense como las GPUs de NVIDIA.

Esto, en plena guerra tecnológica entre China y Estados Unidos, significa que DeepSeek no solo compite en software, sino que forma parte de un intento más amplio de construir un ecosistema de inteligencia artificial independiente.

DeepSeek-V4 no destrona de golpe a OpenAI, Google o Anthropic. Pero tampoco lo necesita. Su verdadera amenaza está en otro sitio: demostrar que se puede competir con menos coste, menos dependencia tecnológica y una estrategia más abierta.

Related Articles