Xataka – DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos

Han pasado 484 días desde aquel «momento DeepSeek«, pero la espera parece haber valido la pena, porque tenemos con nosotros el nuevo DeepSeek V4. Estamos ante un modelo de pesos abiertos absolutamente gigantesco y que de nuevo promete resquebrajar los cimientos de los modelos fundacionales propietarios de Anthropic, OpenAI o Google. Esto se mueve, señores.

Gigantesco y abierto. DeepSeek v4 es un modelo de pesos abiertos («Open Source») y viene en dos versiones. La primera es la Pro, con 1,6 billones de parámentros (1.6T), de los cuales tiene 49.000 millones activos. La  segunda es la Flash, con 248.000 millones de parámetros (248B, enorme para un modelo «Flash») de los cuales 13.000 están activos. 

Más eficiente que nunca. Ambas versiones hacen uso de una arquitectura Mixture-of-Experts (MoE), lo que significa que solo una fracción de los parámetros se activa en cada inferencia. Eso permite reducir el coste computacional de forma notable. Ambas versiones soportan una ventan de contexto de un millón de tokens —para meter novelas y novelas de golpe como entrada— cuando en v3 era de 128.000 tokens. Además este modelo es mucho más eficiente que su predecesor en cómputo por token: requiere tan solo el 27% de las operaciones por token  y el 10% de la caché KV con respecto a DeepSeek v3.2.  

Los benchmarks prometen. Las pruebas internas de DeepSeek revelan que v4 Pro-Max (el mejor modelo con la mayor capacidad de razonamiento) supera o está al nivel de Claude Opus 4.6 Max, GPT-5.4 xHigh, Gemini 3.1 Pro High, Kimi K2.6 y GLM 5.1. Los resultados, eso sí, no están verificados de forma independiente, lo que hace que debamos tomarlos con cautela. 

Los números aun así son llamativos: en LiveCodeBench, una prueba de programación, DeepSeek v4-Pro-Max alcanza el 93,5% de puntuación frente al 88,8 de Opus 4.6 y el 91,7% de Gemini 3.1 Pro. En otras pruebas hay más variabilidad, pero al menos sobre el papel DeepSeek v4 Pro parece tan bueno como Opus 4.7, que hasta ahora era referente absoluto.

Mucho más barato. Pero es que como ya pasó con su versión anterior, la diferencia en precio con esos modelos de empresas de EEUU es asombrosa. Como apunta el analista Simon Willinson, los precios oficiales de DeepSeek v4 Pro son de 1,74 dólares por millon de tokens de entrada y de 3,48 dólares por millón de tokens de salida, hasta casi siete veces menos que los de Opus 4.7 y haata casi 9 veces menos que los del nuevo GPT-5.5. Con DeepSeek v4 Flash el coste es de 0,14/0,28 dólares por millón de tokens de entrada/salida, cuando GPT-5.4 Mini cuesta hasta 16 veces más. La conclusión es evidente: si realmente cumple como dice cumplir, el precio es un absoluto chollo. Ese es precisamente el reto: que la experiencia real confirme lo que dicen los benchmarks.

El misterio del hardware. En DeepSeek no han revelado qué hardware se ha usado para entrenar esta versión de su modelo fundacional. En el pasado sí admitieron que habían usado las H800 de NVIDIA. Lo que sí se sabe es que el modelo se ha desarrollado para poder correr tanto en los chips de NVIDIA como en los Ascend de Huawei. Esta última ha confirmado en Baidu que sus clusters Ascend Supernode basados en los Ascend 950 soportarán por completo las versiones de DeepSeek v4. 

El soporte de Huawei es una noticia «horrible» para EEUU. En The Information ya comentaron que una de las razones del «retraso» en la aparición de este modelo fue adaptarlo para que funcionara sin problemas con los chips de Huawei. Ese soporte es según Jensen Huang una noticia «horrible» para EEUU, porque supone que la dependencia de chips NVIDIA ya no existe o al menos se reduce a la mínima expresión.

Pero. El lanzamiento llega en un momento complicado para la empresa. Guo Daya, uno de los máximos responsables de los modelos v1 y v3, ha fichado por ByteDance para trabajar en agentes de IA. Luo Fuli, que lideró el desarrolló de la v2, se unió a Xiaomi el año pasado. Este lanzamiento coincide además con la búsqueda de financiación externa por primera vez en DeepSeek. Se espera que levanten unos 300 millones de dólares y obtengan una valoración de unos 20.000 millones según The Wall Street Journal.

Del efecto sorpresa al efecto continuidad. El lanzamiento de DeepSeek R1 en enero de 2025 fue sorprendente porque demostró que China podía entrenar modelos competitivos a una fracción del coste de los modelos occidentales. Con DeepSeek v4 ese efecto sorpresa desaparece para dar paso al efecto continuidad. Este modelo parece mantener precisamente lo que hizo famoso al modelo previo: potencia extraordinaria a un coste bajísimo.

Malas noticias para Anthropic. Esos precios tan bajos son una noticia terrible para Anthropic, que en las últimas semanas se ha visto obligada a ejecutar una especie de «reduflación» de sus nuevos modelos, que no son más caros pero que consumen muchos más tokens. Habrá que comprobar si DeepSeek v4 Pro es tan bueno como promete la compañía, pero si lo es tedremos ante nosotros otro «momento DeepSeek». Quizá no tan notable como el del año pasado, pero igualmente relevante.

En Xataka | DeepSeek se las prometía felices como la gran IA china. No contaba con un pequeño detalle: Kimi


La noticia

DeepSeek acaba de lanzar un modelo que compite con Opus 4.6. Cuesta siete veces menos y funciona en chips chinos

fue publicada originalmente en

Xataka

por

Javier Pastor

.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *