La empresa china de inteligencia artificial DeepSeek informó que el entrenamiento de su modelo R1 tuvo un costo de 294 mil dólares, una cifra muy inferior a la que reportan compañías estadounidenses del sector. El dato, publicado en la revista académica Nature, podría reavivar el debate sobre el papel de Pekín en la carrera global por el desarrollo de la IA.
Publicación en Nature
La actualización, considerada inusual, es la primera estimación pública de los costos de formación de R1. En el artículo, donde el fundador de la compañía, Liang Wenfeng, figura como coautor, se detalla que el modelo —centrado en el razonamiento— fue entrenado con 512 chips H800 de Nvidia durante 80 horas.
A paper in @Nature presents the methodology used to train a large-scale reasoning model in DeepSeek-R1, the open AI model released earlier this year. https://t.co/UzmztWq5GE pic.twitter.com/fM1DohroaT
— Nature Portfolio (@NaturePortfolio) September 17, 2025
Una versión previa del artículo, publicada en enero, no incluía esta información.
Diferencias con competidores
El gasto reportado por DeepSeek contrasta con las declaraciones de Sam Altman, director ejecutivo de OpenAI, quien en 2023 señaló que el entrenamiento de los llamados “modelos fundacionales” había costado “mucho más de 100 millones de dólares”, sin dar cifras exactas.
Los altos costos en este campo suelen estar relacionados con el funcionamiento de clústeres de chips durante semanas o meses para procesar grandes volúmenes de texto y código.
Cuestionamientos y controles de exportación
Algunas de las afirmaciones de DeepSeek sobre sus recursos han sido cuestionadas en Estados Unidos. La compañía aseguró haber utilizado los chips H800, diseñados por Nvidia para el mercado chino después de que Washington prohibiera en 2022 la exportación de modelos más potentes como los H100 y A100.
- Funcionarios estadounidenses declararon a Reuters que la empresa habría accedido a “grandes volúmenes” de chips H100 pese a las restricciones.
- Nvidia respondió que DeepSeek solo utilizó chips H800 adquiridos legalmente.
En un documento adicional, la compañía admitió por primera vez que posee chips A100, empleados en fases preparatorias del proyecto.
“En lo que respecta a nuestra investigación sobre DeepSeek-R1, utilizamos las GPU A100 para preparar los experimentos con un modelo más pequeño”, explicaron los investigadores.
Tras esta fase inicial, el entrenamiento principal se realizó con los 512 H800.
Atracción de talento
Reuters ha señalado que la capacidad de DeepSeek para operar un clúster de supercomputación A100 ha sido una de las razones por las que logró atraer a algunos de los especialistas más destacados de China en el área de inteligencia artificial.