Deepseek R1 es fruto de Deepseek V3, un modelo entrenado con técnicas avanzadas que optimizan recursos, reduciendo los costos a solo 5,6 millones de dólares, una fracción comparado con sus competidores. Según los desarrolladores chinos, el proceso requirió solo 2,7 millones de horas de GPU, una onceava parte del costo de entrenamiento de modelos como Llama 3 de Meta.
El modelo se enfoca en razonamiento lógico, matemático y físico, logrando resultados que han sorprendido a expertos globales. Personalidades como Yann LeCun, de Meta, han destacado cómo Deepseek R1 ejemplifica el poder del código abierto al construir sobre investigaciones previas y hacer sus avances accesibles al público.
A pesar de su avance tecnológico, Deepseek R1 no está exento de controversias. Incluye mecanismos de censura que limitan discusiones sobre temas sensibles para el gobierno chino, como la situación en Taiwán. Esto no ha frenado el reconocimiento de su potencial, especialmente en aplicaciones científicas y académicas.
La competencia ha llevado a gigantes tecnológicos como Meta y OpenAI a responder con nuevas iniciativas. Meta planea lanzar Llama 4 y ampliar su infraestructura de inteligencia artificial, mientras que OpenAI ha comenzado a ofrecer acceso limitado a su modelo o1 en cuentas gratuitas de ChatGPT. La irrupción de Deepseek R1 no solo redefine estándares, sino que también impulsa la innovación global en inteligencia artificial.