La inteligencia artificial generativa china DeepSeek lanzó su modelo R1 el pasado 20 de enero y en estas últimas horas ha liderado las listas de descargas -aunque está habiendo restricciones en el proceso de alta de nuevos usuarios por ciberataques-, revolucionando a los internautas pero también sacudiendo las bolsas de todo el mundo y abriendo las puertas a un posible cambio de las reglas del sector tecnológico.
Las claves: su código abierto, los bajos costes de su desarrollo y su eficiencia.
Así lo señala a EFE Robert Clarisó, profesor de los Estudios de Informática, Multimedia y Telecomunicación de la UOC (Universitat Oberta de Catalunya), quien admite que, por las peculiaridades de este lanzamiento, «ahora todo el mundo de la IA está en estado de schock».
Y es que, relata este experto, desde la empresa DeepSeek se ha conseguido entrenar un modelo de IA generativa muy competitivo, con un coste muy, muy inferior al que se consideraba estándar en el mercado, presentándose, además, como alternativa a ChatGPT o a Gemini (Google).
Según la empresa china, su modelo fue entrenado durante 55 días con un presupuesto de 5,57 millones de dólares (5,33 millones de euros), utilizando procesadores gráficos H800 de Nvidia, una versión de capacidad reducida diseñada para el mercado chino.
Este costo representa menos de una décima parte del gasto en el entrenamiento del modelo GPT4o de OpenAI o una vigésima parte del entrenamiento de o1, también de OpenAI. Esto, en parte, supone un cambio de paradigma porque echa por tierra esa idea de que los avances en IA requieren una cantidad ingente de recursos de cómputo, resume Clarisó.
DeepSeek se ha inspirado en el modelo o1 de OpenAI, que utiliza «chain of thought» o «cadena de pensamiento» para resolver problemas complejos, un enfoque estructurado por el que el chatbot desglosa primero las tareas y luego las ejecuta, similar al pensamiento humano.
Todo esto ha reducido los tiempos de entrenamiento y por tanto su coste. Esto sumado a la posibilidad de descargarlo y usarlo de forma gratuita -R1 puede usarse en la nube de DeepSeek a un precio inferior que sus competidores-, ha posibilitado el boom de DeepSeek-R1.
Su código abierto es otro de sus aspectos fundamentales, cualquier persona puede examinarlo, modificarlo y adaptarlo en función de sus necesidades, incluso para evitar, fuera de China, la censura que los internautas achacan a la aplicación, añade el profesor de la UOC.
DeepSeek está publicado con la licencia MIT, que permite su uso, copia, modificación y venta.
DeepSeek-R1 ha sido entrenada en inglés y chino y su rendimiento se puede comparar con el modelo o1 de OpenAI -con la que la propia empresa hace su comparativa- o Claude, de Anthropic. Todas ellas usan el enfoque de «cadena de pensamiento» por defecto.
En la resolución de problemas matemáticos, programación e inferencia del lenguaje natural los resultados son muy parecidos, así que las diferencias, insiste Clarisó, están en los costes y en estar publicado como código abierto.
El experto de la UOC, quien recuerda a los usuarios que al utilizar la aplicación de DeepSeek dan permiso a la empresa para monitorizar las búsquedas y usarlas en el futuro para entrenar nuevos modelos, opina que su explosión no hubiese sido tanta en otro momento y con otro origen.
Es decir, la coincidencia con la llegada de Donald Trump al Gobierno de Estados Unidos, el anuncio de su proyecto ‘Stargate’ -con 500 millones de dólares para IA- y el hecho de que la aplicación sea china, desafiando la hegemonía estadounidense en este campo, tiene mucho que ver, concluye el experto en informática.
Fuente: Agencia EFE
Descubre más desde Photosniper
Suscríbete y recibe las últimas entradas en tu correo electrónico.
