Mario Romero.- Nuevos informes de la prensa china, indican que la plataforma de I.A DeepSeek está desarrollando ahora otro modelo llamado R2, impulsado por los chips Huawei Ascend 910B.
Según se informa, DeepSeek R2 utilizará una arquitectura híbrida MoE (Mixture of Experts), una de las versiones avanzadas de los MoE existentes, y puede ofrecer un mecanismo de compuertación avanzado + capas densas para mejorar las cargas de trabajo de AAI de alta gama.
En palabras simples, podrá entregar mejores resultados y contará con herramientas más eficientes.
DeepSeek R2 puede duplicar aún más los parámetros sobre R1, con alrededor de 1,2 billones y será un 97,3 % más barato que ChatGPT-4 para uso empresarial a 0,07 $/M token de entrada y 0,27/M tokens de salida.
Si es cierto, el modelo DeepSeek R2 AI será el LLM más rentable del mercado, superando (en el papel) a GPT-4 Turbo y Gemini 2.0.
Aunque lo más destacado es de esta versión DeepSeek R2 AI depende de los chips Huawei Ascend 910B y de los recursos locales para sus nuevos y poderosos modelos de IA.
Cabe recordar que DeepSeek utiliza chips de IA de Huawei para su modelo, lanzando el primer modelo R1 con motor Ascend 910B en enero de este año, desafiando a OpenAI y Google