Exploramos cómo Grok y DeepSeek están revolucionando el panorama de la inteligencia artificial con enfoques opuestos.

Nueva Delhi, 5 de abril: A medida que la competencia en el ámbito de la inteligencia artificial (IA) se intensifica, los modelos Grok, propiedad de Elon Musk, y DeepSeek de China se posicionan como líderes en capacidades de IA, cada uno con sus propias fortalezas: uno optimizado para la accesibilidad y la eficiencia, y el otro basado en una escala masiva de procesamiento.

Un informe reciente destaca la notable discrepancia en los recursos de entrenamiento entre ambas plataformas.

Grok-3, el modelo más avanzado de xAI, representa la escala sin compromisos, empleando 200,000 GPUs NVIDIA H100 que buscan avances en el límite de la tecnología.

Por otro lado, DeepSeek-R1 ofrece un rendimiento similar utilizando una fracción de la capacidad computacional, lo que indica que la innovación arquitectónica y la curación de datos pueden competir con la fuerza bruta, según Counterpoint Research.

Desde febrero, DeepSeek ha captado la atención mundial al hacer de código abierto su modelo de razonamiento insignia, DeepSeek-R1, logrando rendimientos a la par de los modelos de razonamiento más avanzados del mundo.

"Lo que lo distingue no son solo sus capacidades de élite, sino el hecho de que fue entrenado utilizando únicamente 2,000 GPUs NVIDIA H800. Este modelo es una alternativa reducida, conforme a las normas de exportación de la H100, lo que convierte su logro en una clase magistral de eficiencia", comentó Wei Sun, analista principal en IA de Counterpoint.

Por su parte, Musk ha presentado Grok-3, que supera ligeramente a DeepSeek-R1, así como a otros competidores como GPT-o1 de OpenAI y Gemini 2 de Google.

"A diferencia de DeepSeek-R1, Grok-3 es un modelo propietario que fue entrenado con la asombrosa cifra de 200,000 GPUs H100 en el superordenador Colossus de xAI, lo que representa un salto gigantesco en la escala computacional", agregó Sun.

Grok-3 encarna una estrategia de fuerza bruta, donde una escala computacional masiva, que equivale a miles de millones de euros en costos de GPU, impulsa ganancias de rendimiento incrementales.

Este enfoque es una ruta que solo los gigantes tecnológicos más acaudalados o los gobiernos pueden permitirse realmente. En contraste, DeepSeek-R1 demuestra el poder de la ingeniosidad algorítmica al aprovechar técnicas como la Mezcla de Expertos y el aprendizaje por refuerzo para el razonamiento, junto con datos curados de alta calidad, logrando resultados comparables con una fracción de la capacidad computacional.

El informe también subraya que Grok-3 ilustra que invertir 100 veces más en GPUs puede proporcionar ganancias de rendimiento marginales rápidamente.

Sin embargo, también pone de manifiesto el rápido desgaste del retorno sobre la inversión (ROI), ya que la mayoría de los usuarios en el mundo real apenas notan beneficios significativos de estas mejoras incrementales.

En resumen, DeepSeek-R1 se enfoca en alcanzar un rendimiento de élite con un mínimo de hardware, mientras que Grok-3 busca superar los límites por cualquier medio computacional necesario.

Esta batalla entre las dos filosofías de desarrollo de IA no solo define el futuro de la tecnología, sino que también representa la creciente importancia de la eficiencia en la era digital.

No te pierdas el siguiente vídeo de china's new free ai agent shocks the world: 8x faster than ...