DEV Community

Cover image for Rivales europeos de Nvidia buscan rondas millonarias en 2026
lu1tr0n
lu1tr0n

Posted on • Originally published at elsolitario.org

Rivales europeos de Nvidia buscan rondas millonarias en 2026

Los rivales de Nvidia en Europa están levantando rondas de financiamiento de nueve cifras para construir chips de inteligencia artificial que, aseguran, pueden ser hasta 100 veces más eficientes que los GPUs actuales. La carrera ya no es solo por entrenar modelos cada vez más grandes: el nuevo campo de batalla es la inferencia, el proceso de ejecutar modelos ya entrenados a escala, y ahí Nvidia podría no tener la arquitectura ideal.

Según un reporte publicado por CNBC el 17 de abril de 2026, varias startups europeas están en negociaciones simultáneas con inversionistas para rondas de al menos 100 millones de euros (118 millones de dólares), en un movimiento que podría redibujar el mapa global de semiconductores para IA. Este artículo analiza quiénes son los protagonistas, qué tecnología proponen, cuánto dinero está en juego y por qué este momento es distinto a los intentos anteriores de desafiar al gigante de Santa Clara.

Qué está pasando: la nueva ola europea contra Nvidia

Durante los últimos tres años, Nvidia se convirtió en la empresa más valiosa del mundo gracias a que sus GPUs — diseñadas originalmente para videojuegos — resultaron ser la herramienta perfecta para entrenar modelos de IA generativa. Pero con la explosión del uso de ChatGPT, Claude, Gemini y miles de agentes corporativos, la mayor parte del cómputo ya no está en entrenamiento, sino en inferencia: la ejecución de esos modelos para responder consultas de usuarios finales.

Ese cambio es lo que los rivales de Nvidia están aprovechando. Los ejecutivos de las startups europeas entrevistadas por CNBC argumentan que la arquitectura GPU, aunque brillante para entrenar, es ineficiente cuando se trata de servir miles de millones de consultas por segundo en producción. Aquí los jugadores principales:

  • Euclyd (Países Bajos) — Fundada en 2024 por Bernardo Kastrup, exdirector de ASML. Cuenta con Peter Wennink, ex-CEO de ASML, como asesor e inversionista. Actualmente negocia una ronda de al menos 100 millones de euros.- Fractile (Reino Unido) — Respaldada por el NATO Innovation Fund. Reportedly buscando una ronda de nueve cifras.- Optalysys (Reino Unido) — Planea levantar más de 100 millones de dólares durante 2026.- Arago (Francia) — También reportada en ronda de nueve cifras.- Axelera (Países Bajos) y Olix (Reino Unido) — Ya recibieron más de 200 millones de dólares combinados en lo que va de 2026.

La tesis común: la infraestructura actual de IA no escala al ritmo que demanda el mercado, y hay espacio para una nueva generación de silicio especializado.

Contexto: por qué Europa, y por qué ahora

La herencia de ASML y el ecosistema de talento

No es coincidencia que gran parte de esta ola nazca en los Países Bajos. ASML, con sede en Veldhoven, es la única empresa del mundo que fabrica las máquinas de litografía ultravioleta extrema (EUV) necesarias para producir los chips más avanzados. Ex-ingenieros, directores y ejecutivos de ASML forman hoy un ecosistema de conocimiento profundo en manufactura de semiconductores que pocas regiones pueden igualar.

Euclyd es el caso más claro: su CEO Bernardo Kastrup fue director en ASML, y Peter Wennink — quien lideró ASML durante una década y vio la acción subir más de 1000% — es uno de sus asesores e inversionistas. Tener a alguien con el peso de Wennink detrás envía una señal clara al mercado sobre la seriedad del proyecto.
Europa apuesta a que su herencia en semiconductores le dé ventaja competitiva.

Los vientos de cola geopolíticos

Patrick Schneider-Sikorsky, director del NATO Innovation Fund, lo resumió en declaraciones a CNBC: «Los vientos de cola geopolíticos son obvios — controles de exportación de Estados Unidos, riesgo de concentración alrededor de TSMC y un imperativo genuino de cómputo soberano europeo están empujando capital hacia silicio local».

Tres fuerzas se alinean:

  • Controles de exportación: Estados Unidos ha restringido la venta de los chips más avanzados de Nvidia a China, generando incertidumbre global en cadenas de suministro.- Riesgo de concentración en TSMC: La mayoría del silicio de IA del mundo se fabrica en Taiwán, una zona geopolíticamente tensa. Un incidente allí paralizaría la industria mundial.- Soberanía computacional: Gobiernos europeos, y también latinoamericanos, están despertando al hecho de que depender 100% de infraestructura extranjera para IA es un riesgo estratégico.

💭 Clave: El problema real no es que Nvidia sea «mala» — sus chips son extraordinarios. El problema es la concentración: una sola empresa, fabricando en una sola región geopolíticamente frágil, controla la columna vertebral de la IA global. Diversificar es supervivencia.

Datos y cifras del mercado

Para dimensionar la apuesta, revisemos las cifras clave:

  • Nvidia R&D: más de 18.000 millones de dólares gastados en investigación y desarrollo en su año fiscal cerrado en enero de 2026.- Adquisición Groq: Nvidia compró activos de la startup de inferencia por 20.000 millones de dólares en diciembre de 2025.- Apuestas fotónicas: En marzo de 2026 Nvidia invirtió 4.000 millones de dólares en dos empresas de fotónica.- Euclyd vs Vera Rubin: Euclyd afirma lograr 100x mayor eficiencia energética en inferencia comparado con los chips Vera Rubin de última generación de Nvidia.- Capital ya desplegado en 2026: más de 200 millones de dólares entre Axelera y Olix solamente.- Meta de Euclyd: sistema multi-chiplet listo para producción en 2028, con dos clientes negociados para suministro en 2027 y otros dos para 2028.

Si se concretan todas las rondas mencionadas (Euclyd, Fractile, Optalysys, Arago, más continuaciones en Axelera y Olix), el capital total invertido en rivales europeos de Nvidia durante 2026 podría superar los 1.000 millones de dólares.

La tecnología: arquitecturas nuevas para un problema viejo

Por qué las GPUs no son ideales para inferencia

La arquitectura GPU fue diseñada para procesar en paralelo miles de operaciones matemáticas idénticas — perfecto para renderizar triángulos en un juego, o multiplicar matrices gigantes durante el entrenamiento de una red neuronal. Pero esta arquitectura paga un costo enorme: cada operación requiere mover datos entre la memoria y las unidades de cómputo, y ese movimiento consume más energía que la computación misma.

En inferencia, el patrón de uso es distinto. Modelos ya entrenados responden consultas individuales, una tras otra, con latencias bajas. El cuello de botella ya no es el ancho de banda de cálculo, sino la latencia de memoria y el consumo energético por token generado.

La propuesta de Euclyd: procesar donde están los datos

Euclyd propone una arquitectura donde el procesamiento ocurre en múltiples lugares del chip, no solo en unidades centrales que deben estar constantemente alimentadas por memoria externa. Este enfoque — conocido en la literatura académica como near-memory computing o processing-in-memory — reduce drásticamente el movimiento de datos.
La inferencia premia arquitecturas que minimizan el movimiento de datos.

Fotónica: usar luz en lugar de electricidad

Olix y Optalysys apuestan a una vía aún más radical: procesadores fotónicos. En lugar de mover electrones por circuitos de silicio, usan fotones (luz) para transportar — y en algunos casos procesar — datos. Las ventajas teóricas son enormes: la luz se mueve sin generar calor por resistencia, y puede ejecutar ciertas operaciones matemáticas (como transformadas de Fourier o multiplicaciones matriciales) directamente por interferencia óptica.

Taavet Hinrikus, socio de Plural (firma inversora de Olix), fue tajante con CNBC: «Los chips electrónicos actuales están llegando al límite en términos de cuán pequeños se pueden hacer. El calor que generan se está volviendo un problema mayor. Creemos firmemente que las plataformas fotónicas serán el próximo paradigma».

Visualizando el flujo de inferencia

flowchart LR;
    A[Usuario] --> B[API de modelo];
    B --> C{Tipo de chip};
    C -->|GPU Nvidia| D[Alto consumo energético];
    C -->|Chip especializado| E[Mayor eficiencia];
    D --> F[Respuesta];
    E --> F;
Enter fullscreen mode Exit fullscreen mode

Impacto y análisis: qué significa para LATAM

Para desarrolladores y empresas en Latinoamérica, esta competencia es buena noticia por varias razones:

  • Precios más accesibles: si la inferencia baja 10x-100x en costo energético, los proveedores de la nube podrán ofrecer APIs de IA más baratas, lo que democratiza el acceso.- Menos dependencia de un solo proveedor: hoy casi todo el cómputo de IA depende de Nvidia + TSMC + AWS/Azure/GCP. Más opciones reducen el riesgo sistémico para empresas que construyen sobre IA.- Oportunidad para datacenters regionales: chips más eficientes hacen viable operar datacenters locales (en México, Colombia, Chile, Argentina, etc.) sin necesidad del escalado masivo que hoy exige la infraestructura de Nvidia.- Sobreranía computacional latinoamericana: si Europa puede construir su propio silicio, la conversación sobre qué podría hacer LATAM también empieza a ser seria. Chile, con su energía solar barata, o México, con su proximidad a EE.UU., podrían alojar cómputo de frontera.

💡 Tip: Si desarrollás productos sobre APIs de LLMs, vale la pena diseñar tu código con una capa de abstracción por proveedor. Hoy usás OpenAI o Anthropic, pero en 2-3 años podrías querer cambiar a modelos corriendo en chips europeos o asiáticos optimizados para inferencia.

Ejemplo: abstracción de proveedor en Python

from abc import ABC, abstractmethod

class LLMProvider(ABC):
    @abstractmethod
    def generate(self, prompt: str, **kwargs) -> str:
        pass

class OpenAIProvider(LLMProvider):
    def generate(self, prompt: str, **kwargs) -> str:
        # llamada a OpenAI
        ...

class AnthropicProvider(LLMProvider):
    def generate(self, prompt: str, **kwargs) -> str:
        # llamada a Anthropic
        ...

class EuclydInferenceProvider(LLMProvider):
    def generate(self, prompt: str, **kwargs) -> str:
        # llamada a un futuro endpoint que corra en hardware Euclyd
        ...

def get_provider(name: str) -> LLMProvider:
    providers = {
        "openai": OpenAIProvider(),
        "anthropic": AnthropicProvider(),
        "euclyd": EuclydInferenceProvider(),
    }
    return providers[name]
Enter fullscreen mode Exit fullscreen mode

Windows, macOS y Linux: prepararse con contenedores

Si querés empezar a diseñar tu stack pensando en portabilidad hacia hardware futuro, contenerizar con Docker te deja listo para cualquier backend:

# Windows (PowerShell)
winget install Docker.DockerDesktop

# macOS
brew install --cask docker

# Linux (Ubuntu/Debian)
curl -fsSL https://get.docker.com | sudo sh
sudo usermod -aG docker $USER
Enter fullscreen mode Exit fullscreen mode

Qué sigue: los obstáculos reales

No todo es optimismo. Los rivales de Nvidia enfrentan dificultades estructurales:

  • Timelines largos: pasar del tape-out (diseño finalizado) a deployments en volumen toma años. Nvidia aprovecha ese tiempo para seguir innovando.- Ecosistema de software: CUDA es el estándar de facto. Cualquier alternativa debe ofrecer compatibilidad o herramientas de migración, o fracasará por falta de adopción.- Foundries limitadas: Europa no tiene aún un equivalente a TSMC. Fabricar volúmenes significativos requiere ir a Taiwán o Corea del Sur.- Financiamiento conservador: Fabrizio Del Maffeo, CEO de Axelera, señaló que los gobiernos europeos son «conservadores» al invertir en productos de empresas nuevas, y que Europa no tiene un equivalente a DARPA.

⚠️ Ojo: Varias de estas startups prometen «100x de eficiencia», pero ninguna ha desplegado a escala comercial aún. Euclyd mismo reconoce que sus sistemas no están probados en deployment con partners comerciales. La historia de los semiconductores está llena de promesas grandes que no sobrevivieron al contacto con la producción real.

Nvidia no se queda quieta

Mientras los rivales se organizan, Nvidia acelera. Gastó más de 18.000 millones de dólares en R&D el año pasado, compró activos de Groq por 20.000 millones en diciembre, e invirtió 4.000 millones en dos empresas de fotónica en marzo. Todo indica que Nvidia no pretende ceder el terreno de inferencia sin pelea.

📖 Resumen en Telegram: Ver resumen

Preguntas frecuentes

¿Qué es inferencia en IA y por qué importa tanto ahora?

Inferencia es el proceso de ejecutar un modelo ya entrenado para generar predicciones o respuestas. Con la adopción masiva de ChatGPT, Claude y similares, la inferencia representa la mayor parte del cómputo actual, y cada centavo ahorrado por consulta se traduce en millones a escala global.

¿Realmente los chips europeos pueden ser 100x más eficientes que Nvidia?

Es lo que afirma Euclyd en sus comunicaciones, pero aún no hay pruebas independientes a escala comercial. Los números prometidos por startups en etapa seed suelen reducirse significativamente cuando enfrentan condiciones reales de producción. Conviene esperar benchmarks publicados por terceros.

¿Cuándo podré usar estos chips desde LATAM?

Probablemente no antes de 2028. Euclyd apunta a tener su sistema multi-chiplet listo ese año, y la adopción en hyperscalers (AWS, Azure, GCP) toma tiempo adicional. Para desarrolladores latinoamericanos, lo relevante será cuándo las APIs de OpenAI, Anthropic y otros migren parte de su stack a estos chips.

¿Qué es la fotónica aplicada a procesadores?

Son sistemas de chips que usan luz en lugar de electricidad para transportar datos y, en algunos casos, realizar cómputo. Ofrecen ventajas en velocidad y disipación térmica, pero son más complejos de fabricar y aún están en etapas tempranas comercialmente.

¿Debería una empresa latinoamericana invertir en entrenar equipos en estas tecnologías?

Sí, pero no de forma exclusiva. Mantener competencia sólida en CUDA y el stack Nvidia sigue siendo esencial para los próximos 3-5 años. En paralelo, vale la pena seguir las APIs que estas startups liberen para estar listos cuando sus chips estén disponibles.

¿Este movimiento afecta los precios de acciones de Nvidia?

En el corto plazo poco — Nvidia sigue siendo dominante absoluto. En el largo plazo, cualquier competencia genuina en inferencia podría erosionar márgenes. Los inversionistas seguirán de cerca los benchmarks que publiquen las startups europeas a partir de 2027.

Referencias

📱 ¿Te gusta este contenido? Únete a nuestro canal de Telegram @programacion donde publicamos a diario lo más relevante de tecnología, IA y desarrollo. Resúmenes rápidos, contenido fresco todos los días.

Top comments (0)