DEV Community

Cover image for Big Tech proyecta capex de IA superior a $350B en 2026
lu1tr0n
lu1tr0n

Posted on • Originally published at elsolitario.org

Big Tech proyecta capex de IA superior a $350B en 2026

El gasto de capital (capex) en infraestructura de IA de los cuatro mayores hiperscalers estadounidenses (Microsoft, Alphabet, Amazon y Meta) superará los $355.000 millones combinados en 2026, según las guías más recientes entregadas a inversores y las proyecciones de los principales bancos de inversión. Es un salto que duplica los niveles de 2024 y triplica los de 2022.

El capex IA 2026 dejó de ser una partida más del presupuesto: hoy es el motor que define quién competirá por los modelos de frontera y quién quedará rezagado. Esta es la radiografía del ciclo de inversión más intenso de la historia del software.

TL;DR

  • Meta proyecta capex de $70-75B en 2026, prácticamente todo asignado a infraestructura de IA y data centers.
  • Alphabet espera invertir $80-90B en 2026, con énfasis en TPUs propios (Trillium/Ironwood) y expansión de Google Cloud.
  • Microsoft sostiene la presión con $95-100B en capex para AI y Azure en su año fiscal 2026.
  • Amazon AWS lidera por volumen: estimación de capex superior a $110B en 2026 según Morgan Stanley y Bernstein.
  • El capex combinado de los cuatro hiperscalers supera $355B anuales, equivalente al PIB anual de Chile.
  • Mercados penalizan el gasto: márgenes operativos se comprimen pese al crecimiento de ingresos cloud.
  • Stargate (OpenAI + Oracle + SoftBank) suma otros $500B en 4 años fuera de los Mag Four.
  • La extensión contable de vida útil (4→6 años) infla EBITDA reportado en miles de millones por año.

El capex IA 2026 que define una era

Hasta 2020, la inversión en data centers de los hiperscalers crecía a un ritmo predecible: 15-20% anual, impulsada por la migración corporativa al cloud. Luego llegó ChatGPT, los Transformers escalaron, y la curva se rompió. En 2023 el capex agregado de los Mag Four creció 26%. En 2024, otro 34%. Para 2026, los guidance entregados en las últimas calls de resultados apuntan a un total combinado superior a $355.000 millones, un crecimiento de aproximadamente 22% frente a 2025.

El capex de IA ya no compite contra otras prioridades dentro del presupuesto: es la prioridad. Mark Zuckerberg lo dejó claro en la call de Meta de finales de 2024: la empresa está construyendo agresivamente la infraestructura que va a definir la próxima década. Sundar Pichai dio una versión similar en Alphabet. Satya Nadella en Microsoft. Andy Jassy en Amazon. Es coordinado en el sentido de que ninguno se atreve a quedarse atrás, y descoordinado en el sentido de que cada uno apuesta a su ventaja: TPUs en Google, GPUs Nvidia en Microsoft y Meta, Trainium en Amazon.

Cuánto invierte cada hiperscaler

Las cifras varían según la fuente: lo que las empresas guían oficialmente, lo que los analistas proyectan y lo que finalmente reportan en sus 10-Q. Esta es la mejor estimación consolidada para 2026 (algunas reportan en año calendario, otras en año fiscal):

  • Microsoft: $95-100B en capex para FY26 (julio 2025 - junio 2026), con cerca del 80% asignado a infraestructura cloud e IA según el guidance entregado a inversores.
  • Alphabet: $80-90B en CY26 según las guías más recientes, con énfasis en data centers para Google Cloud, expansión de TPU Trillium e Ironwood, y el negocio Waymo.
  • Amazon: $110-130B en CY26 según proyecciones de Morgan Stanley y Bernstein, principalmente AWS, complementado con la red logística.
  • Meta: $70-75B en CY26 según el guidance oficial, con la totalidad declarada como AI-related por su CFO.

Total combinado: entre $355B y $395B, dependiendo del extremo del rango. Para contexto, el PIB anual de Chile es de aproximadamente $330B. El capex de IA de cuatro empresas estadounidenses iguala o supera el producto interno de una de las economías más grandes de Sudamérica.

Capex 2026 proyectado por hiperscaler: Amazon lidera, Meta cierra la lista.

De dónde viene esta carrera

Para entender por qué el capex IA escaló tan rápido, hay que volver a 2022. Antes de ChatGPT, la inversión en infraestructura de IA era una pequeña fracción del capex total de los hiperscalers: cerca del 10-15%, según las estimaciones más optimistas. La mayor parte iba a infraestructura genérica para cloud, fibra óptica, y data centers de propósito general.

Tras el lanzamiento de ChatGPT en noviembre de 2022, dos cosas pasaron en paralelo. Primero, la demanda de cómputo para entrenar modelos de frontera explotó: cada nueva generación (GPT-4, Claude 3, Gemini 1.5) requería entre 5x y 10x más cómputo que la anterior. Segundo, los CEOs entendieron que perder esta carrera podía significar perder la próxima década entera. La opción de esperar a ver desapareció.

Microsoft, por su deal exclusivo con OpenAI, fue el primer mover. Google, viendo el riesgo existencial sobre Search, aceleró su inversión interna en Gemini y TPUs. Amazon, con AWS bajo presión de Azure, anunció Trainium y un compromiso multimillonario con Anthropic. Meta, después de quemar más de $40B en metaverso sin resultados claros, pivotó toda su tesis de capex hacia IA con Llama y modelos open-weight como caballo de batalla.

El resultado: una carrera de cuatro frentes donde el ganador no se conoce, pero los perdedores se vislumbran. Las tecnológicas que no invierten al ritmo de Big Tech (Apple, en particular, con un capex relativamente conservador) están siendo cuestionadas por inversores. Las startups que dependen del ecosistema están atadas a la voluntad de los gigantes.

Anatomía del gasto: dónde van los dólares

El capex de IA no es una sola partida. Se distribuye principalmente en cuatro categorías:

  • Aceleradores (GPUs/TPUs): 50-60% del total. Nvidia H100, H200, Blackwell B200, GB200, y la próxima Blackwell Ultra y Rubin. Cada GPU H100 cuesta entre $25.000 y $40.000 dependiendo del volumen y la generación.
  • Construcción de data centers: 20-25%. Edificios, refrigeración (cada vez más líquida), redundancia eléctrica, fibra óptica interna.
  • Energía y refrigeración: 10-15%. El consumo eléctrico de un cluster moderno supera los 100MW, requiriendo contratos directos con generadoras (incluido el deal de Microsoft con la nuclear Three Mile Island).
  • Networking y almacenamiento: 5-10%. InfiniBand, switches NVLink, RDMA, almacenamiento NVMe-oF.

Un detalle técnico que pocos analistas mencionan: la fracción dedicada a aceleradores está bajando relativamente, no porque las GPUs sean más baratas (no lo son), sino porque el costo de la energía y construcción está subiendo aún más rápido. En 2022, un dólar de capex compraba aproximadamente $0.65 de GPU. En 2026, ese mismo dólar compra cerca de $0.55 de GPU.

graph LR
    A["Capex IA 2026: $355B+"] --> B["Aceleradores 55%"]
    A --> C["Data Centers 22%"]
    A --> D["Energia 13%"]
    A --> E["Networking 10%"]
    B --> F["Nvidia GB200/Rubin"]
    B --> G["TPU Trillium/Ironwood"]
    B --> H["Trainium2/Inferentia"]
Enter fullscreen mode Exit fullscreen mode

Cluster de aceleradores: el 55% del capex IA va a hardware especializado.

El truco contable: depreciación extendida

Hay una jugada contable que infla los márgenes reportados de Big Tech y que merece atención. Antes de 2022, Microsoft, Google y Meta depreciaban su hardware de data center asumiendo una vida útil de 4 años. En 2022, Microsoft extendió esa vida útil de 4 a 6 años. Google hizo lo mismo en 2023. Meta extendió de 4 a 5.5 años en 2023.

El efecto es directo sobre las cuentas: si una GPU H100 cuesta $30.000 y se deprecia en 6 años, el cargo anual a P&L es de $5.000. Si se deprecia en 4 años, son $7.500 anuales. Para una empresa con $100B de capex en GPUs, eso son aproximadamente $25.000 millones menos en cargos de depreciación, lo que aumenta el EBITDA reportado en la misma cantidad.

⚠️ Ojo: La extensión de vida útil contable de 4 a 6 años infla los márgenes operativos de Big Tech en miles de millones por año. El riesgo: si Nvidia Blackwell Ultra y Rubin (2026-2027) hacen obsoletas las H100 antes de los 6 años asumidos, los hiperscalers tendrán que reconocer writedowns importantes.

Esto importa porque la economía de la IA reportada hoy depende de que las GPUs compradas en 2023 sigan siendo productivas en 2029. Si Nvidia Rubin (anunciada para finales de 2026) ofrece 5-10x el rendimiento de H100 a costos similares, las H100 podrían no ser competitivas para entrenamiento al precio actual del cómputo. En ese escenario, los hiperscalers tendrían que retirarlas anticipadamente, reconociendo el valor remanente como pérdida contable.

Mercado y márgenes: el costo del entusiasmo

Los mercados están dando señales mixtas. Por un lado, los ingresos cloud de los hiperscalers crecen entre 25% y 35% año sobre año, una aceleración clara frente a 2022-2023. Azure AI services factura más de $13B anuales según Microsoft. Google Cloud reportó $42B en CY24 con margen operativo positivo por primera vez. AWS sigue siendo el motor de Amazon con más de $108B anuales.

Por otro lado, los márgenes operativos se están comprimiendo. Meta reportó margen operativo de 38% en Q4 2024, abajo del 41% de Q4 2023, atribuido directamente al capex. Microsoft mantiene márgenes pero con tensión: el cloud crece, pero la depreciación creciente lo presiona. Alphabet enfrenta el doble desafío del capex y la canibalización de Search por respuestas IA directas.

💭 Clave: El "ROI de la IA" depende de que el cómputo no se commoditice antes de amortizar el capex. Si los modelos open-weight (Llama, Mistral) y la inferencia eficiente (DeepSeek, Groq) bajan el precio del token un 90% en 3 años, los $355B anuales pueden quedar parcialmente varados.

Qué sigue: 2027 y la era Rubin

Tres factores van a definir el ciclo de capex en los próximos 18 meses:

  • Nvidia Rubin (finales 2026): Anunciada en GTC 2024, promete entre 5x y 10x el rendimiento de Blackwell por watt. Si llega a tiempo y a buen precio, fuerza un nuevo ciclo de compra y posible retiro acelerado de generaciones anteriores.
  • Stargate y proyectos extra-Mag Four: El consorcio OpenAI + Oracle + SoftBank ya anunció $500B en 4 años para data centers independientes. Esto fragmenta el mercado y podría presionar márgenes de los hiperscalers tradicionales.
  • Eficiencia algorítmica: Mixture of Experts, sparsity, distilación y inferencia en hardware especializado (Cerebras, Groq, Etched) podrían reducir significativamente el cómputo necesario por unidad de "valor IA" entregado. Eso comprime el mercado total accesible (TAM) de los hiperscalers.

El consenso de analistas para 2027 oscila entre $400B y $480B en capex IA combinado. La banda alta supone que los modelos de frontera siguen escalando linealmente con cómputo. La banda baja asume que la eficiencia algorítmica empieza a tener un impacto material en la demanda agregada.

📌 Nota: Apple es la excepción notable. Su capex anual ronda los $10-12B, mayoritariamente en herramientas de manufactura. Apple Intelligence corre en dispositivo y, para casos cloud, depende de Apple Private Cloud Compute con chips propios. Es una apuesta arquitectónicamente distinta a la de Microsoft, Google y Amazon.

📖 Resumen en Telegram: Ver resumen

Preguntas frecuentes

¿Por qué Big Tech invierte tanto en IA si no se ven retornos claros?

Hay dos lógicas operando. La primera es estratégica: ningún CEO quiere ser quien quede atrás en la transición tecnológica más importante desde el smartphone. La segunda es financiera: aunque los retornos directos del cómputo IA son modestos, la integración en productos existentes (Office Copilot, Google Search, AWS Bedrock) está generando un crecimiento de ingresos que justifica parcialmente el gasto.

¿Es sostenible este nivel de capex?

Probablemente no a perpetuidad, pero sí por al menos 2-3 años más. Los hiperscalers tienen flujos de caja operativos que cubren el capex: Microsoft genera más de $110B en operating cash flow anual, Alphabet supera los $100B, Amazon supera los $115B. La pregunta no es si pueden pagarlo, sino si el ROI eventualmente justifica el gasto sostenido.

¿Qué pasa con las acciones de Big Tech si el capex no produce retornos?

Los múltiplos de valuación se comprimirían. Hoy, las acciones de Big Tech cotizan a múltiplos elevados (Microsoft ~32x P/E forward, Alphabet ~22x, Amazon ~38x) parcialmente apostando a que la IA genera nuevos negocios materiales. Si en 2027 el revenue IA no escala como esperan los inversores, una corrección de 20-30% en valuación sería posible.

¿Cómo afecta esto al resto del ecosistema tech?

Indirectamente. Nvidia es la mayor beneficiaria (su capex se traduce en revenue directo). TSMC, ASML y la cadena de semis se benefician también. Empresas de energía con contratos directos (Vistra, Constellation) ven crecimiento. En contraste, startups que dependan de capital escaso para cómputo (entrenar modelos propios) enfrentan barreras crecientes para competir.

¿Y China?

Los hiperscalers chinos (Alibaba, Tencent, Baidu, ByteDance) invierten también de forma agresiva, pero con limitaciones por las sanciones de exportación a chips Nvidia avanzados. ByteDance estima cerca de $20B para 2026, Alibaba alrededor de $15B. Combinados son menos de la mitad de lo que invierte un solo hiperscaler estadounidense.

¿Hay riesgo de burbuja como en 2000?

La comparación con la burbuja puntocom tiene matices. A diferencia de 2000, las empresas que hoy invierten son rentables, generan flujos de caja masivos y tienen ingresos cloud crecientes que respaldan el gasto. El riesgo no es de quiebras sino de compresión de múltiplos: valuaciones que descansan sobre supuestos de crecimiento IA que tal vez no se cumplan.

Referencias

📱 ¿Te gusta este contenido? Únete a nuestro canal de Telegram @programacion donde publicamos a diario lo más relevante de tecnología, IA y desarrollo. Resúmenes rápidos, contenido fresco todos los días.

Top comments (0)