DEV Community

Cover image for Uber quemó todo su presupuesto de IA 2026 en cuatro meses, y la culpa la tienen sus propios ingenieros
lu1tr0n
lu1tr0n

Posted on • Originally published at elsolitario.org

Uber quemó todo su presupuesto de IA 2026 en cuatro meses, y la culpa la tienen sus propios ingenieros

El 15 de abril de 2026, Praveen Neppalli Naga, Chief Technology Officer de Uber, soltó una frase que no llegó a las portadas pero que vale más que muchos earnings reports recientes: «Estoy de vuelta a la mesa de dibujo, porque el presupuesto que pensé que iba a necesitar ya se voló completo». La cita la recogió la newsletter Applied AI de The Information y desató una cascada de reportajes en Yahoo Finance, aimagazine, Forbes y otros medios especializados.

El subtexto: a apenas cuatro meses de empezado el año, Uber agotó la asignación de IA que tenía proyectada para los doce meses completos de 2026, dentro de un presupuesto anual de R&D de 3 400 millones de dólares. La causa principal, según Naga, no fue una mala estrategia, ni un proveedor caro, ni un experimento que se descontroló. Fue una herramienta que sus propios ingenieros adoptaron de manera masiva y entusiasta: Claude Code, el agente de coding de Anthropic.

Las cifras que destrozaron el presupuesto

Para entender la velocidad del fenómeno, vale la pena ver la curva de adopción interna de Claude Code en Uber, según los números que Naga compartió y replicaron varios outlets:

Mes
% de developers usando Claude Code

Diciembre 2025
32 %

Febrero 2026
63 %

Marzo 2026
84 % (clasificados como «agentic coding users»)

Abril 2026
95 % usa alguna herramienta de IA mensualmente

En tres meses la adopción casi se duplicó. Lo que empezó como un piloto controlado en diciembre se convirtió en infraestructura crítica del flujo de trabajo de ingeniería para abril. Y como el modelo de cobro de Claude Code combina una cuota fija por asiento (~200 USD/mes/dev) con consumo basado en tokens, el gasto real escaló mucho más rápido que el conteo de usuarios.

El análisis de byteiota desglosa los rangos típicos que el mercado enterprise está reportando hoy:

Tipo de uso
Costo mensual por developer

Promedio enterprise
150 – 250 USD

Power users (uso intensivo)
500 – 2 000 USD

Workflows agénticos (Claude Code corriendo tareas largas)
500 – 2 000 USD adicionales en API

Caso reportado de un CPO con Cursor
600 USD/mes (30× el costo anunciado)

Multiplicar 1 000 ingenieros por un base mínimo de 200 USD/mes da 2,4 millones USD anuales solo en seat fees, sin tocar el consumo de tokens. Cuando los developers entran en modo agéntico — donde Claude Code lanza sub-tareas, lee toda la base de código, ejecuta tests, refactoriza módulos enteros — el consumo de tokens se dispara órdenes de magnitud sobre prompt-and-response simple. Multiplicalo por miles de developers haciendo eso todos los días, y el budget se evapora.

Según las cifras agregadas que cita aimagazine, el costo de IA en Uber subió 6× desde 2024.

Lo que devuelve esa inversión

Los ingenieros de Uber no están quemando dinero a cambio de juguetes. La salida medida es contundente:

  • 11 % de los pull requests son abiertos por agentes de IA (no humanos)
  • 65 – 72 % del código generado dentro de IDEs es producido por IA
  • 70 % del código que llega al commit final origina total o parcialmente en herramientas de IA, según briefs.co
  • 11 % de las actualizaciones de backend en producción están escritas por sistemas de IA

Es decir: una de cada nueve actualizaciones que afectan a millones de viajes y entregas alrededor del mundo no la escribió un humano. La pregunta ya no es si la IA reemplaza al programador — ya está sustituyendo una porción concreta y medible del output. La pregunta es si la productividad ganada justifica la factura.

Naga: «no estamos bajando el ritmo, estamos buscando cómo pagarlo»

La respuesta del CTO no fue cortar el gasto. Fue rediseñar la asignación. Naga delineó dos pivots simultáneos:

  • Renegociación con Anthropic. La newsletter Applied AI reporta que Uber está en conversaciones para ajustar términos del contrato enterprise. Anthropic, por su parte, reestructuró su plan enterprise para facturar Claude, Claude Code y la herramienta interna Cowork por separado del seat fee, creando volumen pricing más agresivo para clientes grandes.
  • Apostar todavía más fuerte por «agent engineers». Naga describió en la entrevista una visión donde sistemas de IA no solo asisten al developer humano, sino que manejan el ciclo completo de despliegue: análisis de issue, propuesta de fix, generación de tests, deployment, monitoreo y rollback automático si algo se rompe. Es la promesa de Devin, GitHub Copilot Workspace y Claude Code todas en una, llevada a producción interna en una empresa con miles de servicios.

La paradoja es elegante: la solución a un budget de IA que se agotó es gastar más en IA, pero hacerlo de manera que el output justifique el precio. Si Naga apuesta y gana, en 2027 Uber tendrá menos developers humanos absolutos pero un output total más grande, con la factura de Anthropic creciendo proporcionalmente al output, no al headcount.

Uber no es un caso aislado: la industria entera está rota

Gergely Orosz en su newsletter Pragmatic Engineer ya estaba marcando esta tendencia desde febrero de 2026. CTOs de empresas medianas le reportaban que «$200/mes/dev por Claude Code es imposible de aprobar como gasto recurrente», no porque el ROI sea malo sino porque los presupuestos anuales de IA que se aprobaron en 2025 fueron diseñados para una era de «subsidios» donde Anthropic, OpenAI y otros proveedores quemaban capital de venture para conseguir adopción.

Los datos de Zylo 2026 sobre licenciamiento SaaS empresarial confirman el shift:

  • Las organizaciones gastaron un promedio de 1,2 millones USD en aplicaciones AI-native en 2026
  • Eso es +108 % year-over-year vs 2025
  • Los coding assistants consumen una porción desproporcionada del total por su modelo usage-based

En paralelo, Implicator.ai documentó cómo Anthropic estuvo durante semanas throttleando silenciosamente Claude Code — limitando velocidad sin avisar — antes de reconocer públicamente lo que muchos developers ya sospechaban. La era de tokens infinitos por suscripción mensual fija está terminando en frente nuestro.

Tim Bajarin lo resume en su columna de Forbes del 29 de abril: «AI compute spending is surpassing human labor in enterprise budgets, forcing companies to prove ROI as rising costs change the calculus». La pregunta para CFOs ya no es «¿podemos darles AI a nuestros developers?». Es «¿cuál es el rendimiento marginal del próximo dólar gastado en tokens vs el próximo dólar gastado en contratar?».

Qué se llevan los founders y CTOs de LATAM de este caso

Para una empresa de software en LATAM que está evaluando rolar Claude Code, Cursor, Copilot o cualquier agente de coding, el caso Uber deja varias lecciones operativas concretas:

  • Los modelos seat-based mienten sobre el costo real. Si Anthropic anuncia «200 USD/mes/dev» y tu power user consume 1 800 USD adicionales en tokens API, el costo efectivo por dev es 10×. Calculá el budget asumiendo el peor caso, no el promedio.
  • El pico de adopción es cuando el budget rompe. Mientras solo el 30 % de tu equipo usa la herramienta, el costo está controlado. Cuando llega al 80 %, multiplicá por 3–5 lo que estabas gastando antes, no solo por el ratio de adopción.
  • Negociar volumen es la única defensa real. Uber tiene la masa para sentarse a la mesa con Anthropic. Una empresa de 50 developers no la tiene — pero puede negociar a través de aggregators (OpenRouter, AWS Bedrock con caching, Vercel AI Gateway) que ya consolidaron volumen.
  • Métricas de output, no de adopción. Naga puede defender el gasto porque puede mostrar que 70 % del código committed está tocado por IA. Si tu CTO no puede medir output AI-asistido vs output humano, el ROI no se puede defender.
  • Self-host empieza a tener sentido económico. La existencia misma de Kimi K2.6 — un modelo open weight competitivo en SWE-Bench Pro frente a la frontera cerrada — significa que para cargas de coding repetitivas, hostear localmente puede dejar de ser un ejercicio académico y convertirse en una decisión financiera defendible.

Lo que viene

La historia de Uber + Claude Code es probablemente la primera que sale a la luz porque su CTO la dijo en voz alta. Pero hay decenas de empresas grandes que ya están en la misma situación y todavía no lo dicen. Los próximos 90 días van a ser interesantes:

  • Más renegociaciones de contratos enterprise con Anthropic, OpenAI y Google. Esperá ver pricing custom para cuentas grandes con caps duros y descuentos por volumen.
  • Crecimiento acelerado de proxies y caching layers (LiteLLM, OpenRouter, Vercel AI Gateway) que reducen el costo efectivo del token mediante cache hits.
  • Modelos open weight comiéndose porción del mercado enterprise: Kimi K2.6, DeepSeek, Qwen y compañía van a empezar a aparecer en plantillas de stack de empresas medianas como alternativa hibridada — Claude Code para tareas críticas, modelo abierto para grunt work.
  • El próximo earnings call de Uber (trim 2 2026) va a ser observado de cerca. Si Naga puede mostrar que el R&D de 3,4 mil millones se traduce en reducción real de headcount o aceleración de delivery, va a sentar precedente. Si no, va a ser estudiado como qué no hacer en transformación AI.

Y para el resto de nosotros, una imagen se queda grabada: una de las empresas tecnológicas más grandes del mundo, con todo el músculo financiero que eso implica, descubre que pagar por la productividad de sus propios ingenieros en 2026 es más caro que pagarles a ellos directamente. La era de la IA gratis terminó. Ahora viene la era de pagarla.

Fuentes

Top comments (0)