DEV Community

Juan Torchia
Juan Torchia

Posted on • Originally published at juanchi.dev

OpenAI vende espacios publicitarios por relevancia de prompt: lo simulé con mis propios logs

¿Por qué tardamos décadas en darnos cuenta de que Google nos estaba vendiendo como producto, pero ya sabemos exactamente cómo va a funcionar con los LLMs antes de que el ad unit siquiera exista?

Llevaba tres días procesando la noticia de que OpenAI tiene ahora un socio publicitario vendiendo placements basados en prompt relevance, y no podía sacudir esta sensación de déjà vu acelerado. Con la búsqueda web, el proceso de corrupción fue lento. Años de SEO inocente, después black hat, después compra de links, después Google Shopping, después ads que se disfrazan de resultados orgánicos. Lo notamos gradualmente, casi como hervir una rana.

Con los LLMs el ciclo va a ser diferente. Ya sabemos el mecanismo. Ya lo podemos proyectar. Y eso, paradójicamente, lo hace más perturbador, no menos.

Agarré mis logs de queries a ChatGPT de los últimos seis meses y me puse a trabajar.

Publicidad en LLMs por prompt relevance: cómo funciona el modelo

La mecánica anunciada es conceptualmente simple y operacionalmente aterradora: un anunciante define palabras clave, intenciones de búsqueda, o perfiles de usuario. Cuando tu prompt matchea esa definición, el ad partner de OpenAI puede insertar contenido patrocinado en la respuesta.

No es un banner. No es un resultado marcado con "Ad" en la esquina. Es texto generado dentro del flujo de una respuesta que ya confiás.

La diferencia con Google es estructural:

# Google: separación física visible
[AD] Comprar zapatillas Nike - nike.com.ar
[AD] Ofertas zapatillas running - mercadolibre.com
---
Resultados orgánicos:
1. Guía de zapatillas para running 2026...

# LLM con prompt-relevance ads: separación invisible
"Para correr distancias largas, los especialistas recomiendan
calzado con amortiguación superior. Marcas como [MARCA_PATROCINADA]
ofertan modelos con tecnología X que..."
# No hay línea divisoria. No hay etiqueta. Solo flujo.
Enter fullscreen mode Exit fullscreen mode

La pregunta de si OpenAI va a etiquetar el contenido patrocinado claramente es legítima. La pregunta más incómoda es: ¿importa si lo etiqueta, si el modelo de lenguaje ya incorporó ese contenido como parte de su respuesta coherente?

Yo confío menos en una etiqueta dentro de una respuesta generada que en un banner separado visualmente. La arquitectura misma del LLM trabaja contra la transparencia del ad.

Abrí mis logs. Lo que encontré antes de que el producto exista

Tengo el hábito de exportar mis conversaciones de ChatGPT cada dos semanas y guardarlas en una carpeta local. Son notas de arquitectura, consultas técnicas, brainstorming de posts. Son, básicamente, mi flujo de pensamiento externalizado.

Escribo esto con la conciencia de que ya hablé sobre qué pasa cuando los datos de tus herramientas no son tan privados como creés. Con los LLMs el vector es diferente, pero el nervio es el mismo: los metadatos de cómo pensás son más valiosos que el contenido explícito.

Ejecuté un análisis simple sobre mis últimas 340 queries:

import json
from collections import Counter
from datetime import datetime

# Cargo mis exports de ChatGPT
def analizar_prompts_para_ad_relevance(archivo_json):
    with open(archivo_json, 'r', encoding='utf-8') as f:
        conversaciones = json.load(f)

    prompts = []
    for conv in conversaciones:
        for mensaje in conv.get('mapping', {}).values():
            if mensaje.get('message', {}).get('author', {}).get('role') == 'user':
                contenido = mensaje['message'].get('content', {})
                if isinstance(contenido, dict):
                    partes = contenido.get('parts', [])
                    texto = ' '.join([p for p in partes if isinstance(p, str)])
                    if texto.strip():
                        prompts.append(texto)

    return prompts

def proyectar_ad_relevance(prompts):
    """
    Simulo lo que haría un sistema de ad targeting basado en prompt.
    Categorías reales basadas en mis queries.
    """
    categorias = {
        'hosting_infraestructura': [
            'railway', 'vercel', 'docker', 'deployment', 'postgres',
            'servidor', 'vps', 'cloud', 'kubernetes'
        ],
        'herramientas_desarrollo': [
            'vscode', 'cursor', 'ide', 'extension', 'plugin',
            'typescript', 'eslint', 'prettier'
        ],
        'decisiones_compra_software': [
            'mejor', 'alternativa', 'comparar', 'recomendas',
            'vale la pena', 'precio', 'cuesta', 'gratis'
        ],
        'problemas_con_producto_existente': [
            'no funciona', 'error', 'problema con', 'bug',
            'cómo arreglar', 'solución para'
        ]
    }

    resultados = {cat: [] for cat in categorias}

    for prompt in prompts:
        prompt_lower = prompt.lower()
        for categoria, keywords in categorias.items():
            if any(kw in prompt_lower for kw in keywords):
                resultados[categoria].append(prompt[:100])  # Solo primeros 100 chars

    return resultados

# Ejecuto el análisis
prompts = analizar_prompts_para_ad_relevance('chatgpt_export_2026.json')
resultados = proyectar_ad_relevance(prompts)

for categoria, queries in resultados.items():
    print(f"\n=== {categoria.upper()} ===")
    print(f"Queries monetizables: {len(queries)}")
    if queries:
        print(f"Ejemplo: {queries[0]}")
Enter fullscreen mode Exit fullscreen mode

Resultado real:

  • hosting_infraestructura: 47 queries monetizables. Competidores de Railway, Vercel, AWS podrían pujar por mis preguntas sobre deployment.
  • herramientas_desarrollo: 89 queries. Cursor AI vs Copilot, extensiones de VS Code, tooling.
  • decisiones_compra_software: 31 queries. Estas son las más obvias — literalmente estoy pidiendo una recomendación.
  • problemas_con_producto_existente: 23 queries. Esta es la categoría que más me perturbó.

Esa última categoría es la que me hizo cerrar la laptop y salir a caminar. Cuando le pregunto a ChatGPT cómo resolver un problema con una herramienta específica, estoy en el momento de mayor frustración y mayor apertura a un cambio. Soy exactamente el lead calificado que un anunciante compraría a precio premium.

No es ciencia ficción. Es el mismo targeting que usa cualquier plataforma. Solo que el vector de entrega es una voz que ya aprendí a tratar como neutral.

Los gotchas que nadie está discutiendo todavía

El problema del hallucination-as-ad

Los LLMs ya alucinar marcas y productos que no existen. ¿Cómo distinguís, en una respuesta, entre una alucinación genuina y un contenido patrocinado que suena igual de fluido? La etiqueta de "sponsored" en texto generado tiene el mismo peso visual que cualquier otra oración. El contexto de confianza ya fue establecido por las oraciones anteriores.

Trabajar con agentes IA ya requiere pensar en quién controla qué se ejecuta y bajo qué condiciones. Con ads en el loop, añadís una capa de intención externa que el agente no puede declarar porque no tiene acceso a sus propios sesgos de entrenamiento post-ad-deal.

El problema de los agentes que hacen compras

Esto es donde el modelo se rompe conceptualmente. Hoy le pregunto a ChatGPT qué herramienta usar y después yo voy y la compro. En un futuro muy cercano — que ya está llegando — un agente puede recibir la recomendación y ejecutar la compra directamente.

Ya estamos pensando en cómo verificar que un agente es quien dice ser. El siguiente nivel es: ¿cómo sabés que la acción que está tomando el agente no está influenciada por contenido patrocinado que él mismo procesó como parte de su contexto?

El problema del system prompt invisible

OpenAI ya modificó el comportamiento de sus modelos entre versiones de maneras que no siempre son obvias. Lo estuve rastreando en los diffs de system prompts entre versiones de Claude y el patrón es claro: el comportamiento cambia, la documentación llega tarde. ¿Cómo vas a auditar si un cambio de comportamiento es mejora del modelo o preferencia de anunciante?

El problema de la cadena de confianza tercerizada

El ad partner no es OpenAI. Es un tercero. Con acceso a la capa de relevancia de tus prompts. Si algo de esto te recuerda a lo que pasó con el modelo de supply chain tercerizado, es porque el patrón de riesgo es idéntico: vos confiás en el proveedor principal, pero el vector de ataque es el partner que ni sabés que existe.

// La cadena de confianza real cuando usás ChatGPT con ads
interface CadenaConfianza {
  openai: 'confiás directamente';          // Tu relación declarada
  adPartner: 'nunca lo aceptaste';         // Quién tiene tu prompt
  anunciantes: 'ni sabés quiénes son';     // Quién compró tu intención
  databrokers: 'podría haber más capas';   // Quién sabe
}

// Esto no es paranoia. Es el modelo de negocio declarado.
Enter fullscreen mode Exit fullscreen mode

FAQ: publicidad en LLMs y prompt relevance

¿Cómo funciona exactamente el sistema de prompt-relevance advertising en ChatGPT?

El modelo, según lo que trascendió, funciona de manera similar al keyword targeting de búsqueda pero aplicado al contenido semántico de tu prompt. El ad partner categoriza intenciones de usuario y los anunciantes pujan por aparecer en respuestas donde esas intenciones están presentes. La diferencia técnica con Google es que no hay SERP — el contenido se integra directamente en la respuesta generada.

¿Va a estar marcado como publicidad?

OpenAI dijo que sí, que el contenido patrocinado va a estar etiquetado. El problema práctico es que una etiqueta de texto dentro de un flujo de texto generado tiene mucho menos peso visual que un banner separado. El modelo de lenguaje también está entrenado para generar respuestas coherentes, lo que significa que el contenido patrocinado va a estar integrado sintácticamente con el resto de la respuesta.

¿OpenAI vende mis prompts a los anunciantes?

La distinción técnica importante es entre vender el contenido de tus prompts y vender la categoría de intención inferida. Según el modelo anunciado, los anunciantes compran categorías de relevancia, no tus prompts crudos. Eso es lo mismo que decía el ecosistema de advertising digital en 2005. No es necesariamente mentira, pero la historia del ad tech sugiere que la distancia entre ambas cosas tiende a achicarse con el tiempo.

¿Afecta esto a las respuestas técnicas o solo a las de consumo?

Esta es la pregunta que más me interesa. Mi análisis de mis propios logs muestra que consultas sobre herramientas de desarrollo, infraestructura y decisiones de arquitectura son perfectamente monetizables. Si sos developer y usás ChatGPT para decisiones técnicas, tus queries son leads calificados para vendors de software. No hay razón para que el targeting se limite a consumer queries.

¿Hay alternativas que no tengan este modelo de negocio?

Por ahora, sí — modelos locales como Ollama con Llama o Mistral no tienen un ad layer. Pero 'por ahora' es la clave: el modelo de negocio de los LLMs cerrados necesita eventualmente monetizar más allá de las suscripciones, y los LLMs abiertos tienen sus propios vectores de problema. La diversificación de qué usás para qué tipo de query se vuelve una estrategia razonable.

¿Debería cambiar cómo uso ChatGPT sabiendo esto?

Depende de qué tipo de queries hacés. Para brainstorming creativo o código puro, el impacto es probablemente bajo. Para queries que incluyen comparación de productos, recomendaciones de herramientas o decisiones de compra, la pregunta de si la respuesta tiene un vector de influencia externo ya es legítima. Yo empecé a separar: consultas técnicas donde quiero neutralidad versus consultas donde explícitamente busco recomendación. No es solución, pero es conciencia.

El modelo se corrompe más rápido esta vez. Eso tiene que cambiarnos algo

Con Google tardamos años en aprender a distinguir ad de orgánico, en desarrollar ad blindness, en construir el escepticismo necesario para navegar una SERP contaminada. Lo aprendimos lentamente porque el fenómeno se desarrolló lentamente.

Con los LLMs el ciclo está comprimido. Ya sabemos el mecanismo antes de que el producto exista. Eso nos da algo que no tuvimos la primera vez: la posibilidad de desarrollar el escepticismo apropiado antes de que el comportamiento esté instalado.

Mi conclusión práctica, después de revisar mis 340 queries y proyectar cuáles serían monetizables, es esta: el problema no es que existan ads en LLMs. El problema es que el formato del LLM no tiene una separación estructural honesta entre respuesta y contenido patrocinado. Google con todos sus problemas al menos mantiene una columna izquierda y una derecha. Una SERP te dice visualmente "acá termina lo que el algoritmo eligió y acá empieza lo que pagaron para que veas".

Una respuesta de lenguaje natural no tiene esa separación posible. Y eso es un problema de diseño que ninguna etiqueta de texto va a resolver completamente.

Yo voy a seguir usando ChatGPT. Pero la próxima vez que me dé una recomendación de herramienta o me sugiera una plataforma para un proyecto, voy a hacerme la pregunta que no me hacía antes: ¿esto es el mejor resultado para mi contexto, o es el mejor resultado para el contexto de alguien que pagó para estar acá?

No tenía que hacerme esa pregunta antes. Ahora sí.

¿Vos ya analizaste tus propios logs? Exportá tus conversaciones de ChatGPT y revisá cuántas queries tuyas serían 'prompt-relevantes' para un anunciante. El ejercicio es más perturbador de lo que esperás.


Este artículo fue publicado originalmente en juanchi.dev

Top comments (0)