DEV Community

Juan Torchia
Juan Torchia

Posted on • Originally published at juanchi.dev

US v. Heppner: tu chat con la IA no tiene privilegio legal y casi nadie lo sabe

Estaba revisando un contrato de un cliente nuevo cuando me agarró la duda de siempre: esta cláusula de indemnización, ¿me puede complicar si el proyecto sale mal? No tenía ganas de esperar turno con un abogado para algo que probablemente era una duda menor. Abrí Claude, pegué la cláusula, pregunté. Recibí una respuesta útil, seguí adelante.

Dos semanas después cayó en mi feed el caso United States v. Heppner y me quedé helado.

No porque yo esté en un juicio federal —spoiler: no estoy— sino porque entendí algo que nadie me había explicado claramente cuando empecé a usar estas herramientas para cosas reales: esa conversación que tuve con Claude no tiene ningún tipo de protección legal equivalente al privilegio abogado-cliente. Es descubrible. Es evidencia potencial. Y yo la usé como si fuera una consulta confidencial con un profesional.

Disclaimer obligatorio y no negociable: No soy abogado. Este post no es consejo legal de ningún tipo. Es la reflexión de un arquitecto de software que leyó un fallo y se asustó lo suficiente como para escribir sobre ello. Consultá con un abogado real para cualquier situación legal concreta.


Privilegio legal y chats con IA: qué dice el fallo Heppner

El caso United States v. Heppner es federal, de EE.UU., y técnicamente no aplica directamente en Argentina. Pero el principio legal que establece es relevante universalmente: el privilegio abogado-cliente requiere, entre otras cosas, que la comunicación sea con un abogado.

Una IA no es un abogado. Una IA no está habilitada para ejercer la profesión. Una IA no tiene obligaciones deontológicas de confidencialidad. Por lo tanto, lo que le contás a una IA —incluso si le preguntás cosas con implicancia legal— no goza de protección alguna bajo ese privilegio.

En el fallo, el tribunal fue bastante directo: el hecho de que alguien crea que está teniendo una conversación confidencial no crea ese privilegio. La protección legal tiene requisitos formales. Y los chats con IA no los cumplen.

Ahora pará un segundo y pensá en cuántas veces le preguntaste algo así a tu modelo favorito:

  • "¿Esta cláusula de no competencia es razonable?"
  • "¿Qué pasa si no entrego en el plazo que dice el contrato?"
  • "¿Puedo despedir a alguien que está en período de prueba sin causa?"
  • "¿Esta factura tiene algún problema impositivo?"

Si usás estas herramientas para tu trabajo, apostaría que sí. Yo sí. Y ahora sabemos que esas conversaciones, bajo ciertas condiciones legales, pueden ser requeridas como evidencia.


El problema real: el modelo de privacidad que nadie te explica

Acá está el núcleo del asunto, y acá es donde me pongo más técnico porque es mi terreno.

Cuando empezás a usar Claude, ChatGPT, Gemini o cualquier LLM vía interfaz web, estás aceptando términos de servicio que la mayoría lee diagonal o no lee. Esos términos establecen, entre otras cosas, cómo se usan tus conversaciones. En algunos casos para entrenamiento (con opt-out disponible), en otros no. Pero el punto clave no es el entrenamiento: es que esos datos existen en servidores de terceros.

Cuando usás la API —como yo hago para varios workflows que describí en otros posts— el panorama cambia un poco. Anthropic, por ejemplo, tiene políticas más estrictas sobre retención de datos en la API vs. la interfaz web. Pero "más estrictas" no es lo mismo que "jurídicamente protegidas".

El esquema mental que la mayoría tiene cuando habla con una IA es este:

[Vos] ←→ [IA] 
         ↑
    (como si fuera
     un diálogo privado)
Enter fullscreen mode Exit fullscreen mode

El esquema real es más parecido a esto:

[Vos] → [Interfaz/App] → [Servidores del proveedor] → [Modelo]
              ↓                    ↓
         [Logs]              [Datos retenidos según
         [Métricas]           política de privacidad]
              ↓
         [Potencialmente
          requeribles por
          orden judicial]
Enter fullscreen mode Exit fullscreen mode

No estoy diciendo que Anthropic o cualquier otro proveedor venda tus datos al mejor postor. No es eso. Estoy diciendo que existe una cadena de custodia de esa información que vos no controlás, y que bajo ciertas condiciones legales —subpoenas, órdenes judiciales, investigaciones— esa información puede ser requerida al proveedor.

Cuando me pasé semanas optimizando mi workflow con Claude Code para automatizar tareas repetitivas, nunca pensé en este ángulo. Lo pensaba como productividad. El fallo Heppner me hizo pensar en ello como superficie de exposición.


Lo que sí podés hacer: separar contextos con criterio

Acá viene la salida constructiva, porque el objetivo no es meterte miedo y dejarte sin herramientas. Las IAs son genuinamente útiles. Yo las uso todos los días. El punto es usarlas con criterio sobre qué información metés en cada contexto.

Regla práctica 1: Nunca pegues documentos legales reales con datos identificatorios

Si tenés una duda sobre una cláusula contractual, podés describir la situación en abstracto sin pegar el contrato completo con nombres, montos y fechas reales.

// ❌ Lo que no deberías hacer
"Mirá esta cláusula del contrato con Empresa XYZ, Cuit 20-12345678-9, 
por $500.000 que firmamos el 15/03/2025..."

// ✅ Lo que podés hacer
"En un contrato de servicios, hay una cláusula que dice que el proveedor
es responsable por daños directos e indirectos sin límite de monto.
¿Qué riesgos generales implica esto para el proveedor?"
Enter fullscreen mode Exit fullscreen mode

La diferencia es enorme. En el primer caso estás creando un registro vinculable a vos y a una situación específica. En el segundo estás haciendo una consulta conceptual.

Regla práctica 2: Para cosas que importan, usá la API con tu propia infraestructura

Si manejás información sensible frecuentemente, la diferencia entre usar la interfaz web y usar la API con un servidor que vos controlás es significativa. En el primero, los datos viven en los servidores de Anthropic. En el segundo, podés configurar que el contexto no salga de tu infraestructura.

No es perfecto —sigue pasando por los servidores de Anthropic para la inferencia— pero podés tener mucho más control sobre qué metadatos se generan y cómo se almacenan localmente.

Cuando armé mi servidor MCP local, parte del razonamiento era exactamente este: quería que ciertas herramientas corran en mi infraestructura, no en la nube de un tercero. No lo hice pensando en implicancias legales en ese momento, pero el principio aplica.

Regla práctica 3: Conocé la política de retención de tu proveedor

Cada proveedor tiene políticas distintas. Vale la pena leerlas, aunque sea por encima:

  • API de Anthropic: por defecto no usa conversaciones para entrenamiento, retención de 30 días para abuse monitoring
  • Claude.ai (web): tiene controles de privacidad pero las conversaciones pasan por sus servidores
  • ChatGPT: tiene opt-out de entrenamiento, pero las conversaciones se almacenan
  • Self-hosted models: vos manejás todo — máximo control, máxima responsabilidad operacional

Si estás en la duda, un modelo local tipo Ollama con Llama o Mistral corriendo en tu propia máquina es la única opción donde los datos genuinamente no salen de tu control. El tradeoff es capacidad vs. privacidad.


Los errores más comunes que yo mismo cometí

En 2023, cuando empecé a usar la API de Claude para automatizar cosas en mi laburo, aprendí a la fuerza que darle contexto genérico produce basura genérica. Lo que también aprendí —más tarde, y más a los golpes— es que el contexto que le das crea un registro.

Algunos errores concretos que cometí o vi cometer:

1. Usar el chat como repositorio de información sensible
Le preguntaba cosas y en el contexto incluía información sobre clientes, proyectos, montos. Para el modelo era contexto útil. Para mí, retrospectivamente, era crear un registro de información confidencial en servidores que no controlo.

2. Asumir que "borrar el chat" equivale a eliminar los datos
No es así. Borrar la conversación de tu vista no necesariamente elimina los datos de los sistemas del proveedor. Hay diferencia entre eliminar el historial de la interfaz y que los logs del servidor se purguen.

3. No separar cuentas personales de cuentas de trabajo
Usar la misma cuenta de Claude para preguntar sobre series de Netflix y para revisar contratos de clientes es mezclar contextos que deberían estar separados.

Esto me recuerda al caos que viví cuando sin querer afecté el hot reload en mi setup de Docker por no entender bien las capas — el mismo problema de fondo: no entender el modelo subyacente te lleva a consecuencias inesperadas. Como cuando optimicé esa imagen Docker y encontré problemas que no había anticipado.


FAQ: privilegio legal y chats con IA

¿El fallo Heppner aplica en Argentina?
No directamente — es un fallo federal de EE.UU. Pero el principio legal es universalmente relevante: el privilegio abogado-cliente tiene requisitos formales que una IA no puede satisfacer en ninguna jurisdicción. En Argentina, el secreto profesional del abogado tiene protección legal específica que no se extiende a conversaciones con herramientas de IA.

¿Significa que no debería usar IA para nada relacionado con lo legal?
No. Significa que debés ser consciente de qué información compartís y entender que esas conversaciones no tienen protección legal especial. Usar IA para entender conceptos legales generales, investigar jurisprudencia pública o redactar borradores para después revisar con un abogado es diferente a usarla como sustituto de consulta legal confidencial.

¿Qué pasa si uso un modelo de IA local, tipo Ollama?
En ese caso los datos no salen de tu infraestructura, lo que elimina el problema del tercero que puede ser requerido por orden judicial. Sin embargo, si esos datos están en tu computadora o servidor, vos sos quien puede ser requerido a proveerlos. La privacidad mejora, la exposición legal no desaparece mágicamente.

¿Los proveedores de IA pueden negarse a entregar datos ante una orden judicial?
Pueden intentarlo legalmente, pero en general las empresas tecnológicas en EE.UU. cumplen con subpoenas válidas. Los proveedores tienen políticas de transparencia donde reportan cuántos requests legales reciben. No es un número cero.

¿Hay alguna forma de usar IA con algo parecido a confidencialidad real?
La aproximación más cercana es: modelo local (Ollama, LM Studio) corriendo en hardware que vos controlás, sin enviar datos a servicios externos, en una red aislada. Es la opción de máxima privacidad. El costo es que los modelos locales actuales tienen menor capacidad que los modelos de frontera como Claude o GPT-4. Para muchos casos de uso es suficiente; para análisis legal complejo, probablemente no.

¿Debería preocuparme si solo le pregunté algo menor a Claude?
Realísticamente, nadie va a requerir tus conversaciones sobre si una cláusula menor te afecta, a menos que estés en medio de un litigio relevante. El problema no es el riesgo inmediato —que probablemente sea bajo para la mayoría— sino el modelo mental incorrecto: pensar que es confidencial cuando no lo es. Eso es lo que hay que corregir.


Conclusión: el problema no es la IA, es el modelo mental

El fallo Heppner no me hace querer dejar de usar herramientas de IA. Las sigo usando todos los días. Sigo automatizando cosas, sigo usándolas para entender conceptos que no domino, sigo experimentando con arquitecturas como las que mencioné en el post sobre overengineering en agentes.

Lo que cambió es el modelo mental con el que entro a esas conversaciones.

Hablar con una IA no es como hablar con un abogado, con un médico, con un contador o con cualquier profesional que tenga obligaciones deontológicas de confidencialidad. Es más parecido a buscar en Google con esteroides: útil, potente, pero sin ninguna protección legal implícita.

Y está bien. Las herramientas son lo que son. El problema surge cuando las usás como si fueran algo diferente.

Lo que me da bronca —y es la bronca constructiva de hoy— es que nadie te explica esto cuando empezás. La onboarding de cualquier herramienta de IA está optimizada para que produzcas tu primer output lo antes posible. El modelo de privacidad real, las implicancias legales de compartir cierta información, los límites de lo que estas herramientas pueden y no pueden hacer: eso lo descubrís solo, como yo, leyendo un fallo federal a las 11pm.

Así que acá está la síntesis práctica: usá IA para todo lo que te sea útil. Pero antes de pegar ese contrato, esa conversación sensible, esa situación con implicancias legales reales — preguntate si querés que esa información exista en un servidor que no controlás. En la mayoría de los casos la respuesta va a ser que no importa. En algunos casos, va a importar mucho.

Y para lo segundo, consultá un abogado de verdad. Las IAs, por ahora, no sirven para eso.


¿Tenés una política interna sobre qué información podés meter en herramientas de IA? ¿O estás improvisando como la mayoría? Me interesa saber cómo lo están manejando — comentá o escribime.


Este artículo fue publicado originalmente en juanchi.dev

Top comments (0)