DEV Community

Juan Torchia
Juan Torchia

Posted on • Originally published at juanchi.dev

r/programming baneó contenido LLM: yo baneé mis propios posts y encontré el criterio imposible

r/programming baneó contenido LLM: yo baneé mis propios posts y encontré el criterio imposible

¿Por qué asumimos que el criterio "generado por IA vs humano" es la línea que importa? Hace semanas que r/programming está baneando posts con contenido LLM y la discusión entera gira alrededor de la autoría — quién lo escribió, cómo se generó, qué tool estuvo en el medio. Nadie está preguntando lo otro: ¿cuánto pensamiento original tiene el post aunque lo haya escrito un humano con sus diez dedos?

Esa pregunta me incomodó lo suficiente como para hacer algo incómodo: agarré mis últimos 20 posts y los pasé por mi propio filtro de moderación imaginaria. Los resultados me dejaron bastante callado.


LLM content ban en comunidades de programación: qué está pasando realmente

r/programming anunció restricciones explícitas sobre contenido generado o asistido por LLMs. La justificación pública es razonable: la comunidad se estaba llenando de posts genéricos, sin perspectiva real, que pasaban por análisis técnico pero no tenían ninguna experiencia detrás. El tipo de post que explica cómo funciona un garbage collector sin jamás haber debugueado un memory leak a las 2am.

El problema — y acá está la parte que me parece honesta de admitir — es que el criterio de moderación no es técnicamente "generado por IA". Es algo más subjetivo que eso. Los moderadores hablan de "valor original", "perspectiva genuina", "experiencia de primera mano". Términos que suenan bien en una política pero que son un pantano en la práctica.

Porque yo escribo con Claude. No para que Claude escriba por mí, sino como interlocutor, como primer lector que me obliga a clarificar lo que todavía no sé cómo articular. ¿Eso me descalifica? ¿O importa si lo que queda después del proceso tiene algo que decir?

Decidí no resolver la pregunta en abstracto. La resolví con datos propios.


El filtro que armé y los 20 posts que sobrevivieron (o no)

Definí cuatro criterios. No los inventé de la nada: los destilé leyendo los threads de discusión en r/programming, r/MachineLearning y algunos posts de moderadores explicando sus decisiones. Cada post podía sumar hasta 25 puntos por criterio — máximo 100.

# criterios_moderacion_llm.py
# Mi intento de operacionalizar "valor original"

criterios = {
    "experiencia_verificable": {
        "descripcion": "¿Hay una medición, log, error o decisión específica?",
        "peso": 25,
        # Si el post dice "según mis pruebas" pero no muestra nada,
        # cuenta como 0. Si hay un número real, un stacktrace, una fecha: suma.
    },
    "postura_propia": {
        "descripcion": "¿El autor toma una posición que alguien podría discutir?",
        "peso": 25,
        # Posts que explican algo neutral sin opinión: 0.
        # "X es mejor que Y porque lo medí y Z fue el resultado": suma.
    },
    "especificidad_de_contexto": {
        "descripcion": "¿Podría este post existir sin la experiencia particular del autor?",
        "peso": 25,
        # Un tutorial genérico de Docker: 0.
        # "Tiré producción con rm -rf en mi primera semana de hosting": suma.
    },
    "irreproducibilidad": {
        "descripcion": "¿Podría un LLM generar esto sin el input original del autor?",
        "peso": 25,
        # Artículo sobre qué es un mutex: 0.
        # Post sobre cómo el error específico de Railway rompió mi deploy
        # exactamente cuando empujé a medianoche: suma.
    }
}
Enter fullscreen mode Exit fullscreen mode

Apliqué esto a mis últimos 20 posts. Resultados honestos:

  • 12 posts: 70 puntos o más. Sobreviven. Tienen medición propia, postura, contexto específico.
  • 5 posts: 50-69 puntos. Zona gris. Tienen algo personal pero el argumento central podría haberlo escrito cualquiera con acceso a documentación.
  • 3 posts: menos de 50. No pasan. Son posts que escribí yo, con mis dedos, en primera persona, pero que en el fondo son resúmenes de documentación con una anécdota pegada arriba como adorno.

Ese tercer grupo me cayó como un balde de agua fría.


Los tres posts "humanos" que no pasarían el ban

No voy a nombrarlos directamente porque algunos siguen activos, pero puedo describir el patrón.

El primero era sobre una herramienta de infra. Yo la había usado, sí. Pero el post describía features de la documentación oficial más que mi experiencia real con ella. La anécdota era decorativa — podría haber aparecido en cualquier sección y el post no hubiera cambiado. Score: 38/100.

El segundo era una opinión sobre el futuro de un protocolo. Tenía postura, pero la postura era segura. No decía nada que me pudiera costar algo. Era el tipo de take que todo el mundo en el ecosistema estaría dispuesto a firmar. Score: 44/100.

El tercero — y este es el que más me incomodó — era un post de referencia técnica. Útil, bien escrito, con ejemplos. Pero no había nada en él que requiriera que lo hubiera escrito yo. Cero. Era reemplazable por un LLM con acceso a los mismos docs. Score: 31/100.

Mi tesis, después de este ejercicio: el ban de r/programming está apuntando al síntoma correcto con el diagnóstico equivocado. El problema no es que un LLM haya estado en el medio del proceso — el problema es contenido sin pensamiento original, y eso puede ser producido perfectamente por un humano que escribe en piloto automático.


El criterio imposible: qué pasa cuando el filtro se aplica de verdad

Lo incómodo de este ejercicio es que hace colapsar la distinción cómoda entre "generado por IA" y "escrito por humano". Cuando me senté a revisar qué cambia cuando Anthropic mueve Claude de plan o qué gaps reales tiene MCP cuando lo usás en producción, había pensamiento original porque había fricción real. Yo había peleado con esas cosas. Tenía algo que perder siendo honesto sobre ellas.

Cuando escribí sobre cómo OpenAI vende relevancia por prompt, lo que me importaba era el incomodidad de haber simulado el mecanismo con mis propios logs. Si sacás esa incomodidad, el post se convierte en otra explicación genérica.

El problema que r/programming está tratando de resolver es real. Las comunidades técnicas se están llenando de contenido que se ve como análisis pero es texto generado desde inputs generados, sin nadie que haya tocado la cosa en producción, sin nadie que tenga algo en juego. Pero el criterio "generado por LLM = malo" es demasiado blunt. Es como banear a todos los que usan autocomplete porque alguien abusó del autocomplete.

Lo que sí me parece un criterio honesto — y verificable — es: ¿hay algo en este post que requirió que lo escribiera esta persona específica? No "¿lo escribió una persona?" sino "¿requirió pensamiento de alguien con esa historia?".

Cuando revisé mis commits buscando qué era mío y qué era del modelo, el ejercicio valió porque tenía commits reales. Cuando escribí sobre el cambio de posición de Anthropic sobre Claude CLI, tenía el log de mi flujo de trabajo antes y después. Sin eso, era solo otra nota de prensa.


Errores comunes al pensar en este ban (y en qué te protege)

Error 1: Pensar que "escribirlo vos" es suficiente.
No. Yo escribí tres posts que no pasarían mi propio filtro. El acto de tipear no agrega valor — la experiencia específica que informó ese tipeo, sí.

Error 2: Pensar que el ban resuelve el problema de fondo.
Las comunidades que banean contenido LLM sin definir qué criterio positivo buscan van a terminar con menos contenido, no con mejor contenido. El contenido humano mediocre sigue siendo mediocre.

Error 3: Asumir que si usás IA en el proceso, el resultado está contaminado.
Yo uso Claude como interlocutor desde hace más de un año. Los posts que pasan mi filtro lo pasan porque partieron de una fricción real, no porque los haya escrito solo. El proceso no invalida el resultado si el resultado tiene algo que decir.

Error 4: Creer que el criterio de los moderadores es consistente.
No lo es. Es imposible que lo sea aplicado a escala. Lo que van a terminar baneando es el contenido que parece generado — el que tiene el olor de LLM, esa textura de exhaustividad sin experiencia. Y eso es un target movedizo.


FAQ: ban de LLM en comunidades de programación

¿r/programming está baneando todo lo que usa IA o solo lo que parece generado por IA?
La política oficial habla de contenido "generado o significativamente asistido por LLMs". En la práctica, los moderadores aplican criterio cualitativo: si el post no tiene perspectiva original verificable, puede caer aunque lo haya escrito un humano. Si tiene perspectiva original verificable, probablemente sobreviva aunque haya habido un LLM en el proceso.

¿Cómo sé si mi post pasaría el filtro de r/programming?
La pregunta más honesta que podés hacerte: ¿hay algo en este post que requirió que lo escribiera vos específicamente? No "¿lo escribiste vos?" — eso es diferente. Si la respuesta es no, el post no tiene pensamiento original suficiente, independientemente de quién lo produjo.

¿Otras comunidades técnicas van a seguir el mismo camino?
Probablemente sí, algunas. Hacker News ya tiene una cultura de moderación informal que penaliza el contenido genérico. Stack Overflow tiene reglas sobre respuestas LLM. El movimiento existe. La pregunta es si van a articular criterios más precisos o si van a usar el ban como herramienta blunt.

¿Esto perjudica a developers que trabajan con IA en su día a día?
Solo si producen contenido genérico sobre su trabajo con IA. Si escribís sobre una herramienta que usás con fricción real, logs reales y una postura propia, el ban no te toca — o no debería. El problema es que "debería" y "en la práctica" son cosas distintas cuando la moderación es humana y subjetiva.

¿Hay alguna manera de escribir con LLMs y que el contenido sea auténtico?
Sí, pero requiere que la fricción original sea real. Si empezás el proceso desde una experiencia concreta — un error que te costó tiempo, una decisión de arquitectura que no resultó, una medición que te sorprendió — y usás el LLM para articularlo mejor, el resultado puede tener valor original. Si empezás desde "escribime un post sobre X", no.

¿Vale la pena publicar en r/programming o en comunidades con ese tipo de ban?
Depende de qué buscás. Si buscás distribución de contenido genérico, no. Si tenés algo concreto que decir desde experiencia real, el ban te favorece — hay menos ruido contra el que competir. El filtro es duro, pero el público que sobrevive ese filtro es el que vale la pena tener.


Lo que me quedó después de banear mis propios posts

Hay una parte de este ejercicio que todavía me pesa: los tres posts que no pasaron los escribí en días donde laburaba mucho y escribía en piloto automático. No porque hubiera un LLM generando por mí — sino porque yo mismo estaba funcionando como un LLM: procesando inputs conocidos y produciendo output predecible.

Cursé Ciencias de la Computación en la UBA mientras laburaba full time. Llegaba a rendir con el traje puesto, directo del trabajo. Aprobé Análisis II en el cuarto intento. Lo que me acuerdo de esa época no es el contenido de las materias — es la textura de estar en el límite cognitivo todo el tiempo. Ahí no podías escribir en piloto automático aunque quisieras. No había recursos para eso.

Los mejores posts que escribí en los últimos meses vinieron de ese estado: cuando algo me rompió la infra, cuando una medición no tenía sentido, cuando un cambio de política me forzó a recalcular algo que asumía resuelto. Los peores vinieron de cuando tenía tiempo y producía igual.

Mi postura final: r/programming está haciendo lo correcto por las razones equivocadas. El criterio "sin LLM" es operacionalmente conveniente pero conceptualmente flojo. El criterio que importa — pensamiento original con experiencia verificable detrás — es más difícil de moderar pero es el único que distingue contenido que vale la pena del que no. Y ese criterio se aplica igual a humanos que a máquinas.

Si vas a escribir sobre tech, escribí sobre algo que te costó algo. Si no te costó nada, no tenés nada que decir todavía — y ningún ban en ningún subreddit va a resolver eso.


¿Pasaste por algo similar revisando contenido propio? Encontrá más contexto sobre cómo pienso la autoría en la era de los agentes en el análisis de git blame sobre mis commits.


Este artículo fue publicado originalmente en juanchi.dev

Top comments (0)