Rechazar una tesis por quién la afirma o por el lugar del que proviene suele encajar en lo que se conoce como falacia genética. La intuición es sencilla: el origen de una idea, por sí solo, no determina si es verdadera o falsa. En discusiones reales, este patrón aparece con frecuencia y no solo como error lógico: puede actuar como acelerante de polarización, porque cambia la pregunta de “¿qué razones y evidencias hay?” por “¿de qué bando viene?”.
Hay una variante especialmente influyente: la apelación a “no dar altavoz a voces dañinas”. En abstracto, esa idea puede tener un uso defendible como criterio de gobernanza de un espacio (por ejemplo, para evitar acoso o incitación a la violencia). Pero a menudo funciona como coartada: se usa para dañar al enemigo, negar cualquier punto de acuerdo y evitar el coste social de reconocer que el otro puede acertar. Cuando esto ocurre, el efecto puede ser paradójico: en nombre de “mejorar el mundo”, se refuerza el mecanismo que intensifica la polarización.
La tesis de este texto es que, si el objetivo es debate constructivo y menos polarización, suele ser más eficaz separar carriles (verdad, evaluación del emisor y gobernanza del foro) y, además, hacer visibles los puntos de acuerdo verificables incluso cuando provengan del “otro lado”. Esto no obliga a absolver a nadie; obliga a no convertir la identidad en sustituto de evidencia.
Qué es la falacia genética (y qué no es)
La falacia genética consiste en tratar el origen como refutación: “esto viene de X, por tanto es falso”, o “lo ha dicho Y, por tanto no merece consideración”. El problema no es que el origen sea siempre irrelevante; es que se usa como veredicto cuando, como mucho, debería ser una señal preliminar.
Distingue esto de prácticas razonables:
- Usar el origen como heurística inicial: si una fuente tiene un historial consistente de manipulación, bajar la confianza previa puede ser prudente.
- Exigir trazabilidad: pedir datos, método, replicación, cadena de referencias.
- Considerar incentivos y conflictos de interés: el origen puede indicar motivos para aplicar más escrutinio
Ninguna de estas prácticas refuta por sí misma el contenido. Solo ajusta el nivel de confianza inicial y el esfuerzo de verificación.
Por qué es tan tentadora
Evitarla parece fácil en abstracto. En la práctica, cuando sabemos cosas del emisor que nos repugnan —por conducta, valores o historial— la reacción puede ser casi automática. Se produce una especie de “contaminación afectiva”: el rechazo emocional o el desprecio se pega al contenido y termina funcionando, sin que nos demos cuenta, como sustituto de evidencia.
Ese impulso no es misterioso. Es un atajo cognitivo y social:
- Reduce esfuerzo: etiquetar es más barato que analizar.
- Protege identidad: evita admitir que el rival podría acertar en algo.
- Cierra conversaciones incómodas sin entrar en detalles.
- Refuerza la cohesión del grupo: “si viene de ellos, se rechaza”.
Esto ayuda a explicar por qué la falacia persiste: no es solo un error lógico; también es una herramienta de dinámica tribal.
Ventajas para quien la usa
- Ahorra tiempo y energía: etiquetar suele ser más barato que analizar.
- Persuade con facilidad a audiencias alineadas: confirma lealtades.
- Controla el marco: del contenido se pasa a la reputación o a la identidad.
- Protege autoestima e identidad: reduce el riesgo de conceder puntos al otro.
- “Vacuna” al grupo: predispone a rechazar todo lo que provenga del rival.
El problema es que estas ventajas tienden a ser de corto plazo y, acumuladas, pueden degradar la conversación colectiva.
La coartada del “no amplificar” y el secuestro del carril de la verdad
Aquí está la fricción principal. En abstracto, suena razonable decir: “aunque sea cierto, no quiero amplificar a una persona tóxica”. Pero en muchas discusiones esa frase opera menos como gestión prudente de un riesgo del espacio y más como licencia para hacer daño al adversario: negar legitimidad, bloquear cualquier acuerdo y castigar socialmente el reconocimiento de aciertos del otro lado.
Cuando “no amplificar” se convierte en regla informal de facción, suele ocurrir algo parecido a esto:
- Se confunde el estatus del emisor (carácter, virtud, conducta) con la verdad de la afirmación.
- Se penaliza el acuerdo verificable: “si lo aceptas, traicionas al grupo”.
- Se intensifica la polarización: cada bando se vuelve incapaz de aprender del otro incluso en lo comprobable.
En ese uso, “no amplificar” es una versión práctica de la falacia genética: el debate deja de ser “¿es verdad?” y pasa a ser “¿merece existir en nuestro espacio?”, sin criterios explícitos, simétricos o auditables.
Si el objetivo es reducir polarización, el efecto suele ser el contrario: silenciar al otro, incluso cuando acierta, tiende a reforzar la lógica de bandos. Y esa lógica convierte la verdad en propiedad de grupo: “solo es aceptable si lo dice uno de los nuestros”.
Tres carriles: verdad, evaluación del emisor y gobernanza del foro
Para evitar la confusión conviene separar tres carriles:
- Carril epistémico: ¿la afirmación es verdadera, falsa o indeterminada con lo disponible?
- Carril del emisor (carácter/virtud y conducta): ¿qué valoración merece la persona que lo afirma, su comportamiento y su fiabilidad como agente?
- Carril de gobernanza del foro: ¿qué reglas permiten que el debate sea posible sin convertirse en intimidación, acoso o violencia?
El tercer carril es el único lugar donde “no dar altavoz” puede tener un sentido defendible sin degradar el carril epistémico. Si no se separan, “moderación” y “refutación” se mezclan, y el desacuerdo se convierte en una guerra de legitimidades.
Una formulación que preserva la separación sería:
“No quiero interactuar con esa persona o no deseo su presencia en ciertos espacios por razones de gobernanza. Puedo reprobar su conducta o considerar su carácter/virtud censurable. Pero eso no decide la verdad de la afirmación, ni debería impedir reconocer aciertos verificables cuando los hay.”
El antídoto contra la polarización: hacer visibles “islas de acuerdo”
Si lo que se busca es un debate constructivo, suele ser más eficaz lo contrario de la censura informal: identificar y visibilizar puntos de acuerdo verificables cuando existan. Llamo “isla de acuerdo” a una afirmación parcial que puedes aceptar por evidencia aunque provenga de un adversario o de alguien cuya conducta consideras reprobable.
Practicar esto puede tener varios efectos plausibles:
- Reduce caricaturas mutuas, porque obliga a reconocer complejidad.
- Debilita el filtro identitario (“solo es verdad si lo dice mi bando”).
- Aumenta incentivos para argumentar mejor: si existe posibilidad real de acuerdo, conviene aportar evidencia.
Aceptar una isla de acuerdo no implica absolución ni blanqueamiento. Implica sostener una norma: la verdad (o la mejor aproximación disponible) no debería depender de la identidad del mensajero.
En términos de polarización, es una apuesta: reconocer aciertos del otro lado puede bajar temperatura y abrir aprendizaje. No siempre funciona, pero suele ser difícil imaginar un debate público menos polarizado si reconocer aciertos ajenos está socialmente prohibido.
Excepciones y caso límite: tolerancia y condiciones del diálogo
¿Significa esto que nunca se debe restringir a nadie? No necesariamente. Hay casos en los que el carril de gobernanza puede justificar límites, pero conviene formularlos de manera estrecha y simétrica para que no se conviertan en excusa tribal.
Un criterio razonable (aunque discutible) es restringir no por “ser del otro bando” o por “ser repugnante”, sino por dañar activamente las condiciones que hacen posible el debate. Ejemplos típicos:
- Incitación a violencia.
- Acoso, intimidación, doxxing.
- Campañas coordinadas de hostigamiento.
- Sabotaje sistemático de la conversación mediante coerción o amenaza.
Esto se relaciona con lo que suele resumirse como paradoja de la tolerancia: tolerar ilimitadamente a quienes buscan destruir el marco que permite la tolerancia puede volver inviable el propio marco. Aun así, incluso aquí hay riesgos de abuso o captura. Por eso ayudan salvaguardas: proporcionalidad, transparencia, reglas publicables, y posibilidad de revisión.
Este es un punto clave: incluso cuando un espacio decide restringir a alguien, eso no debería funcionar como refutación de sus afirmaciones. Si una afirmación es relevante y verificable, debería poder evaluarse por vías independientes (datos, replicación, fuentes adicionales) sin convertir la expulsión del mensajero en “prueba” contra el mensaje.
Técnicas operativas para evitar la falacia
- Despersonalizar: reescribe la tesis sin el nombre del emisor. Si suena más razonable, quizá el rechazo era al origen.
- Prueba de simetría: “si esto lo dijera alguien de mi bando, ¿exigiría el mismo nivel de evidencia?”.
- Corroboración independiente: busca una vía de verificación que no dependa del emisor.
- Steelman parcial: formula la mejor versión del argumento antes de criticarlo; si no puedes, quizá falta comprensión o falta evidencia.
- Islas de acuerdo: identifica una parte aceptable y exprésala con condiciones (“acepto X por estas razones, sin implicar Y”).
- Regla del prior: deja que el origen ajuste tu confianza inicial, pero exige que la conclusión dependa de evidencia explícita.
Estas técnicas no eliminan el sesgo por completo, pero reducen la probabilidad de que la identidad sustituya a la evaluación.
IA, reputación y trazabilidad en un océano de afirmaciones
Una IA podría, en principio, estar mejor preparada para evitar la falacia genética porque no tiene rechazo visceral del modo humano y puede separar tareas: evaluar consistencia, pedir evidencia, contrastar referencias. Pero no sería prudente asumir “inmunidad”. Podría reproducir atajos similares por:
- Sesgos en datos: asociaciones entre grupos y fiabilidad percibida.
- Incentivos de diseño: evitar fricción puede empujar a decisiones conservadoras o socialmente cómodas.
- Correlaciones superficiales: aprender “quién suele decir qué” como proxy de verdad.
La salida no es idealizar la IA, sino exigir procedimientos explícitos: distinguir entre “esto reduce mi confianza inicial” y “esto refuta el contenido”, mostrar incertidumbre y priorizar trazabilidad.
A medida que crezca la producción de contenido (humano y automático), el origen será una señal cada vez más ambigua. Ganará valor la trazabilidad: datos, metodología, replicación, auditoría. Y también normas culturales que recompensen reconocer aciertos del otro lado, porque sin ese incentivo la verificación puede politizarse igual.
Recomendaciones prácticas
Para personas:
- Separar carriles: verdad, evaluación del emisor, gobernanza.
- Practicar islas de acuerdo: busca al menos una por discusión, aunque sea pequeña y condicionada.
- Explicitar el estándar: qué evidencia te haría cambiar de opinión.
Para comunidades:
- Penalizar la caricatura; recompensar el reconocimiento de puntos válidos del rival.
- Establecer reglas explícitas de gobernanza separadas del desacuerdo ideológico.
- Favorecer formatos que obliguen a citar evidencia y a conceder puntos.
Para plataformas:
- Transparencia en moderación: reglas claras, simetría, proporcionalidad.
- Diseños que reduzcan incentivos de “humillación viral” y aumenten fricción para acusaciones graves.
- Mecanismos de contexto y trazabilidad para afirmaciones verificables.
Conclusiones
La falacia genética es tentadora porque es socialmente potente: ahorra esfuerzo, protege identidad y facilita deslegitimar al adversario. Su prima moderna, el “no amplificar”, puede ser una herramienta legítima de gobernanza en casos estrechos, pero a menudo opera como coartada polarizadora: bloquea el reconocimiento de aciertos del otro lado y convierte la identidad en filtro de verdad.
Si se quiere menos polarización, el antídoto no es fingir que el origen no importa, sino ponerlo en su sitio: el origen puede modular la confianza inicial, la evidencia decide la conclusión, y la gobernanza protege las condiciones del diálogo. Sobre todo, conviene normalizar una práctica incómoda pero estructuralmente valiosa: reconocer con precisión islas de acuerdo verificables incluso cuando provengan de quien no nos gusta. Sin eso, la conversación tiende a degradarse a intercambio de lealtades; con eso, al menos existe una posibilidad real de aprendizaje mutuo.