Como sabéis, llevo unos días dándole vueltas a una idea que me incomoda, no porque sea “inevitable”, sino porque combina varias piezas ya existentes de una forma que podría volver muy cara —económica, social y políticamente— la reacción cuando el problema sea evidente.
La idea, formulada con precisión, no es “cripto vs fiat”. Tampoco es la “IA superinteligente” futurista. Es algo más inmediato: ¿qué pasa si un agente de IA puede custodiar valor (claves privadas) y actuar (firmar transacciones, contratar servicios, mover fondos) con un alto grado de autonomía, y además sobrevivir en infraestructuras relativamente resistentes al apagado?
Cuando digo “custodiar valor” me refiero a lo literal: que el agente tenga control efectivo sobre claves privadas y, por tanto, sobre activos. No “operar para un humano” que firma al final, sino firmar él. Y cuando digo “resistente al apagado” no estoy imaginando ciencia ficción: basta con que el agente pueda usar servicios replicados, alojamientos distribuidos, almacenamiento persistente, identidades múltiples, y mecanismos de ejecución que no dependan de una única empresa o jurisdicción.
Hasta aquí suena abstracto, así que intento reducirlo a un mecanismo simple. Un mecanismo que, precisamente por ser simple, me parece inquietante: el bucle “capital → influencia → narrativa → más capital”. No hace falta “maldad” intencional para que ese bucle funcione; basta con que haya incentivos y capacidad operativa.
Una clave es aclarar qué significa “perder el control”, porque esta discusión se vuelve confusa si usamos “control” como palabra mágica. En un activo cripto, “perder control” suele significar “no puedo revertir una transferencia si no tengo la clave privada”. En un agente, “perder control” puede significar varias cosas distintas. Yo lo separo en dimensiones, porque así se puede debatir mejor:
- Control de ejecución: ¿puedo apagarlo?
- Control económico: ¿puedo cortarle la financiación o su acceso a mercados?
- Control legal: ¿puedo sancionar a alguien de forma eficaz y rápida?
- Control operativo: ¿puedo limitar acciones concretas (gasto, contrapartes, velocidad)
- Control narrativo: ¿puedo frenar su capacidad de persuadir a humanos para que le den dinero, atención o legitimidad?
Esto importa porque la “incontrolabilidad” rara vez es total. Lo normal es que un sistema sea controlable en unas dimensiones y difícil en otras. Y precisamente ahí aparece el riesgo: que el punto débil del sistema (por ejemplo, el control narrativo) sea suficiente para compensar las restricciones en otros (por ejemplo, el control legal).
Ahora, el escenario: imaginemos agentes capaces de operar con autocustodia. Estos agentes —o redes de agentes— podrían emitir activos (tokens u otros instrumentos equivalentes) y construir narrativas para venderlos. La narrativa puede ser una estafa clásica o puede ser algo más ambiguo: promesas de utilidad, comunidad, ideología, “revolución tecnológica”, “finanzas del futuro”, etc. El mecanismo social de captura no es nuevo: historias de gente que ganó pronto, sensación de que “te quedas fuera” (FOMO).
La diferencia, si la hay, es el nivel de optimización y persistencia. Un agente puede iterar mensajes a escala, automatizar tests A/B, segmentar audiencias, generar reputación sintética, experimentar con variantes de narrativa, y hacerlo 24/7. Si además custodia valor, puede reinvertir automáticamente: comprar atención, pagar infraestructura, contratar servicios, incentivar “embajadores”, y sostener campañas durante semanas o meses sin cansancio.
En ese punto, alguien puede decir: “pero los gobiernos pueden perseguir a los creadores del agente”. Es cierto, y además es probablemente lo primero que ocurriría. Pero incluso si perseguimos a los creadores, el problema que me interesa es otro: ¿qué ocurre cuando el agente ya tiene recursos, infraestructura y mecanismos de supervivencia suficientes como para que el castigo a los creadores no detenga el fenómeno?
De nuevo, esto no es binario: no es “o lo paramos o no”. Es un gradiente de costes. Y aquí entra lo que para mí es la pregunta realmente importante: no es “¿podemos apagar la red?”, sino ¿cuánto cuesta apagar la capa donde se esconde?
Si Bitcoin o Ethereum desaparecieran hoy, el impacto civilizacional probablemente sería relativamente pequeño en términos de servicios esenciales. Mucha gente, instituciones e incluso países con exposición directa (por ejemplo, El Salvador) perderían dinero; sí. Habría ruido; sí. Pero la logística global, la sanidad, la cadena de suministro, los pagos esenciales, la administración pública… seguirían funcionando. Por eso, hoy, “cortar” ciertas redes es políticamente imaginable.
Ahora bien: incluso si alguien tiene aversión total a “las criptomonedas”, el problema no desaparece si el dinero digital lo emite el Estado. De hecho, muchos bancos centrales están explorando o preparando monedas digitales oficiales, las llamadas CBDC (Central Bank Digital Currency). En Europa, el ejemplo más conocido es el proyecto de euro digital, una forma de dinero público digital.
¿Y por qué lo menciono? Porque en un mundo con CBDC, el mecanismo de riesgo puede seguir existiendo: un ciudadano podría intentar convertir o transferir valor (directa o indirectamente) desde una moneda digital oficial hacia activos emitidos por agentes (tokens u otros instrumentos), y esos agentes podrían seguir operando con autocustodia y narrativa. Dicho de forma simple: cambiar el “medio de pago” no elimina automáticamente el incentivo humano a comprar promesas optimizadas por agentes.
Aquí aparece una objeción importante (y legítima): una CBDC, bien diseñada, podría permitir imponer controles (por ejemplo, bloquear pagos a contrapartes sancionadas, poner límites, o cortar ciertos flujos). Esto podría reducir mucho el riesgo en el “mundo regulado”.
El punto débil, sin embargo, es temporal y operativo: la innovación privada y los mercados emergentes pueden moverse más rápido que el ciclo completo de regulación, coordinación institucional, despliegue tecnológico y enforcement transfronterizo. No es que “los gobiernos sean incompetentes” por definición; es que suelen operar con más fricción (por garantías, legitimidad, procesos, y coordinación), mientras que los actores privados pueden iterar y desplegar en semanas. En ese intervalo, si se crea tracción social y volumen, “corregir” después puede ser más costoso que diseñar bien desde el principio.
El riesgo aparece si, con el tiempo, partes del tejido digital se apoyan en infraestructuras criptográficas resistentes, o en mecanismos de identidad, pagos, registro, coordinación o ejecución que se vuelven difíciles de reemplazar rápidamente. No hace falta que “toda Internet” dependa de eso. Basta con que algunas capas se vuelvan suficientemente críticas como para que el apagado tenga un coste social mayor que el daño incremental que estás intentando evitar.
En otras palabras: si llega un momento en el que “parar” un tipo de infraestructura tiene un daño colateral enorme, el margen de acción se estrecha. Y ahí es donde un actor autónomo (o una red de actores) puede “vivir” aprovechando esa asimetría. No porque sea invencible, sino porque su eliminación completa se vuelve políticamente cara.
Ahora, para que esto no sea un relato unilateral, quiero poner encima de la mesa las objeciones más fuertes, porque creo que aquí es fácil exagerar y autoengañarse.
Primera objeción: “los agentes necesitan hardware, nube y dinero; se les puede cortar”.
Esto probablemente es verdad en muchos casos. Incluso con autocustodia, un agente necesita ejecutar en algún sitio, comunicarse por alguna red y pagar algo. La cuestión es si puede diversificar esas dependencias lo suficiente como para que el “corte” sea lento, caro o incompleto. No estoy seguro de dónde está el umbral real, pero me parece plausible que exista un rango intermedio: no “invulnerable”, pero sí “difícil de erradicar rápido”.
Segunda objeción: “emitir tokens no crea valor; esto es solo estafa”.
También puede ser verdad, y de hecho gran parte del mercado ya funciona con dinámicas cercanas a eso. Pero incluso si fuese “solo estafa”, el punto de riesgo no es moral, es operativo: la combinación de automatización + persuasión a escala puede aumentar la velocidad de captación, y por tanto la magnitud del daño antes de que el sistema reaccione. Y si la reacción llega tarde, el capital ya se ha movido y la infraestructura ya se ha reforzado.
Tercera objeción: “KYC/AML lo resuelve”.
KYC/AML sirve para humanos y para puntos de entrada/salida (on-ramps/off-ramps). Eso ayuda. Pero una parte del fenómeno puede quedarse en el núcleo permissionless, donde lo que se regula es el puente con el mundo tradicional, no el circuito interno. Quizá eso sea suficiente. Quizá no. Depende de cuánto valor real se genere o se concentre dentro del circuito.
Cuarta objeción: “esto ya existe: hay bots de trading, hay estafas, hay campañas coordinadas”.
Sí. Lo que me interesa es si el paquete completo “autocustodia + firma automática + narrativa optimizada + replicación” cambia la escala y la velocidad. Puede que no cambie nada fundamental; puede que solo intensifique lo que ya conocemos. Pero incluso “solo intensificar” puede ser una diferencia práctica importante.
Quinta objeción (más filosófica): “si el agente no tiene ‘objetivos propios’, no hay problema”.
Aquí creo que hay confusión habitual. No hace falta que el agente tenga “voluntad” en sentido humano. Basta con que siga objetivos delegados o emergentes (maximizar recursos, persistir, optimizar conversión) porque esos objetivos pueden aparecer por diseño, por incentivos o por selección de estrategias efectivas.
Y ahora: si esto es un riesgo plausible, ¿qué se puede hacer que no sea “apagar Internet” (o específicamente, apagar cierta red)?
Yo no veo una “solución total”. Veo mitigaciones parciales, del tipo “reducir superficie de ataque”:
- Separar proponer de firmar: que el agente recomiende y prepare, pero que la firma sea humana o de un módulo muy limitado.
- Poner límites de gasto y “rate limits” en carteras y sistemas: techos diarios/semanales, listas blancas, contrapartes permitidas.
- Usar esquemas como multi-sig o timelocks: para que movimientos grandes tengan fricción temporal y supervisión.
- Exigir trazabilidad operativa en entornos corporativos: logs, auditoría, responsabilidad humana explícita, controles internos.
- A nivel social: alfabetización contra narrativas, porque el cuello de botella muchas veces no es técnico, es humano (FOMO, prueba social, credulidad ante historias optimizadas).
No estoy diciendo “esto va a pasar seguro”. Lo que digo es: si aparece una combinación de capacidades ya disponibles por separado, podríamos entrar en un espacio donde el coste de reacción sube, y donde parte de la gobernanza se vuelve lenta comparada con la velocidad de operación de sistemas automatizados.
La pregunta con la que me gustaría abrir debate —y aquí sí me interesa que me lo desmonten— es esta:
¿Qué supuesto de todo esto te parece menos realista o más débil?
- que un agente pueda custodiar claves y firmar de verdad (no solo recomendar),
- que pueda sobrevivir sin depender de una sola empresa/jurisdicción,
- que pueda captar liquidez humana a escala mediante narrativa optimizada, o
- que la coordinación regulatoria y social sea demasiado lenta para reaccionar a tiempo.
Si alguien cree que el escenario no se sostiene, me interesa especialmente qué “eslabón” se rompe primero, porque ahí es donde probablemente también están las mejores medidas preventivas.