El principio de estabilidad, inercia y recurrencia

“Solo conocemos en su plena luz una única ley: la de la constancia y la uniformidad. A esta idea simple tratamos de reducir todas las demás, y la ciencia consiste para nosotros, únicamente, en esta reducción”. –Poinsot. Elements de Statique. Paris, 1861, p. 235.

English version

El principio de estabilidad, inercia y recurrencia es el siguiente: Sólo podemos observar cosas que tienen estabilidad, la inercia o la recurrencia. Por tanto, la evolución es un caso particular de una manifestación que podríamos describir como la tendencia de las cosas hacia la estabilidad, la inercia o la recurrencia, y esta tendencia responde a nuestra forma de observar y conceptualizar la realidad.

Es decir, observamos en la realidad una cierta tendencia hacia la estabilidad, la inercia o la recurrencia, pero esto no es necesariamente debido a cómo es la realidad objetivamente, de forma intrínseca, sino a cómo la percibimos nosotros subjetivamente.

¿Porqué? Nosotros solo podemos percibir objetos, y dichos objetos que percibimos, obviamente, tienen que ser identificables, y para ser identificables deben tener alguna cierta estabilidad, inercia o recurrencia.

En este sentido, la evolución (y sus elementos fundamentales como los individuos y las especies) existen por la forma en la que percibimos la realidad. La forma en la que percibimos la realidad nos hace apreciar individuos y especies, y la evolución de las especies. Pero si tuviéramos otra forma de percibir, podríamos encontrar una realidad totalmente distinta (con o sin evolución). El rol del observador es tan relevante que el mundo objetivo podría volverse irrelevante, y el autentico mundo objetivo bien pudiera ser puro azar, siendo todo lo que percibimos resultado de la configuración de nosotros, los intérpretes.

Otra forma de explicar el principio es esta: Hablar de estabilidad, inercia y recurrencia, es equivalente a hablar de funciones matemáticas simples. Si decimos que en el universo se dan con frecuencia la estabilidad, la inercia y la recurrencia, esto es equivalente a decir que en el universo se dan con frecuencia sucesos que se pueden representar mediante funciones matemáticas simples.

Pero esto no quiere decir que el universo sea simple. Lo que ocurre es que a nosotros, seres con una capacidad cognitiva limitada, nos sucede que, cuanto más complejo es un fenómeno, tanto más difícil nos resulta de identificar y percibir. Los objetos que no son simples se nos ocultan por el efecto de la farola encendida.

Debido a este fenómeno, nuestra consideración moral está injustamente limitada, no solo a los objetos que de una u otra forma son parecidos a nosotros, sino que también está injustamente limitada a los objetos que somos capaces de identificar.

La vida como resultado de la evolución parece una fuerza opuesta a la entropía, tal como (tal vez, equivocadamente) se describe y relaciona con la segunda ley de la termodinámica. Bien pudiera ser que la fuerza de la vida fuera más débil de lo que nos parece, ya que según el principio de estabilidad, inercia y recurrencia, fijamos la atención mucho mas en aquello que tiene estabilidad, inercia o recurrencia.

El principio de estabilidad, inercia o recurrencia tiene su origen en nuestra forma de percibir y razonar: todas las cosas son estables, recurrentes, o poseen inercia (al menos en cierto grado) porque todas las cosas que somos capaces de percibir o imaginar son estables, recurrentes, o con inercia. No somos capaces de manejar un concepto que no posea estabilidad, inercia o recurrencia porque el hecho de “manejar un concepto” obliga a identificar dicho concepto mediante el contraste (la oposición) con el resto del universo real o imaginario, y este contraste debe ser definido mediante algún criterio.

La descripción del principio en el libro “Arena Sensible”

Pág. 61:

En mi opinión la inducción podemos interpretarla como un caso particular de un concepto aun más simple y poderoso para el que no encuentro una denominación adecuada, tal vez se podría llamar el principio de la homogeneidad, de la redundancia o de la compresibilidad, según el cual cualquier cosa o suceso existente debe tener alguna uniformidad. Esta cierta uniformidad es la que, si dicho objeto fuese interpretado únicamente como información, permitiría comprimirlo sin perder por ello sus propiedades. Es decir, que todo objeto o suceso debe ser en algún aspecto redundante, estable, (o ser recurrente, o compresible, o poseer una inercia) de forma que dicha estabilidad permita que el objeto sea identificado como tal. No se trata de que un observador identifique el objeto para que éste adquiera existencia -aunque podría ser necesario-, sino de que no parece que tenga sentido reconocer la existencia de un supuesto objeto sobre el cual ningún observador será nunca capaz de realizar una observación, y con el que es imposible interactuar, ya que no existe ningún aspecto uniforme relativo a ese objeto que pueda hacer que el objeto pueda ser reconocido como tal, es decir, pueda tener entidad propia, como contraposición a observar caos o a interactuar con otra cosa, pero no con ese objeto[1].

[1] Intentaré explicarlo con un ejemplo. Existen algoritmos capaces de tomar una imagen de un árbol en un formato llamado mapa de bits, y comprimirla en un archivo informático de menor tamaño, sin perder por ello calidad, gracias a que los programas compresores encuentran regularidades en las imágenes. Pero al comprimir la imagen perdemos el árbol. No hay forma de ver el árbol sin descomprimir la imagen. Al perder regularidad, el objeto ha perdido la entidad de árbol -aunque se trata de algo reversible en este caso-.

***

Pág. 142:

La evolución es un equilibrio entre dos tendencias deseables y contradictorias y podemos interpretarla como un caso particular de un concepto aun más simple y poderoso que se podría llamar el principio de “estabilidad, inercia o recurrencia”.

Las leyes de la evolución se pueden explicar con un chiste malo. Una enfermedad que produzca esterilidad difícilmente podrá ser hereditaria. De forma similar, una menor adaptación al medio suele ir acompañada de una menor reproducción, lo que supone una menor propagación genética de esa falta de adaptación (si es que ésta se puede almacenar genéticamente). Una mayor adaptación al medio se asociará en muchos casos a una mayor reproducción, y se propagará si existe una vía genética para ello.

Otro ejemplo: muchos animales acostumbran a realizar un “mordisco amoroso” como parte del ceremonial de la cópula. Pero, por ejemplo, las serpientes venenosas no lo hacen. Si lo hicieran, los machos pronto habrían acabado con todas las hembras, envenenándolas. La evolución sólo permite “sobrevivir” a aquellos esquemas (modos de vida, genes, especies, costumbres) que son “autoconsistentes”, “no autodestructivos”, que tienen una tendencia a mantenerse vivos.

Por otra parte, la evolución puede entenderse como una maquinaria de optimización que, para resolver problemas, busca un equilibrio entre dos tendencias:

  • Fuerza conservadora, egoísmo, explotación, convergencia más rápida hacia una solución, muerte, “derecha conservadora”, uniformidad, inversión de rentabilidad “asegurada”, deuda pública o renta fija pública (bonos y obligaciones del estado, letras del tesoro).
  • Fuerza innovadora, altruismo, exploración, exploración más a fondo del espacio de búsqueda, nacimiento, “izquierda progresista”, diversidad, inversión especulativa, muy arriesgada (grandes beneficios, grandes pérdidas).

Ambas tendencias son deseables y contradictorias, por lo que se ha de llegar a un compromiso. A este compromiso se le podría llamar:

  • Fuerza equilibradora, cooperación, optimización, óptimo en la relación calidad/coste o grado de penetración óptimo, control de natalidad, “centro”, armonía, proporcionalidad, inversión conservadora o “razonable”, de poco riesgo (renta fija privada, valores “seguros”).

Existe una fuerza conservadora (explotación-egoísmo), que beneficia a los mejores agentes, es decir, a los que mejor resuelven problemas. Esto es evidente, pero no es lo único. También existe una fuerza innovadora (exploración-altruismo), que permite la existencia de agentes muy distintos, aún cuando su éxito sea menor.

Mediante la fuerza innovadora es posible obtener la variedad suficiente para evitar una población demasiado especializada (estancada en un máximo local), y permitir la resolución de problemas cambiantes o con varios máximos.

Los fuertes son necesarios para resolver el problema ahora. Los débiles son necesarios para resolver el problema de mañana, o para resolver el mismo problema de hoy, pero con un planteamiento distinto, tal vez mucho mejor. Los adaptados son conservadores. Los inadaptados, en cambio, necesitan innovar para sobrevivir.

***

Pág. 145:

La evolución de los seres vivos o de los seres vivos artificiales podemos interpretarla como un caso particular de un concepto aun más simple y poderoso que se podría llamar el “principio de estabilidad, inercia o recurrencia”.

Una forma de explicar este principio es la siguiente: cualquier cosa existente es probablemente estable ya que, si no fuera estable, probablemente desaparecería como tal cosa, ya que cambiaría hasta llegar a un estado estable, y ya no sería esa “cosa” sino otra (estabilidad). Cualquier cosa existente probablemente siga existiendo como ya lo está haciendo (inercia). Si tenemos una “cosa” que varía continuamente, entonces es estable en su variación continua, y la esencia de la cosa es la forma -constante- en que se producen los cambios (recurrencia).

***

Siendo x el dato y t el tiempo, la estabilidad la podemos representar matemáticamente como:

 

x(t) = x(t-1)

 

Por ejemplo, esto podría representar lo siguiente: “En el instante de tiempo t, el gato está dormido. En el instante de tiempo t+1, el gato sigue dormido.” La variable independiente podría no ser el tiempo. Por ejemplo: “En la cocina (t) hay pelos de gato. En el pasillo (t+1) también hay pelos de gato.”

 

La inercia, por ejemplo, como:

 

x(t) = x(t-1) + 23

 

Por ejemplo, esto podría representar lo siguiente: “Ayer el gato pesaba 837 gramos. Hoy el gato pesa 860 gramos.” Si t es el espacio, podríamos decir: “En la cocina hay 837 pelos de gato. En el pasillo hay 860.”

 

Y la recurrencia (estados alternados) podría ser:

 

x(t) = 1 / x(t-1)

 

Por ejemplo, esto podría representar: “El gato inspira, luego expira, luego inspira, luego expira.” Si t es el espacio, podría ser: “Aquí hay una garra de gato. Aquí no. Aquí sí. Aquí no.”

 

Existe el problema de definir qué son funciones matemáticas simples. ¿Es el seno una función simple? ¿Es simple porque bastan tres letras para describirla?

 

y = sen(x)

 

Podríamos representar como FuncionComplicada una función tan complicada como queramos:

 

FuncionComplicada = sen(x) * Sqr(123,75)

 + xLn (x / 2432) - 23 * Tan(SQR(sen(x - 4)))

 

Una vez establecido esto, ¿cuál de estas dos funciones es más complicada?

 

y = x / (sen(x) * 3) – 17

y = FuncionComplicada + 1


Depende de lo que consideremos como los elementos básicos a utilizar para componer las expresiones. Pero supongamos que disponemos de alguna forma de asignar un grado de complejidad a cada operación. De hecho, los estudiantes de matemáticas tienen su propia escala de complejidad de las operaciones: la suma es muy sencilla, la resta casi tan sencilla como la suma. La multiplicación y división son también bastante sencillas, aunque más complejas que suma y resta. Sen, Sqr, Ln, etc. entran en otra categoría de complejidad.

No creo que sea casualidad que existan tantos fenómenos del Universo que puedan representarse mediante las más simples funciones en matemáticas. Podemos aventurar tres hipótesis:

  • Hipótesis del Universo informacional: Si suponemos que todo el Universo puede ser considerado como información, es decir, si suponemos que todo el Universo es un gran sistema formal, discreto, entonces, por analogía, su comportamiento más probable corresponderá con los comportamientos más probables en otros sistemas formales: matemáticas, lenguajes de programación, ordenadores, máquinas de Turing.
  • Hipótesis del efecto de la distancia: La existencia de dimensiones espaciales (la existencia de la cercanía) en oposición a una interconexión masiva de toda la materia del Universo (toda la materia igualmente próxima a toda la materia) atenúa la interacción en la distancia y produce con mayor probabilidad, funciones más simples. Ejemplos de excepciones a esto podrían ser sistemas que aunque están constituidos de materia física, su comportamiento lógico ignora las distancias entre sus elementos componentes, o establece espacios lógicos con otro tipo de distancias, como las redes neuronales artificiales o naturales, que poseen interconexión masiva, y los sistemas de reglas (sistemas expertos…).
  • Hipótesis subjetiva: La mayoría de los fenómenos del Universo se pueden representar mediante funciones matemáticas simples, porque para nosotros lo más fácil es entender funciones matemáticas simples. El hecho de ser simple es algo subjetivo. Vemos lo simple porque es lo que más fácilmente vemos, no porque sólo exista lo simple. Hay también fenómenos que se pueden representar mediante funciones matemáticas complejas, pero esto nos resulta más complejo, así que lo hacemos con dificultad. Creemos que no existen los fenómenos del Universo que se pueden representar con funciones matemáticas tan complejas que no llegamos a ser capaces de manejarlas, pero lo que ocurre es que no somos capaces de manejarlas.

 

Origen de la idea

El “principio de estabilidad, inercia y recurrencia” fue publicado por primera vez en el año 2002 en la revista REDcientífica en esta dirección (ahora inaccesible):

www.redcientifica.com/doc/doc200205200001

y después disponible en esta nueva dirección, me temo que inaccesible nuevamente:

http://www.redcientifica.org/evolucion_estabilidad_inercia_y_recurrencia.php

y también en el libro “Arena Sensible”, publicado en 2005, donde se menciona varias veces.

El principio ha sido citado en:

El principio de estabilidad, inercia y recurrencia podría considerarse otro argumento contra la navaja de Ockham.

 

Descripciones a alto nivel

Metafóricamente, hay una primera fuerza, en el nivel más bajo, que es la entropía (leyes de la física), que intenta crear desorden (uniformidad global, aleatoriedad); contra una segunda fuerza, en un nivel superior, paradójicamente consecuencia del nivel anterior, que es la vida (uniformidad local, evolución, replicación), cuyo objetivo es crear orden (diferencias, estructuras). En medio de esta batalla, se une otra tercera fuerza, que puede ser el resultado del nivel anterior, que es la sensibilidad (sintiencia), que tiene la intención de crear disfrute evitando el sufrimiento.

Podemos ver estas tres fuerzas metafóricas en acción en nosotros mismos y en nuestro universo, luchando entre nosotros. El primero busca la uniformidad, a expensas de la muerte. El segundo busca mantener la unicidad, a expensas del sufrimiento. El tercero busca la felicidad. ¿Cómo va la partida? ¿Quién va a ganar?

Cada fuerza está mejorando a su propio nivel. La primera fuerza comenzó muy mal, tal vez en la peor situación posible (Big-bang), pero mejora rápidamente. La segunda fuerza está tratando de convertir toda la materia en materia viva, y acaba de comenzar, pero lo está haciendo muy bien. Nosotros, los seres sensibles (sintientes), estamos quizás, en nuestro propia Big-bang de sensibilidad (sintiencia), todavía llenos de sufrimiento, pero esperemos que dirigiéndonos hacia la felicidad absoluta.

La primera y la segunda fuerza son en realidad las mismas: las leyes de la física. Y hay una situación en la que ambos ganan, cuando toda la materia es materia viva. Lo siguiente que debe ocurrir para que las tres fuerzas ganen al mismo tiempo, es que toda la materia sea materia viva feliz.

Posted by Manu Herrán

Founder at Sentience Research. Associate at the Organisation for the Prevention of Intense Suffering (OPIS).

Leave a Reply

Your email address will not be published. Required fields are marked *