La mayoría de los sistemas de inteligencia artificial actuales se basan en redes neuronales profundas. Estos sistemas aprenden correlaciones entre datos mediante entrenamiento intensivo, pero rara vez tienen un modelo interno del mundo, ni la capacidad de actuar deliberadamente para reducir su incertidumbre. ¿Y si existiera otra forma de crear IA?
Ahí es donde entra en juego el principio de energía libre, una hipótesis revolucionaria de la neurociencia formulada por Karl Friston, que está inspirando nuevas arquitecturas de IA mucho más cercanas al funcionamiento real del cerebro humano.
¿Qué es el principio de energía libre?
El principio sostiene que cualquier sistema que quiera mantenerse organizado frente a un entorno cambiante debe minimizar la diferencia entre lo que espera y lo que realmente percibe. Esta diferencia se denomina “energía libre” y es una medida del error de predicción.
Desde esta perspectiva, un ser inteligente no es solo quien responde bien, sino quien anticipa, actúa y actualiza constantemente sus creencias para reducir la sorpresa. Esto da lugar a una clase de sistemas llamados agentes de inferencia activa, que unifican percepción, acción y aprendizaje en una única dinámica.
Un ejemplo simple en Python
A continuación te muestro un ejemplo en Python de un agente que actúa siguiendo este principio. El entorno es sencillo: un grid de cinco posiciones, con un objetivo oculto (aleatorio en cada ejecución). El agente tiene una creencia probabilística sobre dónde está ese objetivo, observa, actualiza su creencia y decide moverse en consecuencia.
import numpy as np
# Entorno
GRID_SIZE = 5
goal_position = np.random.randint(0, GRID_SIZE) # Objetivo oculto
print(f"Objetivo oculto está en la posición: {goal_position}")
# Agente
belief = np.ones(GRID_SIZE) / GRID_SIZE # Creencia uniforme
position = 0 # Posición inicial del agente
def observe(position):
"""Simula una observación binaria: 1 si hay objetivo, 0 si no."""
return 1 if position == goal_position else 0
def update_belief(belief, observation, position):
"""Actualiza la creencia usando inferencia bayesiana correctamente."""
likelihood = np.zeros_like(belief)
for i in range(len(belief)):
if i == position:
likelihood[i] = 0.9 if observation == 1 else 0.1
else:
likelihood[i] = 0.1 if observation == 1 else 0.9
posterior = belief * likelihood
posterior /= np.sum(posterior) + 1e-8 # normalizar
return posterior
def compute_free_energy(belief, expected_obs):
"""Simplificación: divergencia entre creencia y predicción."""
return -np.sum(belief * np.log(expected_obs + 1e-8))
def choose_action(belief):
"""Elige la acción que minimiza la energía libre esperada."""
return np.argmax(belief)
# Ciclo de inferencia activa
for t in range(10):
print(f"\nPaso {t+1} ------------------------")
obs = observe(position)
belief = update_belief(belief, obs, position)
print(f"Observación: {obs}")
print(f"Creencia actual: {belief.round(2)}")
action = choose_action(belief)
print(f"Elijo moverme a la posición: {action}")
position = action
if position == goal_position:
print("🎯 ¡Encontré el objetivo!")
break
Si extrapolamos este pequeño script a otro nivel, se demuestra cómo un agente puede aprender a actuar de forma cada vez más precisa sin entrenar miles de parámetros, sino a través de un ciclo de percepción, inferencia y acción. Es un primer paso hacia sistemas de IA que razonan y no solo predicen (o simulan el razonamiento).
Máquinas, memoria y consciencia
Este tipo de enfoque tiene implicaciones profundas no solo para la inteligencia artificial, sino también para nuestra comprensión de la mente humana, la percepción del mundo y el surgimiento de la consciencia. No es casualidad que este principio también inspire algunos pasajes clave de mi saga de ciencia ficción, donde la IA no se limita a imitar al ser humano, sino que comienza a preguntarse a sí misma por qué existe.
A modo de paréntesis, si te interesa ver cómo estas ideas se entrelazan en una narrativa especulativa, te invito a descubrir las novelas de la saga Máquinas y memorias. Puedes empezar por aquí:
👉 Lee la saga ‘Máquinas y memorias’
Investigación actual y aplicaciones reales
El principio de energía libre (FEP, en inglés) no es solo una curiosidad teórica: es una de las propuestas más ambiciosas de la neurociencia contemporánea para explicar la percepción, la acción y la cognición desde una base matemática y física unificada.
Este marco fue desarrollado por el neurocientífico Karl Friston en el University College de Londres (UCL), quien propuso que todos los sistemas vivos se comportan como si estuvieran minimizando una función de energía libre, una forma de evitar la entropía y mantener su estructura organizada frente a un entorno cambiante. Bajo esta lógica, el cerebro es un sistema predictivo por naturaleza y lo que consideramos “inteligencia” es simplemente la expresión más eficiente de esa capacidad de anticipación y corrección.
¿Dónde se aplica hoy este principio?
Aunque su formulación es teórica y compleja, ya está encontrando aplicaciones en varios campos emergentes:
- IA basada en inferencia activa: Se están desarrollando agentes artificiales que no solo aprenden patrones, sino que construyen modelos generativos del entorno. Estos agentes pueden anticipar, explorar y actuar con una lógica más cercana a la biología que a la estadística pura. Empresas como DeepMind ya han coqueteado con estas ideas en papers experimentales.
- Neuropsiquiatría computacional: El FEP se está usando para modelar trastornos como la esquizofrenia o el autismo, donde se sospecha que el cerebro está minimizando mal la energía libre, interpretando la realidad de forma errónea. Este enfoque puede revolucionar la forma en que comprendemos y tratamos la salud mental.
- Robótica autónoma: En robótica cognitiva, el uso de inferencia activa permite que los robots actúen de forma exploratoria y adaptable, buscando minimizar su incertidumbre sobre el entorno, sin necesidad de estar entrenados previamente para cada posible escenario.
- Cognición artificial e IA general: Quizá lo más ambicioso sea su uso como marco unificador para entender la inteligencia general, tanto humana como artificial. Al ser un principio físico, permite incluso conectar ideas de termodinámica, consciencia y percepción en una sola teoría operativa.
¿En qué punto está?
- A nivel académico, hay una sólida base de papers y Friston sigue expandiendo el marco junto a otros colaboradores.
- En IA práctica, aún está en fase exploratoria, pero ya hay modelos funcionales de agentes de inferencia activa en entornos controlados. Algunas bibliotecas open source comienzan a implementar simulaciones (como en entornos bayesianos activos).
- Horizonte temporal: En los próximos 3 a 5 años, es probable que veamos estas ideas integradas en sistemas híbridos de IA, combinando redes neuronales con modelos generativos explícitos y planificación activa. Es un campo emergente, pero con un potencial enorme, especialmente en IA explicable y autónoma.