Cuando el empirismo adelanta a la comprensión: de la mecánica cuántica a la IA

Recreación de una reunión apócrifa entre Einstein, LeCunm, y Hinton en Madrid

Cuando se compara la situación actual en torno a la inteligencia artificial con la vivida por los pioneros de la mecánica cuántica hace un siglo, se suele tirar la paralela de que ambos entornos evolucionaron mucho muy rápidamente. Hace un siglo se revolucionó la comprensión del universo a través de la física, y ahora se está viendo nacer una nueva forma de hacerlo prácticamente todo a través de los ordenadores. En ambos casos, mucho cambio, y muy rápido.

Algo de eso hay. Pero el paralelismo va más allá de la sucesión constante de pequeños avances.

O dicho de otra forma, hay similitudes en lo que vemos, y hay similitudes en lo que no entendemos. Un aspecto que une a ambos temas son las incógnitas, la falta de teoría acerca de por qué vemos lo que vemos.

La mecánica cuántica y las redes neuronales que permiten ese deep learning funcionan. La realidad es que funcionan. Pero en ambos casos no entendemos por qué funcionan.

Mecánica cuántica y el colapso de la certeza

Hace un siglo, la falta de explicación teórica derivó en ese célebre duelo entre Niels Bohr y Albert Einstein (con todos los grandes de la cuántica de fondo, claro, pero el relato siempre necesita protagonistas concretos). El desacuerdo era fundamental: el colapso de la función de ondas, esa abstracción matemática que nos permite evaluar el mundo a nivel subatómico.

No me puedo meter ahora demasiado a fondo con los detalles, pero piensen en el gato de Schrödinger: en la incapacidad de saber si está vivo o muerto hasta que abrimos la caja. Mirar es lo que elimina la probabilidad y nos da una certeza; dejamos de preguntarnos si el gato vive o muere para, sencillamente, saberlo. El problema es que, volviendo al mundo subatómico, un siglo después seguimos sin saber por qué colapsa esa función. Paradójicamente, con la mecánica cuántica lo que colapsa es cierta certeza.

La buena noticia es que, aunque la teoría esté incompleta, funciona. Todo el progreso científico-técnico del último siglo se ha construido sobre los hombros de una cuántica que no comprendemos del todo.

Redes neuronales y el empirismo por delante de la razón

A estas alturas ya sabrán a dónde voy. Durante setenta años, la teoría matemática ha ido por delante en el aprendizaje automático. Los científicos probaban cálculos y desarrollos amparados por una teoría matemática que les iba dando la razón. Estaban, como el padre de Tony Stark, limitados por la tecnología de su tiempo, pero eso era todo. Intuían a donde podían ir, porque la teoría numérica estaba ahí.

Excepto ahora.

El tipo de aprendizaje de las redes neuronales que usamos en este 2026 no se puede explicar con la teoría disponible. Podemos ver cómo funcionan, pero no razonarlos con las matemáticas existentes. Es el mismo escenario que el de la cuántica: resultados empíricos sin una base teórica suficiente.

Grosso modo, la teoría clásica predice dos destinos:

  • Modelo subajustado: El que comete errores pero infiere con cierta dignidad.
  • Modelo sobreajustado: El que se aprende los datos de memoria y los recita sin más, pero es muy frágil infiriendo un resultado a partir de datos para los que no se ha entrenado.

Las nuevas redes exhiben un tercer comportamiento no previsto por la teoría disponible: a cierta escala de datos y entrenamiento, minimizan el error y, a la vez, infieren mejor que nunca. No sabemos por qué. Es como cuando Rutherford y Bohr sospechaban que por debajo del átomo debían regir leyes que no eran las de la mecánica clásica.

Opiniones enfrentadas: ¿teoría o práctica, qué hacer?

Esto divide a la comunidad de científicos. Están quienes dicen que es urgente e importante entender bien qué está pasando «por debajo» (del mismo modo que Einstein defendía seguir desarrollando la teoría pues la explicación disponible era insuficiente).

Y luego están quienes dicen que si ya hay resultados, dedicar esfuerzos a buscar la explicación teórica es un freno para el avance. Que al final lo que cuenta es que el resultado empírico es bueno y que esa inferencia que no entendemos es inofensiva (estos son quienes se alinearían con Bohr y su grupo de Copenhage).

Fundamentalmente inofensiva añadiría yo, homenajeando a Douglas Adams, que siempre he pensado que Einstein sigue teniendo razón y que nos vendrían bien algunas buenas ideas para explicar ciertas cosas.

[Imagen. Recreación de una amigable quedada apócrifa de Albert Einstein, Yann LeCun, y Geoffery Hinton en Madrid, para hablar de sus cosas. Por Jose Alcántara usando ChatGPT.]

Jose Alcántara
Resolviendo problemas mediante ciencia, software y tecnología. Hice un doctorado especializado en desarrollo de hardware para análisis químico. Especialista en desarrollo agile de software. Más sobre Jose Alcántara.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad