Cuando el empirismo adelanta a la comprensión: de la mecánica cuántica a la IA

Recreación de una reunión apócrifa entre Einstein, LeCunm, y Hinton en Madrid

Cuando se compara la situación actual en torno a la inteligencia artificial con la vivida por los pioneros de la mecánica cuántica hace un siglo, se suele tirar la paralela de que ambos entornos evolucionaron mucho muy rápidamente. Hace un siglo se revolucionó la comprensión del universo a través de la física, y ahora se está viendo nacer una nueva forma de hacerlo prácticamente todo a través de los ordenadores. En ambos casos, mucho cambio, y muy rápido.

Algo de eso hay. Pero el paralelismo va más allá de la sucesión constante de pequeños avances.

O dicho de otra forma, hay similitudes en lo que vemos, y hay similitudes en lo que no entendemos. Un aspecto que une a ambos temas son las incógnitas, la falta de teoría acerca de por qué vemos lo que vemos.

La mecánica cuántica y las redes neuronales que permiten ese deep learning funcionan. La realidad es que funcionan. Pero en ambos casos no entendemos por qué funcionan.

Mecánica cuántica y el colapso de la certeza

Hace un siglo, la falta de explicación teórica derivó en ese célebre duelo entre Niels Bohr y Albert Einstein (con todos los grandes de la cuántica de fondo, claro, pero el relato siempre necesita protagonistas concretos). El desacuerdo era fundamental: el colapso de la función de ondas, esa abstracción matemática que nos permite evaluar el mundo a nivel subatómico.

No me puedo meter ahora demasiado a fondo con los detalles, pero piensen en el gato de Schrödinger: en la incapacidad de saber si está vivo o muerto hasta que abrimos la caja. Mirar es lo que elimina la probabilidad y nos da una certeza; dejamos de preguntarnos si el gato vive o muere para, sencillamente, saberlo. El problema es que, volviendo al mundo subatómico, un siglo después seguimos sin saber por qué colapsa esa función. Paradójicamente, con la mecánica cuántica lo que colapsa es cierta certeza.

La buena noticia es que, aunque la teoría esté incompleta, funciona. Todo el progreso científico-técnico del último siglo se ha construido sobre los hombros de una cuántica que no comprendemos del todo.

Redes neuronales y el empirismo por delante de la razón

A estas alturas ya sabrán a dónde voy. Durante setenta años, la teoría matemática ha ido por delante en el aprendizaje automático. Los científicos probaban cálculos y desarrollos amparados por una teoría matemática que les iba dando la razón. Estaban, como el padre de Tony Stark, limitados por la tecnología de su tiempo, pero eso era todo. Intuían a donde podían ir, porque la teoría numérica estaba ahí.

Excepto ahora.

El tipo de aprendizaje de las redes neuronales que usamos en este 2026 no se puede explicar con la teoría disponible. Podemos ver cómo funcionan, pero no razonarlos con las matemáticas existentes. Es el mismo escenario que el de la cuántica: resultados empíricos sin una base teórica suficiente.

Grosso modo, la teoría clásica predice dos destinos:

  • Modelo subajustado: El que comete errores pero infiere con cierta dignidad.
  • Modelo sobreajustado: El que se aprende los datos de memoria y los recita sin más, pero es muy frágil infiriendo un resultado a partir de datos para los que no se ha entrenado.

Las nuevas redes exhiben un tercer comportamiento no previsto por la teoría disponible: a cierta escala de datos y entrenamiento, minimizan el error y, a la vez, infieren mejor que nunca. No sabemos por qué. Es como cuando Rutherford y Bohr sospechaban que por debajo del átomo debían regir leyes que no eran las de la mecánica clásica.

Opiniones enfrentadas: ¿teoría o práctica, qué hacer?

Esto divide a la comunidad de científicos. Están quienes dicen que es urgente e importante entender bien qué está pasando «por debajo» (del mismo modo que Einstein defendía seguir desarrollando la teoría pues la explicación disponible era insuficiente).

Y luego están quienes dicen que si ya hay resultados, dedicar esfuerzos a buscar la explicación teórica es un freno para el avance. Que al final lo que cuenta es que el resultado empírico es bueno y que esa inferencia que no entendemos es inofensiva (estos son quienes se alinearían con Bohr y su grupo de Copenhage).

Fundamentalmente inofensiva añadiría yo, homenajeando a Douglas Adams, que siempre he pensado que Einstein sigue teniendo razón y que nos vendrían bien algunas buenas ideas para explicar ciertas cosas.

[Imagen. Recreación de una amigable quedada apócrifa de Albert Einstein, Yann LeCun, y Geoffery Hinton en Madrid, para hablar de sus cosas. Por Jose Alcántara usando ChatGPT.]

«No estamos sacando partido a la IA»: la estructura de las organizaciones se está comiendo el aumento de productividad

Desde hace un tiempo en mi día a día no programo tanto como me gustaría, y dedico una buena parte de mi tiempo a gestionar “equipos de equipos” de desarrollo.

Es un tema que tiene su gracia porque la escala es la maldición del software moderno: la mayor parte del software que entregamos requiere mucho más de los míticos uno o dos equipos a los que podemos dar de comer con unas pocas de pizzas familiares. La escala es fricción, es ruido y, sobre todo, es lentitud.

La paradoja de la productividad con la IA (sin anestesia)

La productividad individual se ha multiplicado gracias a la IA, pero en la mayoría de las organizaciones eso no se traduce en entregar valor más rápido al usuario. Es el gran engaño de nuestro tiempo.

Tener un borrador para cualquier idea es ahora instantáneo, los análisis son más finos, y estamos automatizando todo. El código también se produce más rápido que nunca antes. Sí, sí, pero ¿está notándose realmente de cara a tus clientes? Me temo que no.

Una verdad incómoda: el aumento de productividad individual se disipa en la complejidad organizativa.

Tú haces tu parte más rápido que nunca solo para que se muera de asco durante días (o semanas) en el limbo de las dependencias, esperando que otros equipos te abran paso para releasear. El tiempo total para completar una tarea raramente es tiempo programanado. La mayor parte se pasa como tiempo esperando.

Cuando los tiempos de esperan dominan, la IA da a tus programadores satisfacción personal pero no da a tu empresa ventaja competitiva. El rendimiento individual ha explotado, pero si tu estructura no sabe canalizar esa energía, solo estás quemando dinero más rápido. Ahora con tokens en Anthropic.

El rendimiento individual ha explotado, pero es imprescindible crear una organización que sea capaz de sacar partido a esa ganancia.

La velocidad individual no equivale a velocidad de la organización. Esto no es nuevo, lo que pasa es que ahora da mucho más el cante.

Antes la ineficiencia organizativa quedaba enmascarada por la lentitud de implementación. Pero con la IA es más obvio que nunca que el verdadero cuello de botella ya no es la tecnología, sino la estructura de la organización.

Y esto solo va a ir a peor. La velocidad de ejecución se está convirtiendo en el único factor de supervivencia. No me malinterpretéis: la excelencia técnica sigue siendo necesaria, pero sin velocidad de ejecución, estarás fuera del mercado antes de que tu código elegante tenga siquiera la oportunidad de competir.

Esto tampoco es nuevo. ¿Recordáis a la famosa ballena de Twitter? Era la forma graciosa de decirnos que el servidor había reventado. Salía constantemente. Pero, ¿recordáis a alguno de sus miles de competidores que jamás fallaban? No. Se los tragó la historia. En 2026, esa tendencia es una ley física.

La ley de Conway: produces software del modo en que te organizas

¿Cómo hacerlo? Aplicando lo que ya sabemos:

  • Minimizar dependencias entre equipos (aplicando principios como Domain-Driven Design para reducir la fricción)
  • Equipos end-to-end. en el límite de eliminar dependencias, genera equipos con potestad end-to-end sobre su dominio de negocio
  • La organización y sus déficits como ciudadanos de primera. Afrontando los problemas organizativos como problemas de primer orden, por más que las personas en la organización tiendan a resistirse

El señor de la foto de abajo es Melvin Conway. Uno de esos tipos mucho más listos que yo a los que conviene escuchar.


Melvin Conway es un matemático e informático. Desarrolló el concepto de corutinas (permitiéndonos suspender la ejecución de una aplicación, algo que ahora damos por sentado) y fue el primero en aplicar el concepto de un ensamblador. Izquierda. Melvin Conway en 1968 (un año después de acuñar lo que conocemos como Ley de Conway). Derecha. Aproximadamente en 2015.


La ley de Conway en acción

Melvin Conway observó que “las organizaciones diseñan sistemas que reflejan sus estructuras comunicativas”.

Si tus equipos se organizan en silos aislados, tu software será un pastiche de piezas inconexas. La IA hace a los individuos más rápidos, pero si tu diseño organizativo genera fricción, esa velocidad muere en el foso de la comunicación interna.

¿Externalizas? Entonces la productividad se la queda otro

Además del diseño organizativo, hay un elefante en la habitación que explica por qué no ves ese supuesto incremento de velocidad: la productividad se la está quedando tu proveedor.

Si tienes parte de tu desarrollo externalizado y no notas que avancen más rápido, pueden estar pasando muchas cosas. Pero asume la más probable: sí que trabajan más rápido, solo que tú no estás invitado a la fiesta.

En el mundo de los contractors, el incentivo es perverso. El objetivo básico del proveedor es que sigas confiando en él, claro. Pero el objetivo real es tener a todos sus consultores facturando al 100%. Un consultor libre es dinero que dejan de ganar y un riesgo de fuga de talento.

De modo que, si sus desarrolladores ahora son un 30% más rápidos gracias a la IA, ese margen no te lo van a regalar en forma de entregas más tempranas. Lo van a diluir: una gota de «QA extra» por aquí, un poco de procesos internos por allá. O sin más rodeos, van en mejorar su propio margen de beneficio. La renta derivada de la IA la captura quien se remanga para producir el software.

La mentalidad de MBA, en jaque

Sé que esto choca frontalmente con la mentalidad de MBA, esa obsesión por optimizar el uso de recursos y cuadrar presupuestos de costes estructurales frente a gasto en servicios. Pero siento ser yo quien te dé la mala noticia: en el desarrollo de software, the times the are a-changing y las reglas de negocio también.

Últimamente oímos casos de empresas que están internalizando procesos que antes delegaban en SaaS o en terceros. Es el mismo movimiento defensivo: si quieres capturar el valor que genera la IA, tienes que poseer el medio de producción.

Entiendo las ventajas fiscales y operativas de externalizar, pero si quieres ver un impacto real en tu cuenta de resultados gracias a la IA, quizá debas replantearte ese equilibrio entre lo interno y lo externo. Lo que tú no seas capaz de construir por ti mismo, lo vas a tener que pagar a precio de oro, aunque al proveedor le cueste la mitad que hace dos años.

Ni era dorada del vibe coding ni leches: o recuperas el control de tu desarrollo, o estarás subvencionando la eficiencia de otros.

¿Qué nos llevamos de todo esto?

La IA ya es una commodity. Todo el mundo la tiene, no te hace especial. Los ganadores van a ser quienes sepan combinar esa aceleración con agilidad organizacional real.

Entender y abrazar la Ley de Conway es lo que permite que la IA tenga un impacto real de cara al usuario. La pregunta ganadora no es “¿cuántas líneas de código puedo generar yo hoy?” (ya sabemos que podemos generar todas las que hagan falta), sino “¿cuánto tardamos, como equipo, en poner esta idea en manos del cliente?”.

Dos lecturas complementarias para entender dónde estamos con la IA

Una nota breve para comentar un par de lecturas recientes. Estas últimas semanas he dedicado tiempo a dos libros sobre inteligencia artificial que me han dejado buen sabor de boca, aunque por motivos radicalmente distintos.

El primero es Co-intelligence, de Ethan Mollick (Amazon). Un clásico reciente que tenía en la lista de pendientes desde hace tiempo. Podríamos decir que es la lectura ligera de esta pareja; un texto escrito pensando específicamente en los humanos que vamos a usar estas herramientas (¡los humanos en el bucle!). Al final, eso nos incluye a todos: no hay escapatoria posible a la IA y, desde luego, no podemos desinventarla.

Lo mejor de Mollick es que el libro no contiene ni una sola ecuación, lo que lo hace apto para todos los públicos. Al no perderse en analizar la última novedad técnica de tal o cual modelo, también ha conseguido sobrevivir dignamente al paso del tiempo (recordemos que fue escrito en 2023). No hace falta ser un nerd para extraer ideas valiosas aquí. De hecho, su mayor fortaleza reside en su aproximación fenomenológica: intenta entender cómo nos relacionamos con esta tecnología y qué efectos produce en nosotros. Me ha parecido una lectura sosegada, algo que se agradece en un entorno que suele pendular entre el hype más absurdo y el pánico sensacionalista.

Por otro lado, he terminado Why Machines Learn, de Anil Ananthaswamy (Amazon). Este es un viaje por la historia del machine learning, desde los orígenes de la computación hasta nuestros días. Pero aquí sí hay matemáticas. Muchas. Es, definitivamente, la lectura densa y no es apta para muggles. Incluso si decides saltarte las codas matemáticas, el cuerpo del texto sigue siendo exigente. Con todo, si en algún momento de vuestra vida le disteis duro al álgebra, no os asustéis; no es nada que no hayáis visto en la universidad. Eso sí, poneos el cinturón.

El recorrido desde las primeras neuronas artificiales hasta el deep learning, desgranando los algoritmos que durante 70 años han permitido construir lo que hoy tenemos entre manos, es una auténtica pasada. Lo he disfrutado de principio a fin. Estoy seguro de que volveré a traer este libro a próximas reflexiones, porque conecta rabiosamente bien con temas que ya hemos tocado por aquí como aquella charla sobre cuántica y filosofía a raíz de What is Real y refuerza esa idea de que las revoluciones tecnológicas se cocinan a fuego mucho más lento de lo que nuestra miopía cortoplacista nos permite ver.

A hombros de gigantes electromecánicos: lo que el ajedrez nos enseñó sobre la inteligencia artificial

Me gusta el ajedrez. Si eres más joven que yo seguramente pienses que menudo nerd estoy hecho. Debe ser generacional. Crecí en un mundo analógico que ya no existe y en el que el ajedrez era una vara universal de medir inteligencia. Grandes y pequeños, las grandes potencias mundiales competían por tener al campeón vigente.

El prestigio mainstream del ajedrez murió con Deep Blue en 1996. Aquella derrota de Kasparov, entonces campeón mundial vigente, ante la máquina se llevó el prestigio de saber jugar bien al ajedrez. ¿Para qué? Si las máquinas lo hacían mejor.

Todo mal, claro. El ajedrez sigue siendo relevante como lo que siempre fue y debe seguir siendo: un juego de estrategia incomparable.

Con todo, hoy no hemos venido a hablar de ajedrez, sino de cómo los humanos tendemos a quitar el foco de atención de las cosas y perdernos aspectos interesantes. Pero para eso necesito el ajedrez, nos va a dar contexto.

Hay otros dos detalles en la historia moderna del ajedrez con las máquinas que pasan desapercibididos para los no aficionados y que a mí personalmente me gusta recordar, porque nos permiten vislumbrar, un poco al menos, el mundo en el que viviremos el resto de nuestras vidas.

El otro hito: la última vez que el mejor humano superó a la máquina

Nos encanta recordar aquella primera vez en que la máquina superó al mejor humano. No discuto la relevancia.

Pobre Ponomariov olvidado. Año 2005, el ya ex campeón mundial FIDE derrotó al mejor ordenador del momento para jugar al ajedrez. Fue la última vez que un humano derrotó a la mejor máquina de jugar al ajedrez.

El lapso entre la derrota de Kasparov y la victoria de Pomonariov duró una década escasa, apenas nueve años.

Esos nueve años son los que transcurren desde que un sistema emergente, surgido medio siglo antes, alcanzó la paridad competencial con los humanos y los dejó atrás para siempre.

Algo parecido a cuando se inventan los coches y durante muchas décadas fueron mejorando poco a poco sin llegar a superar a los caballos. Entonces, en un pestañeo en torno a 1920-1930, los caballos desaparecieron masivamente de las ciudades porque los coches eran infaliblemente mejores que los caballos.

Sistemas de respuesta no lineal. Durante décadas la mejora va sedimentando pero no llegan a dar una alternativa mejor. Entonces, de repente, sucede. Y la gente compró coches sin subvenciones ni nada, de forma voluntaria.

Un facto: Los humanos de hoy son mejores jugando al ajedrez gracias a la máquina

Magnus Carlsen juega mejor que cualquier otro ajedrecista anterior a su tiempo. Y posiblemente no sea el único ajedrecista de su generación al que esto le pasa.

Cuando la máquina te supera, puedes decidir entrenar contra la máquina. Con la máquina. Mejorar, ir más lejos subiéndote a sus hombros electromecánicos.

Los detractores dicen que el juego se ha vuelto aburrido, que ahora todos juegan igual; en entornos competitivos se firman más tablas que nunca y eso podría darles la razón.

Los defensores dicen que la calidad de los movimientos aumenta, que entrenar con computadoras ha permitido expandir las ideas disponibles y preparar los movimientos mejor que nunca; los jugadores actuales juegan mejor ajedrez que se ha jugado nunca y eso podría darles la razón.

Cuando la IA automatice tu conocimiento, quizá también te ayude a mejorarlo

Un pollo sin cabeza mantiene la calma mejor que mucha de la gente a la que trato diariamente cuando se le habla de inteligencia artificial y automatización.

No sabemos cuál va a ser el alcance. Ni el rol del humano en todo esto. Sabemos, eso sí, que los enfoques tipo el humano en el bucle están, paradójicamente y pese ser relativamente nuevos, a punto de ser puesto a prueba por la simple dinámica de generación automática (escalable de forma no orgánica) y validación humana (limitada por la biología).

Pero si la historia que va desde Kasparov a Carlsen pasando por Pomonariov ha de enseñarnos algo es que los humanos seremos mañana mejor que hoy en esos ámbitos que sean automatizados.

Y si algo nos enseña la historia es que en muy poco tiempo podremos ver los cambios nosotros mismos.

Que eso sea consuelo suficiente o no dependerá, para una mayoría de humanos en sus bucles, de que consigan que alguien les pague por la que sea su labor. Es la clásica pregunta de economía que no me importa afrontar otro día, pero hoy ya nos hemos extendido bastante.

[Imagen: Humano aumentado, por servidor de ustedes usando Gemini.]

A vueltas con el bucle, Desde el bucle

Bucle debe ser una de esas palabras que cada vez están más en todas partes.

Lo primero que recuerdo debe ser alguna descripciones ingenua pero sugerente. Los bucles de su pelo. Dudo que nadie siga usando esta prosa a día de hoy.

Pero entonces están los otros bucles. Los de las estructuras de control, los de repetir una y otra vez las mismas historias, a veces incluso los mismos errores. También el bucle en el que nos refugiamos los humanos en estos tiempos de inteligencia artificial para intentar no sucumbir ante la máquina, levantando una suerte de último foso que justifique y dé sentido a nuestra tarea diaria.

¿Por qué hablo de bucles hoy? Porque está bien explicar el nombre de las cosas cuando se presentan en sociedad. He aquí un sitio en el que leer historias desde el bucle: crónicas sobre humanos atrapados en sistemas digitales. Un humano en el bucle. En algún bucle, en todo caso.

Por eso al ir a probar cosas en Substack y enfrentarme a eso de darle nombre, y tras la decisión deliberada de no darle el mismo nombre que a este blog. Todavía no sé si duplicaré entradas, o será contenido diferente o más experimental. Todo puede pasar.

Lecciones del renacimiento sobre los tiempos de la innovación en la era de los computadores

¿Tenemos ahora ciclos de innovación más rápidos que antes? ¿Se ha acelerado el ritmo de progreso? El meme más extendido respondería a esa pregunta de forma afirmativa: pareciera que en las últimas décadas se ha acelerado la innovación, el ritmo al que se suceden las revoluciones tecnológicas. Pero, ¿es eso cierto? ¿Qué podemos aprender de la historia?

Cegados como estamos con nuestra visión contemporánea, me encantó la visión de Ada Palmer invitada al podcast de Dwarkesh Patel que pude disfrutar (¡que pude disfrutar y disfruté!; muchísimo, de hecho) en una larga entrevista/conversación en el podcast, profesora de historia en la Universidad de Chicago especializada en el renacimiento. Dura un par de horas, pero por el tiempo que pide una película me pareció sensacional.

Su tesis, como ya podréis imaginar, contradice el instinto contemporáneo. No, el ritmo de la innovación no es significativamente mayor ahora, pero la cercanía nos hace percibir como revoluciones diferentes lo que no son más que iteraciones de una gran invención previa (en nuestro caso, la invención de la computadora). Para ilustrar su visión nos trae varios ejemplos, vamos a ver un par de ellos.

De Petrarca a Maquiavelo y al método científico

Un primer ejemplo. Petrarca en el s. XIV se propone restituir a los clásicos. Tras sobrevivir a la Peste Negra y ver morir a todos sus amigos, Petrarca sintió que vivía en una era de oscuridad comparada con la gloria de Roma. Así que se propone recuperar las virtudes romanas a través de la lectura de Cicerón y otros clásicos para reconstruir una sociedad civilizada. Llegó al punto de imitar las vestimentas clásicas con lo que tenían a manos, que eran túnicas florentinas. Esa estética terminó cristalizando también como parte del renacimiento. Su visión es que mediante la lecturas de los clásicos se recuparían las virtudes, y mediante la designación de gobernantes virtuosos se recuparía el esplendor perdido.

Esto no sucedió y fueron necesarios unos 150 años de fracaso teórico humanista hasta la llegada de Maquiavelo, que supuso un punto de inflexión al aplicar una visión empirista a la política. En lugar de confiar ciegamente en la lectura de los clásicos, Maquiavelo propone observar cuáles prácticas funcionan y cuáles no, e imitar y extender las que funcionan.

El empirismo revolucionario de Maquiavelo, que reposa sobre los hombros de Petrarca, cristalizó en el método científico aupado por contribuciones como las de Francis Bacon o Galileo aún otro siglo más tarde que Maquiavelo.

Todos ellos aportan sobre los hombros de Petrarca, su visión de recuperar el esplendor de la humanidad a través de los libros, pero hicieron falta dos siglos para aprender a aprender usando libros y bibliotecas (mediante el análisis de los mismos, y no meramente leyéndolos). En parte porque esos dos siglos fueron los que transcurren entre la invención de la imprenta y la producción abundante de libros, que no es algo inmediato. Lo que nos lleva al siguiente ejemplo ilustrativo.

De Gutenberg a la reforma del cristianismo

Gutenberg no propicia la reforma, pero sí cambia la arquitectura de la información y con ella la arquitectura del poder.

Antes de la imprenta, la Iglesia podía censurar las herejías, silenciar a sus autores, y tema zanjado. Dado que escribir un manuscrito era carísimo y una labor ardua y duplicarlo era igualmente costoso en ambos sentidos, esta censura era sencilla. Con la aparición de la imprenta los manuscritos se imprimen y replican a mucha velocidad. La censura se dificulta.

Pero vamos al tema de los tiempos. Gutenberg inventa su imprenta alrededor de 1450. Imprime unas biblias y se arruina porque no logra venderlas todas (sólo los sacerdotes tenían permiso para leerla; un mercado muy reducido). El banco que le prestó el dinero intenta repetir el negocio, y también se arruina. Se necesitarían 40 años hasta que en la década de 1490 alguien consigue ganar dinero con la imprenta. Sucedió en Venecia, que con su puerto es el gran centro comercial de la época, ciudad donde la economía de escala de impresión de libros por fin permitía imprimir un par de cientos de libros y venderlos a diferentes capitanes de barco.

La publicación de las 95 tesis de Lutero y su traducción del nuevo testamento al alemán que propician la reforma protestante no llegarían hasta aproximadamente la década de 1520 (otros 30 años). El ciclo completo de la reforma anglicana se extiende en el tiempo desde más o menos ese 1520 hasta casi 1560, a cuyo final encontramos la contrarreforma católica (~1560) que consolida los cambios, más de un siglo tras la invención de la imprenta.

¿Y sobre las revoluciones tecnológicas contemporáneas?

De nuevo el caso de la imprenta es ilustrativo. Desde su invención en 1450 hasta que se logra convertir en un negocio rentable en Venecia pasan varias décadas (1490).

Pero como los libros son lentos de producir, y no hay tantos libros diferentes que vender, así que una vez comprada la imprenta los dueños comienzan a imprimir panfletos, algo que sucede ya en el s. XVI y hasta el XVII. Al principio simples pasquines sin cabecera ni autor con cotilleos y noticias de actualidad más o menos increíbles y exageradas, para darle uso a la máquina cuando no había libro que imprimir.

Pero hay más. Como estos panfletos tienen dudosa credibilidad y se prestan a la difamación, una siguiente iteración nos lleva a la invención de los periódicos, ya en el s. XVII, como forma de establecer una credibilidad y una relación entre quienes imprimen los panfletos y quienes los leen

Y tras la invención del periódico llegan los magazines, que a modo de lo que ahora llamarían fact checking, se dedican a analizar de forma pausada las noticias de diferentes periódicos.

Todo esto pueden ser percibidos como diferentes revoluciones en cómo se produce y consume información, pero en realidad es todo consecuencia de una única revolución que es la propiciada por la invención de la imprenta por Gutenberg.

Es ahí donde entra la invención de la computadora. Se inventa el computador (1945), luego el microprocesador (1971), ordenador persona (1981), world wide web pública (1991, primeros dominios registrados en los 1980s), smartphone (~2005-2010), y la actual ola de incipiente inteligencia artificual cuya evolución aún está por ver, pero a buen seguro tardará unos años en verse su esplendor (¡o su sucesor!) Todo ello nos lleva ya en un viaje que dura 80 años, y no sabemos aún donde ni cuándo terminará su impacto. Desde luego, el paralelismo trazado por Ada Palmer como historiadora es como poco sugerente desde el punto de vista intelectual.

[Imagen: El monje en la cafetería, por servidor de ustedes con ayuda de Gemini.]

La IA, la caída del foso DevOps, y la soberanía digital de los independientes

PadelPulse

Hace un tiempo volví a jugar al pádel. Estuve años fuera de las pistas, desde que sufrí una rotura de ligamento cruzado, pero he vuelto con ganas. Tanto que cuando en la escuela donde entreno me comentaron que iban a organizar una liga de padel y gestionarla en un documento de Excel me dio por programar una aplicación para gestionar ligas. Nada del otro mundo, pero sí lo suficiente para desoxidar un poco mis conocimientos de Node.js.

Lo interesante no es la aplicación en sí, sino cómo ha cobrado vida. Estamos en 2026: la gran mayoría del código la ha escrito un modelo de IA. Cero sorpresas aquí a estas alturas.

Pero programar no lo es todo. Hay que conseguir que la aplicación esté disponible. Los programadores abordan esto con memes del tipo «aquí tienes mi aplicación que tengo corriendo en localhost». No los culpo, muchos están aún en la fase de negación del cambio que viene.

Existe, aún así, el runrún de que las DevOps son el último foso de defensa de los roles técnicos ante el fulgurante ascenso de la IA, lo que más tiempo va a resistir ante la inevitable automatización.

Coolify: La democratización de la infraestructura

Ahí es donde entra Coolify, y es el descubrimiento que quiero compartir. Si la IA ha democratizado la creación de software, Coolify democratiza su propiedad.

Es una herramienta de software libre que se instala en tu propio servidor y lo convierte en un centro de mando profesional. Lo que antes requería un equipo de «DevOps» ahora lo haces tú con un par de clics:

  • Autonomía real: Tú eliges el servidor. Tú eres dueño de tus datos. Sin «tarifas por usuario» ni límites arbitrarios.
  • Complejidad invisible: No hace falta ser un experto en Docker o arquitecturas de red. Coolify se conecta a tu código, detecta qué has programado y lo pone a funcionar automáticamente.
  • Soberanía Digital: Es el equivalente a tener tu propia central eléctrica en casa en lugar de depender de la red general.
  • Gestión de copias de seguridad. Coolify facilita mucho la gestión de copias de seguridad de todos los componentes de tu solución.

Este juguetito también fue sugerido por el propio LLM, cuando le pregunté por arquitecturas end-to-end. Con ayuda paso a paso personalizada para las diferentes piezas de mi solución, que el mismo modelo había ayudado a construir.

La nueva escala del conocimiento

Lo que más me fascina de esta combinación (IA + Coolify) es que el conocimiento exhaustivo ya no es un peaje para la entrada. Antes, para montar un sistema de integración continua (que tu web se actualice sola al cambiar el código), necesitabas semanas de estudio. Hoy, es una casilla que marcas en un panel visual.

Esta dupla permite que alguien con una buena idea y un conocimiento base pueda competir en la liga de los grandes. No solo como usuarios avanzados, o constructores de sitios con un CMS, sino como arquitectos independientes.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad