«No estamos sacando partido a la IA»: la estructura de las organizaciones se está comiendo el aumento de productividad

Desde hace un tiempo en mi día a día no programo tanto como me gustaría, y dedico una buena parte de mi tiempo a gestionar “equipos de equipos” de desarrollo.

Es un tema que tiene su gracia porque la escala es la maldición del software moderno: la mayor parte del software que entregamos requiere mucho más de los míticos uno o dos equipos a los que podemos dar de comer con unas pocas de pizzas familiares. La escala es fricción, es ruido y, sobre todo, es lentitud.

La paradoja de la productividad con la IA (sin anestesia)

La productividad individual se ha multiplicado gracias a la IA, pero en la mayoría de las organizaciones eso no se traduce en entregar valor más rápido al usuario. Es el gran engaño de nuestro tiempo.

Tener un borrador para cualquier idea es ahora instantáneo, los análisis son más finos, y estamos automatizando todo. El código también se produce más rápido que nunca antes. Sí, sí, pero ¿está notándose realmente de cara a tus clientes? Me temo que no.

Una verdad incómoda: el aumento de productividad individual se disipa en la complejidad organizativa.

Tú haces tu parte más rápido que nunca solo para que se muera de asco durante días (o semanas) en el limbo de las dependencias, esperando que otros equipos te abran paso para releasear. El tiempo total para completar una tarea raramente es tiempo programanado. La mayor parte se pasa como tiempo esperando.

Cuando los tiempos de esperan dominan, la IA da a tus programadores satisfacción personal pero no da a tu empresa ventaja competitiva. El rendimiento individual ha explotado, pero si tu estructura no sabe canalizar esa energía, solo estás quemando dinero más rápido. Ahora con tokens en Anthropic.

El rendimiento individual ha explotado, pero es imprescindible crear una organización que sea capaz de sacar partido a esa ganancia.

La velocidad individual no equivale a velocidad de la organización. Esto no es nuevo, lo que pasa es que ahora da mucho más el cante.

Antes la ineficiencia organizativa quedaba enmascarada por la lentitud de implementación. Pero con la IA es más obvio que nunca que el verdadero cuello de botella ya no es la tecnología, sino la estructura de la organización.

Y esto solo va a ir a peor. La velocidad de ejecución se está convirtiendo en el único factor de supervivencia. No me malinterpretéis: la excelencia técnica sigue siendo necesaria, pero sin velocidad de ejecución, estarás fuera del mercado antes de que tu código elegante tenga siquiera la oportunidad de competir.

Esto tampoco es nuevo. ¿Recordáis a la famosa ballena de Twitter? Era la forma graciosa de decirnos que el servidor había reventado. Salía constantemente. Pero, ¿recordáis a alguno de sus miles de competidores que jamás fallaban? No. Se los tragó la historia. En 2026, esa tendencia es una ley física.

La ley de Conway: produces software del modo en que te organizas

¿Cómo hacerlo? Aplicando lo que ya sabemos:

  • Minimizar dependencias entre equipos (aplicando principios como Domain-Driven Design para reducir la fricción)
  • Equipos end-to-end. en el límite de eliminar dependencias, genera equipos con potestad end-to-end sobre su dominio de negocio
  • La organización y sus déficits como ciudadanos de primera. Afrontando los problemas organizativos como problemas de primer orden, por más que las personas en la organización tiendan a resistirse

El señor de la foto de abajo es Melvin Conway. Uno de esos tipos mucho más listos que yo a los que conviene escuchar.


Melvin Conway es un matemático e informático. Desarrolló el concepto de corutinas (permitiéndonos suspender la ejecución de una aplicación, algo que ahora damos por sentado) y fue el primero en aplicar el concepto de un ensamblador. Izquierda. Melvin Conway en 1968 (un año después de acuñar lo que conocemos como Ley de Conway). Derecha. Aproximadamente en 2015.


La ley de Conway en acción

Melvin Conway observó que “las organizaciones diseñan sistemas que reflejan sus estructuras comunicativas”.

Si tus equipos se organizan en silos aislados, tu software será un pastiche de piezas inconexas. La IA hace a los individuos más rápidos, pero si tu diseño organizativo genera fricción, esa velocidad muere en el foso de la comunicación interna.

¿Externalizas? Entonces la productividad se la queda otro

Además del diseño organizativo, hay un elefante en la habitación que explica por qué no ves ese supuesto incremento de velocidad: la productividad se la está quedando tu proveedor.

Si tienes parte de tu desarrollo externalizado y no notas que avancen más rápido, pueden estar pasando muchas cosas. Pero asume la más probable: sí que trabajan más rápido, solo que tú no estás invitado a la fiesta.

En el mundo de los contractors, el incentivo es perverso. El objetivo básico del proveedor es que sigas confiando en él, claro. Pero el objetivo real es tener a todos sus consultores facturando al 100%. Un consultor libre es dinero que dejan de ganar y un riesgo de fuga de talento.

De modo que, si sus desarrolladores ahora son un 30% más rápidos gracias a la IA, ese margen no te lo van a regalar en forma de entregas más tempranas. Lo van a diluir: una gota de «QA extra» por aquí, un poco de procesos internos por allá. O sin más rodeos, van en mejorar su propio margen de beneficio. La renta derivada de la IA la captura quien se remanga para producir el software.

La mentalidad de MBA, en jaque

Sé que esto choca frontalmente con la mentalidad de MBA, esa obsesión por optimizar el uso de recursos y cuadrar presupuestos de costes estructurales frente a gasto en servicios. Pero siento ser yo quien te dé la mala noticia: en el desarrollo de software, the times the are a-changing y las reglas de negocio también.

Últimamente oímos casos de empresas que están internalizando procesos que antes delegaban en SaaS o en terceros. Es el mismo movimiento defensivo: si quieres capturar el valor que genera la IA, tienes que poseer el medio de producción.

Entiendo las ventajas fiscales y operativas de externalizar, pero si quieres ver un impacto real en tu cuenta de resultados gracias a la IA, quizá debas replantearte ese equilibrio entre lo interno y lo externo. Lo que tú no seas capaz de construir por ti mismo, lo vas a tener que pagar a precio de oro, aunque al proveedor le cueste la mitad que hace dos años.

Ni era dorada del vibe coding ni leches: o recuperas el control de tu desarrollo, o estarás subvencionando la eficiencia de otros.

¿Qué nos llevamos de todo esto?

La IA ya es una commodity. Todo el mundo la tiene, no te hace especial. Los ganadores van a ser quienes sepan combinar esa aceleración con agilidad organizacional real.

Entender y abrazar la Ley de Conway es lo que permite que la IA tenga un impacto real de cara al usuario. La pregunta ganadora no es “¿cuántas líneas de código puedo generar yo hoy?” (ya sabemos que podemos generar todas las que hagan falta), sino “¿cuánto tardamos, como equipo, en poner esta idea en manos del cliente?”.

Dos lecturas complementarias para entender dónde estamos con la IA

Una nota breve para comentar un par de lecturas recientes. Estas últimas semanas he dedicado tiempo a dos libros sobre inteligencia artificial que me han dejado buen sabor de boca, aunque por motivos radicalmente distintos.

El primero es Co-intelligence, de Ethan Mollick (Amazon). Un clásico reciente que tenía en la lista de pendientes desde hace tiempo. Podríamos decir que es la lectura ligera de esta pareja; un texto escrito pensando específicamente en los humanos que vamos a usar estas herramientas (¡los humanos en el bucle!). Al final, eso nos incluye a todos: no hay escapatoria posible a la IA y, desde luego, no podemos desinventarla.

Lo mejor de Mollick es que el libro no contiene ni una sola ecuación, lo que lo hace apto para todos los públicos. Al no perderse en analizar la última novedad técnica de tal o cual modelo, también ha conseguido sobrevivir dignamente al paso del tiempo (recordemos que fue escrito en 2023). No hace falta ser un nerd para extraer ideas valiosas aquí. De hecho, su mayor fortaleza reside en su aproximación fenomenológica: intenta entender cómo nos relacionamos con esta tecnología y qué efectos produce en nosotros. Me ha parecido una lectura sosegada, algo que se agradece en un entorno que suele pendular entre el hype más absurdo y el pánico sensacionalista.

Por otro lado, he terminado Why Machines Learn, de Anil Ananthaswamy (Amazon). Este es un viaje por la historia del machine learning, desde los orígenes de la computación hasta nuestros días. Pero aquí sí hay matemáticas. Muchas. Es, definitivamente, la lectura densa y no es apta para muggles. Incluso si decides saltarte las codas matemáticas, el cuerpo del texto sigue siendo exigente. Con todo, si en algún momento de vuestra vida le disteis duro al álgebra, no os asustéis; no es nada que no hayáis visto en la universidad. Eso sí, poneos el cinturón.

El recorrido desde las primeras neuronas artificiales hasta el deep learning, desgranando los algoritmos que durante 70 años han permitido construir lo que hoy tenemos entre manos, es una auténtica pasada. Lo he disfrutado de principio a fin. Estoy seguro de que volveré a traer este libro a próximas reflexiones, porque conecta rabiosamente bien con temas que ya hemos tocado por aquí como aquella charla sobre cuántica y filosofía a raíz de What is Real y refuerza esa idea de que las revoluciones tecnológicas se cocinan a fuego mucho más lento de lo que nuestra miopía cortoplacista nos permite ver.

A hombros de gigantes electromecánicos: lo que el ajedrez nos enseñó sobre la inteligencia artificial

Me gusta el ajedrez. Si eres más joven que yo seguramente pienses que menudo nerd estoy hecho. Debe ser generacional. Crecí en un mundo analógico que ya no existe y en el que el ajedrez era una vara universal de medir inteligencia. Grandes y pequeños, las grandes potencias mundiales competían por tener al campeón vigente.

El prestigio mainstream del ajedrez murió con Deep Blue en 1996. Aquella derrota de Kasparov, entonces campeón mundial vigente, ante la máquina se llevó el prestigio de saber jugar bien al ajedrez. ¿Para qué? Si las máquinas lo hacían mejor.

Todo mal, claro. El ajedrez sigue siendo relevante como lo que siempre fue y debe seguir siendo: un juego de estrategia incomparable.

Con todo, hoy no hemos venido a hablar de ajedrez, sino de cómo los humanos tendemos a quitar el foco de atención de las cosas y perdernos aspectos interesantes. Pero para eso necesito el ajedrez, nos va a dar contexto.

Hay otros dos detalles en la historia moderna del ajedrez con las máquinas que pasan desapercibididos para los no aficionados y que a mí personalmente me gusta recordar, porque nos permiten vislumbrar, un poco al menos, el mundo en el que viviremos el resto de nuestras vidas.

El otro hito: la última vez que el mejor humano superó a la máquina

Nos encanta recordar aquella primera vez en que la máquina superó al mejor humano. No discuto la relevancia.

Pobre Ponomariov olvidado. Año 2005, el ya ex campeón mundial FIDE derrotó al mejor ordenador del momento para jugar al ajedrez. Fue la última vez que un humano derrotó a la mejor máquina de jugar al ajedrez.

El lapso entre la derrota de Kasparov y la victoria de Pomonariov duró una década escasa, apenas nueve años.

Esos nueve años son los que transcurren desde que un sistema emergente, surgido medio siglo antes, alcanzó la paridad competencial con los humanos y los dejó atrás para siempre.

Algo parecido a cuando se inventan los coches y durante muchas décadas fueron mejorando poco a poco sin llegar a superar a los caballos. Entonces, en un pestañeo en torno a 1920-1930, los caballos desaparecieron masivamente de las ciudades porque los coches eran infaliblemente mejores que los caballos.

Sistemas de respuesta no lineal. Durante décadas la mejora va sedimentando pero no llegan a dar una alternativa mejor. Entonces, de repente, sucede. Y la gente compró coches sin subvenciones ni nada, de forma voluntaria.

Un facto: Los humanos de hoy son mejores jugando al ajedrez gracias a la máquina

Magnus Carlsen juega mejor que cualquier otro ajedrecista anterior a su tiempo. Y posiblemente no sea el único ajedrecista de su generación al que esto le pasa.

Cuando la máquina te supera, puedes decidir entrenar contra la máquina. Con la máquina. Mejorar, ir más lejos subiéndote a sus hombros electromecánicos.

Los detractores dicen que el juego se ha vuelto aburrido, que ahora todos juegan igual; en entornos competitivos se firman más tablas que nunca y eso podría darles la razón.

Los defensores dicen que la calidad de los movimientos aumenta, que entrenar con computadoras ha permitido expandir las ideas disponibles y preparar los movimientos mejor que nunca; los jugadores actuales juegan mejor ajedrez que se ha jugado nunca y eso podría darles la razón.

Cuando la IA automatice tu conocimiento, quizá también te ayude a mejorarlo

Un pollo sin cabeza mantiene la calma mejor que mucha de la gente a la que trato diariamente cuando se le habla de inteligencia artificial y automatización.

No sabemos cuál va a ser el alcance. Ni el rol del humano en todo esto. Sabemos, eso sí, que los enfoques tipo el humano en el bucle están, paradójicamente y pese ser relativamente nuevos, a punto de ser puesto a prueba por la simple dinámica de generación automática (escalable de forma no orgánica) y validación humana (limitada por la biología).

Pero si la historia que va desde Kasparov a Carlsen pasando por Pomonariov ha de enseñarnos algo es que los humanos seremos mañana mejor que hoy en esos ámbitos que sean automatizados.

Y si algo nos enseña la historia es que en muy poco tiempo podremos ver los cambios nosotros mismos.

Que eso sea consuelo suficiente o no dependerá, para una mayoría de humanos en sus bucles, de que consigan que alguien les pague por la que sea su labor. Es la clásica pregunta de economía que no me importa afrontar otro día, pero hoy ya nos hemos extendido bastante.

[Imagen: Humano aumentado, por servidor de ustedes usando Gemini.]

A vueltas con el bucle, Desde el bucle

Bucle debe ser una de esas palabras que cada vez están más en todas partes.

Lo primero que recuerdo debe ser alguna descripciones ingenua pero sugerente. Los bucles de su pelo. Dudo que nadie siga usando esta prosa a día de hoy.

Pero entonces están los otros bucles. Los de las estructuras de control, los de repetir una y otra vez las mismas historias, a veces incluso los mismos errores. También el bucle en el que nos refugiamos los humanos en estos tiempos de inteligencia artificial para intentar no sucumbir ante la máquina, levantando una suerte de último foso que justifique y dé sentido a nuestra tarea diaria.

¿Por qué hablo de bucles hoy? Porque está bien explicar el nombre de las cosas cuando se presentan en sociedad. He aquí un sitio en el que leer historias desde el bucle: crónicas sobre humanos atrapados en sistemas digitales. Un humano en el bucle. En algún bucle, en todo caso.

Por eso al ir a probar cosas en Substack y enfrentarme a eso de darle nombre, y tras la decisión deliberada de no darle el mismo nombre que a este blog. Todavía no sé si duplicaré entradas, o será contenido diferente o más experimental. Todo puede pasar.

Lecciones del renacimiento sobre los tiempos de la innovación en la era de los computadores

¿Tenemos ahora ciclos de innovación más rápidos que antes? ¿Se ha acelerado el ritmo de progreso? El meme más extendido respondería a esa pregunta de forma afirmativa: pareciera que en las últimas décadas se ha acelerado la innovación, el ritmo al que se suceden las revoluciones tecnológicas. Pero, ¿es eso cierto? ¿Qué podemos aprender de la historia?

Cegados como estamos con nuestra visión contemporánea, me encantó la visión de Ada Palmer invitada al podcast de Dwarkesh Patel que pude disfrutar (¡que pude disfrutar y disfruté!; muchísimo, de hecho) en una larga entrevista/conversación en el podcast, profesora de historia en la Universidad de Chicago especializada en el renacimiento. Dura un par de horas, pero por el tiempo que pide una película me pareció sensacional.

Su tesis, como ya podréis imaginar, contradice el instinto contemporáneo. No, el ritmo de la innovación no es significativamente mayor ahora, pero la cercanía nos hace percibir como revoluciones diferentes lo que no son más que iteraciones de una gran invención previa (en nuestro caso, la invención de la computadora). Para ilustrar su visión nos trae varios ejemplos, vamos a ver un par de ellos.

De Petrarca a Maquiavelo y al método científico

Un primer ejemplo. Petrarca en el s. XIV se propone restituir a los clásicos. Tras sobrevivir a la Peste Negra y ver morir a todos sus amigos, Petrarca sintió que vivía en una era de oscuridad comparada con la gloria de Roma. Así que se propone recuperar las virtudes romanas a través de la lectura de Cicerón y otros clásicos para reconstruir una sociedad civilizada. Llegó al punto de imitar las vestimentas clásicas con lo que tenían a manos, que eran túnicas florentinas. Esa estética terminó cristalizando también como parte del renacimiento. Su visión es que mediante la lecturas de los clásicos se recuparían las virtudes, y mediante la designación de gobernantes virtuosos se recuparía el esplendor perdido.

Esto no sucedió y fueron necesarios unos 150 años de fracaso teórico humanista hasta la llegada de Maquiavelo, que supuso un punto de inflexión al aplicar una visión empirista a la política. En lugar de confiar ciegamente en la lectura de los clásicos, Maquiavelo propone observar cuáles prácticas funcionan y cuáles no, e imitar y extender las que funcionan.

El empirismo revolucionario de Maquiavelo, que reposa sobre los hombros de Petrarca, cristalizó en el método científico aupado por contribuciones como las de Francis Bacon o Galileo aún otro siglo más tarde que Maquiavelo.

Todos ellos aportan sobre los hombros de Petrarca, su visión de recuperar el esplendor de la humanidad a través de los libros, pero hicieron falta dos siglos para aprender a aprender usando libros y bibliotecas (mediante el análisis de los mismos, y no meramente leyéndolos). En parte porque esos dos siglos fueron los que transcurren entre la invención de la imprenta y la producción abundante de libros, que no es algo inmediato. Lo que nos lleva al siguiente ejemplo ilustrativo.

De Gutenberg a la reforma del cristianismo

Gutenberg no propicia la reforma, pero sí cambia la arquitectura de la información y con ella la arquitectura del poder.

Antes de la imprenta, la Iglesia podía censurar las herejías, silenciar a sus autores, y tema zanjado. Dado que escribir un manuscrito era carísimo y una labor ardua y duplicarlo era igualmente costoso en ambos sentidos, esta censura era sencilla. Con la aparición de la imprenta los manuscritos se imprimen y replican a mucha velocidad. La censura se dificulta.

Pero vamos al tema de los tiempos. Gutenberg inventa su imprenta alrededor de 1450. Imprime unas biblias y se arruina porque no logra venderlas todas (sólo los sacerdotes tenían permiso para leerla; un mercado muy reducido). El banco que le prestó el dinero intenta repetir el negocio, y también se arruina. Se necesitarían 40 años hasta que en la década de 1490 alguien consigue ganar dinero con la imprenta. Sucedió en Venecia, que con su puerto es el gran centro comercial de la época, ciudad donde la economía de escala de impresión de libros por fin permitía imprimir un par de cientos de libros y venderlos a diferentes capitanes de barco.

La publicación de las 95 tesis de Lutero y su traducción del nuevo testamento al alemán que propician la reforma protestante no llegarían hasta aproximadamente la década de 1520 (otros 30 años). El ciclo completo de la reforma anglicana se extiende en el tiempo desde más o menos ese 1520 hasta casi 1560, a cuyo final encontramos la contrarreforma católica (~1560) que consolida los cambios, más de un siglo tras la invención de la imprenta.

¿Y sobre las revoluciones tecnológicas contemporáneas?

De nuevo el caso de la imprenta es ilustrativo. Desde su invención en 1450 hasta que se logra convertir en un negocio rentable en Venecia pasan varias décadas (1490).

Pero como los libros son lentos de producir, y no hay tantos libros diferentes que vender, así que una vez comprada la imprenta los dueños comienzan a imprimir panfletos, algo que sucede ya en el s. XVI y hasta el XVII. Al principio simples pasquines sin cabecera ni autor con cotilleos y noticias de actualidad más o menos increíbles y exageradas, para darle uso a la máquina cuando no había libro que imprimir.

Pero hay más. Como estos panfletos tienen dudosa credibilidad y se prestan a la difamación, una siguiente iteración nos lleva a la invención de los periódicos, ya en el s. XVII, como forma de establecer una credibilidad y una relación entre quienes imprimen los panfletos y quienes los leen

Y tras la invención del periódico llegan los magazines, que a modo de lo que ahora llamarían fact checking, se dedican a analizar de forma pausada las noticias de diferentes periódicos.

Todo esto pueden ser percibidos como diferentes revoluciones en cómo se produce y consume información, pero en realidad es todo consecuencia de una única revolución que es la propiciada por la invención de la imprenta por Gutenberg.

Es ahí donde entra la invención de la computadora. Se inventa el computador (1945), luego el microprocesador (1971), ordenador persona (1981), world wide web pública (1991, primeros dominios registrados en los 1980s), smartphone (~2005-2010), y la actual ola de incipiente inteligencia artificual cuya evolución aún está por ver, pero a buen seguro tardará unos años en verse su esplendor (¡o su sucesor!) Todo ello nos lleva ya en un viaje que dura 80 años, y no sabemos aún donde ni cuándo terminará su impacto. Desde luego, el paralelismo trazado por Ada Palmer como historiadora es como poco sugerente desde el punto de vista intelectual.

[Imagen: El monje en la cafetería, por servidor de ustedes con ayuda de Gemini.]

La IA, la caída del foso DevOps, y la soberanía digital de los independientes

PadelPulse

Hace un tiempo volví a jugar al pádel. Estuve años fuera de las pistas, desde que sufrí una rotura de ligamento cruzado, pero he vuelto con ganas. Tanto que cuando en la escuela donde entreno me comentaron que iban a organizar una liga de padel y gestionarla en un documento de Excel me dio por programar una aplicación para gestionar ligas. Nada del otro mundo, pero sí lo suficiente para desoxidar un poco mis conocimientos de Node.js.

Lo interesante no es la aplicación en sí, sino cómo ha cobrado vida. Estamos en 2026: la gran mayoría del código la ha escrito un modelo de IA. Cero sorpresas aquí a estas alturas.

Pero programar no lo es todo. Hay que conseguir que la aplicación esté disponible. Los programadores abordan esto con memes del tipo «aquí tienes mi aplicación que tengo corriendo en localhost». No los culpo, muchos están aún en la fase de negación del cambio que viene.

Existe, aún así, el runrún de que las DevOps son el último foso de defensa de los roles técnicos ante el fulgurante ascenso de la IA, lo que más tiempo va a resistir ante la inevitable automatización.

Coolify: La democratización de la infraestructura

Ahí es donde entra Coolify, y es el descubrimiento que quiero compartir. Si la IA ha democratizado la creación de software, Coolify democratiza su propiedad.

Es una herramienta de software libre que se instala en tu propio servidor y lo convierte en un centro de mando profesional. Lo que antes requería un equipo de «DevOps» ahora lo haces tú con un par de clics:

  • Autonomía real: Tú eliges el servidor. Tú eres dueño de tus datos. Sin «tarifas por usuario» ni límites arbitrarios.
  • Complejidad invisible: No hace falta ser un experto en Docker o arquitecturas de red. Coolify se conecta a tu código, detecta qué has programado y lo pone a funcionar automáticamente.
  • Soberanía Digital: Es el equivalente a tener tu propia central eléctrica en casa en lugar de depender de la red general.
  • Gestión de copias de seguridad. Coolify facilita mucho la gestión de copias de seguridad de todos los componentes de tu solución.

Este juguetito también fue sugerido por el propio LLM, cuando le pregunté por arquitecturas end-to-end. Con ayuda paso a paso personalizada para las diferentes piezas de mi solución, que el mismo modelo había ayudado a construir.

La nueva escala del conocimiento

Lo que más me fascina de esta combinación (IA + Coolify) es que el conocimiento exhaustivo ya no es un peaje para la entrada. Antes, para montar un sistema de integración continua (que tu web se actualice sola al cambiar el código), necesitabas semanas de estudio. Hoy, es una casilla que marcas en un panel visual.

Esta dupla permite que alguien con una buena idea y un conocimiento base pueda competir en la liga de los grandes. No solo como usuarios avanzados, o constructores de sitios con un CMS, sino como arquitectos independientes.

La IA no te va a robar el trabajo produciendo software; te va a robar la diversión

Cada ola tecnológica trae su propia ola de miedo asociada. La ola de IA generativa en la que andamos desde hace unos años no es diferente y esta vez quienes andan muy preocupados por su futuro laboral son los programadores, que temen ser reemplazados y están nerviosos porque no están acostumbrados a percibirse prescindibles. La historia, no obstante, sugiere algo diferente.

Hablemos de los contables. Cuando llegaron las hojas de cálculo, pese a la revolución que supuso para la contabilidad, los contables no desaparecieron. Al contrario: aumentó la cantidad de gente que hacía tareas contables. Lo que sí cambió fue la satisfacción de esas personas toda vez que el software se quedó con la parte interesante del trabajo interesante (análisis) y los humanos con lo repetitivo (introducir datos en un formulario).

Con la programación pasará algo parecido.

La IA ya programa por nosotros. El placer de crear desde cero seguirá existiendo, pero ocupará menos espacio. El rol del humano va a pivotar hacia la revisión de software producido por la máquina, afinar prompts e integrar sistemas (quizá las tareas de devops y soporte sean una suerte de último foso de defensa para roles técnicos). ¿Les va a gustar? Probablemente no, probablemente desprecien esa labor tanto como desprecian actualizar tickets en Jira, porque la magia del rol que han hecho durante décadas, la resolución de problemas, el reto intelectual, va a ser resuelta por la máquina. La parte intelectualmente reconfortante se la queda la máquina, justo como le pasó a los contables.

Pero no significa que vaya a faltar trabajo. Los backlogs de todas las empresas están desbordados. Se necesitará más gente en roles de producción de software, aunque cambie el nombre de esos roles y la manera de trabajar. Quizá cambien los salarios, quizá cambien las tareas, pero la demanda no desaparece.

El verdadero reto que tienen por delante los trabajadores no sería, por tanto, perder el trabajo, sino reinventar la profesión para mantenerla relevante.

Siempre he pensado que los programadores que no se interesaban por el negocio iban algo cojos. Lo mismo puede decirse de quienes hacen desarrollo de negocio en empresas tecnológicas y no tienen interés por la tecnología. En la era de la inteligencia artificial ser capaz de abrazarse cómodamente tanto al negocio como a la tecnología dejar de ser un plus para ser condición básica de supervivencia.

¿Eres programador? La IA no está destruyendo tu profesión. Pero la ha cambiado para siempre. Los humanos tienen ahora que encontrar su lugar en este nuevo contexto, con una cadena de valor que claramente les pide otras habilidades.

Este blog usa cookies para su funcionamiento.    Más información
Privacidad