LA BURBUJA QUE NO ESTALLÓ

 


Conversation

LA BURBUJA QUE NO ESTALLÓ
Energía nuclear, inteligencia artificial y el espejismo del colapso.
La inteligencia artificial no es la primera tecnología que promete cambiar el mundo mientras quema capital a una velocidad que asusta a sus propios inversores. La energía nuclear recorrió exactamente el mismo camino hace medio siglo, con una diferencia que habitualmente se pasa por alto; la nuclear perdió a su mecenas cuando la opinión pública se volvió en su contra, mientras que la IA tiene un comprador de última instancia que no responde ante votantes ni accionistas. El Pentágono.
La comparación no es retórica. Los patrones de sobreinversión, colapso de expectativas y maduración forzosa se repiten con una precisión que debería incomodar a quienes insisten en que esta vez es diferente. No lo es. Lo que sí cambia es quién paga la cuenta cuando la fiesta termina, y hacia dónde se orienta la tecnología cuando el dinero público sustituye al privado. Pero hay un tercer paralelismo que casi nadie traza, y que a marzo de 2026 ha dejado de ser una analogía para convertirse en un calco estructural. Los científicos del Proyecto Manhattan construyeron la bomba atómica convencidos de que era necesaria para detener a Hitler, descubrieron que el verdadero propósito era otro, intentaron poner límites al uso de su creación, y fueron marginados por el Estado.
Los investigadores de IA construyeron modelos de lenguaje convencidos de que beneficiarían a la humanidad, sabiendo que el Departamento de Guerra los quería sin restricciones, intentaron mantener líneas rojas, y están siendo castigados por ello. El patrón se repite con el mismo loop. Construir, arrepentirse, resistir, ser apartado. La bomba atómica tuvo a Oppenheimer. La inteligencia artificial tiene a Dario Amodei (y otros).

Demasiado barata para cobrarla

El 16 de septiembre de 1954, Lewis Strauss, presidente de la Comisión de Energía Atómica de Estados Unidos, pronunció una frase que definiría las expectativas de toda una industria. La electricidad nuclear sería "too cheap to meter", tan barata que no valdría la pena instalar contadores. Lo dijo en la cena del vigésimo aniversario de la National Association of Science Writers, en Nueva York, y unos días después lo repitió en Meet the Press respondiendo directamente a una pregunta sobre reactores comerciales. No hablaba de fusión, como su hijo trataría de argumentar en 1980 para salvar su legado, sino de fisión. La propia NRC ha investigado el contexto y concluye que el peso de la evidencia apunta a la energía nuclear convencional.
La revista Electrical World lo calificó de delirio. James Ramey, otro comisionado de la AEC, dijo que nadie se tomó en serio la afirmación de Strauss. Pero la industria sí se la tomó en serio, o al menos actuó como si lo hubiera hecho. La realidad fue distinta, y las cifras son más duras de lo que suele contarse. Entre 1953 y 2008 se encargaron 253 reactores en Estados Unidos. De esos 253, el 48% fueron cancelados sin llegar a operar. Un 11% adicional cerró prematuramente. Solo el 27% operó sin sufrir al menos una interrupción superior a un año. Forbes, en su portada del 11 de febrero de 1985, describió el programa nuclear estadounidense como "el mayor desastre de gestión de la historia empresarial". No fue una exageración.
Los sobrecostes eran la norma, no la excepción. La planta de Shoreham, en Long Island, se presupuestó en 1965 por entre 65 y 75 millones de dólares. Cuando abrió en 1984 tras once años de construcción, el coste final superaba los 5.500 millones, un 8.500% por encima del presupuesto original. Nunca operó comercialmente. Suffolk County determinó que Long Island no podía ser evacuada de forma segura, la legislatura local pasó de apoyar el proyecto 16 a 2 a rechazarlo 1 a 17, y la empresa eléctrica acabó vendiendo la planta por un dólar. En 2009, 16 de cada 100 dólares de la factura eléctrica de los clientes de LIPA seguían destinados a pagar deuda de Shoreham. El último pago no se espera hasta 2033, casi 70 años después del anuncio del proyecto.
Marble Hill, en Indiana, ofrece otra variante del mismo patrón. Presupuestada entre 700 millones y 1.400 millones, los trabajadores descubrieron durante la construcción que el hormigón estaba plagado de bolsas de aire, un defecto estructural que la NRC investigó y multó. Cuando se canceló en enero de 1984, se habían gastado 2.500 millones en una planta completada solo al 20%. PSI Energy estuvo al borde de la quiebra y dejó de pagar dividendos durante tres años. El equipamiento se subastó por unos 90 millones. Las dos cúpulas de contención se demolieron en 2011.
El caso más revelador tal vez sea el de Zimmer, en Ohio. Se presupuestó en 240 millones. Cuando un trabajador denunció soldaduras defectuosas, la NRC ordenó detener la construcción en 1982 con la planta completada al 97%. Bechtel estimó que se necesitarían 1.500 millones adicionales solo para cumplir los estándares nucleares sobre una estructura ya construida. El gasto total alcanzó los 3.300 millones. Se convirtió en la primera reconversión nuclear a carbón del mundo, operando como planta de carbón desde 1991 hasta 2022. Cerca de cuatro décadas quemando carbón en una estructura diseñada para fisión. La verdad es que si existe una metáfora mejor del despilfarro energético del siglo XX, no la conozco.
Y luego está el caso emblemático. La Washington Public Power Supply System, conocida popularmente como WPPSS ("Whoops"), se embarcó en cinco plantas nucleares simultáneas con un presupuesto inicial de entre 4.100 y 4.500 millones de dólares. Para 1981, los costes proyectados habían escalado a 24.000 millones, un aumento del 600%. Las plantas 4 y 5 se cancelaron en enero de 1982 con solo un 16% de avance. El 25 de julio de 1983, Chemical Bank declaró el impago de 2.250 millones de dólares en bonos municipales, el mayor default municipal de la historia del país en aquel momento. Los tenedores de bonos acabaron recibiendo entre 10 y 40 centavos por dólar mediante un acuerdo de 753 millones alcanzado en la Nochebuena de 1988.
El patrón importa porque no fue un fallo tecnológico. Los reactores funcionaban. Lo que falló fue la economía de la promesa con unos costes de construcción que se multiplicaban por factores de cinco a ochenta, regulación que crecía exponencialmente, y demanda eléctrica que no seguía las previsiones de los planificadores.
Que nadie piense que esto es historia antigua. Las unidades 3 y 4 de Vogtle, en Georgia, los primeros reactores nuevos construidos en Estados Unidos en más de treinta años, se presupuestaron en unos 14.000 millones con entrada en servicio prevista entre 2016 y 2017. La unidad 3 alcanzó operación comercial el 31 de julio de 2023; la unidad 4, el 29 de abril de 2024. Siete años de retraso. El coste final se sitúa entre 35.000 y 37.000 millones de dólares. Westinghouse quebró durante la construcción en 2017. Georgia Power fue autorizada a repercutir 7.560 millones a los consumidores. Ambas unidades operan ahora con factores de capacidad del 95 al 100%. La tecnología funciona. La economía de construirla, no.

750.000 millones al año y la pregunta incómoda

Hoy la inteligencia artificial repite el guión con cifras que habrían parecido ciencia ficción incluso hace cinco años. Tras los resultados del cuarto trimestre de 2025, CreditSights revisó al alza la estimación de gasto de capital combinado de los cinco grandes operadores de infraestructura cloud (Microsoft, Alphabet, Amazon, Meta y Oracle) hasta aproximadamente 750.000 millones de dólares para 2026. Esta cifra supone un aumento del 67% interanual respecto a los 443.000 millones de 2025, y marca el tercer año consecutivo con crecimientos superiores al 60%.
Los compromisos individuales justifican el vértigo. Amazon lidera con 200.000 millones proyectados para 2026, partiendo de un gasto anualizado que ya superaba los 118.000 millones en 2025. Alphabet se sitúa entre 175.000 y 185.000 millones, y ha respaldado su apuesta emitiendo 17.500 millones en bonos más hasta 11.000 millones en bonos europeos, incluyendo una emisión a 100 años. Meta aumentó su guía a entre 115.000 y 135.000 millones para 2026, casi el doble de los 72.200 millones que gastó en 2025. Microsoft comprometió más de 120.000 millones para su año fiscal 2026, habiendo gastado 37.500 millones en un solo trimestre, y reveló un backlog de 80.000 millones en pedidos de Azure que no puede servir por falta de capacidad eléctrica. Oracle escaló su guía tres veces durante 2025, de 25.000 a 35.000 y finalmente a 50.000 millones, generando un flujo de caja libre negativo de 10.000 millones solo en su segundo trimestre fiscal.
McKinsey publicó en abril de 2025 su estimación macroeconómica, situando la inversión acumulada en infraestructura de centros de datos en 6.700 millones de millones de dólares para 2030 en su escenario base y 7.900 millones de millones en el acelerado. Son cifras equivalentes al PIB combinado de Japón y Alemania.
OpenAI ha seguido un recorrido que ilustra la distancia entre la ambición y la aritmética. El proyecto Stargate, anunciado el 21 de enero de 2025 como joint venture con SoftBank, Oracle y MGX, se presentó con un compromiso de 500.000 millones de dólares en cuatro años. Los compromisos totales de compute de Sam Altman alcanzaron los 1,4 billones de dólares hasta 2033. En febrero de 2026, OpenAI recortó ese objetivo a 600.000 millones para 2030, un 57% menos. A marzo de 2026, Stargate enfrenta problemas serios porque OpenAI y SoftBank chocan por la propiedad y ubicación de los centros de datos.
El problema es que los ingresos no acompañan. OpenAI cerró 2025 con unos 13.000 millones de dólares en ingresos anuales y quemó entre 8.000 y 9.000 millones. Sus propias proyecciones muestran pérdidas de 17.000 millones en 2026 y 35.000 millones en 2027. HSBC publicó en noviembre de 2025 un análisis que modelaba un déficit de financiación de 207.000 millones para OpenAI hasta 2030, incluso en escenarios optimistas.
David Cahn, de Sequoia Capital, identificó en junio de 2024 un desfase anual de entre 500.000 y 600.000 millones de dólares entre el gasto en infraestructura y los ingresos que esa infraestructura genera. Su cálculo parte de una aritmética simple. Para que los usuarios finales de IA obtengan un margen bruto del 50%, la industria necesita generar unos 600.000 millones anuales en ingresos de servicios, pero los ingresos reales en 2025 se situaron entre 25.000 y 50.000 millones, entre un 5% y un 10% de lo necesario. Jim Covello, de Goldman Sachs, publicó un informe titulado "Gen AI: Too Much Spend, Too Little Benefit?" con un argumento que merece citarse casi textual. Reemplazar trabajos de bajo coste con tecnología tremendamente cara es, según Covello, básicamente lo opuesto a las transiciones tecnológicas anteriores. Los datos de productividad respaldan ese escepticismo. Un estudio del NBER publicado en febrero de 2026 encontró que el 90% de las empresas no reportaron ningún impacto de la IA en la productividad laboral, y cuando investigadores del MIT Media Lab analizaron en agosto de 2025 las inversiones corporativas en IA generativa, el resultado fue que el 95% de las organizaciones habían obtenido retorno cero de entre 30.000 y 40.000 millones invertidos.
La pregunta incómoda es la misma que se hicieron los inversores de la industria nuclear en 1978. ¿Generará esta infraestructura ingresos suficientes para justificar lo que cuesta construirla? Los activos son reales (centros de datos, GPUs, redes de fibra, conexiones eléctricas), pero eso no los hace rentables. Las plantas nucleares canceladas en los setenta y ochenta también eran activos reales, de hormigón y acero, y eso no evitó que se convirtieran en lo que Peter Bradford, excomisionado de la NRC, describió como ruinas multimillonarias en el lugar de las plantas prometidas.
Oliver Wyman modeló en enero de 2026 que un crash limitado a la renta variable borraría unos 33 billones de dólares en valor, más que el PIB de Estados Unidos. La concentración de mercado ha alcanzado extremos históricos, con el 30% del S&P 500 en manos de solo cinco empresas (la mayor concentración en medio siglo) y el ratio CAPE de Shiller por encima de 40 por primera vez desde las puntocom. Las voces de alarma incluyen a algunos de los protagonistas. Jeff Bezos calificó el entorno como "una especie de burbuja industrial" en octubre de 2025, Sam Altman advirtió que "la gente sobreinvertirá y perderá dinero", y Ray Dalio comparó los niveles con las puntocom. Ninguno de ellos dejó de invertir.

DeepSeek y el espejismo de la eficiencia

El 27 de enero de 2025, el modelo de razonamiento R1 de DeepSeek provocó la mayor destrucción de valor bursátil en un solo día de la historia del mercado estadounidense. Nvidia perdió aproximadamente 600.000 millones de dólares en capitalización, una caída del 17%. El conjunto de valores tecnológicos perdió cerca de un billón. DeepSeek afirmaba haber desarrollado su modelo con solo 6 millones de dólares utilizando chips Nvidia A100 de generación anterior, un desafío directo a la premisa de que el liderazgo en IA requiere intensidad de capital creciente.
La reacción del mercado duró días. La respuesta de los hyperscalers duró meses, y fue la contraria. Aumentaron el gasto. La industria invocó la paradoja de Jevons, argumentando que las ganancias de eficiencia incrementan, no reducen, la demanda total de computación. La pregunta fundamental que DeepSeek planteó sobre la eficiencia del capital sigue sin respuesta, pero el dinero siguió fluyendo como si la pregunta no existiera.

CoreWeave, el canario que tose porque está pocho

Si hay una empresa que encarna las tensiones del ciclo actual, es CoreWeave. Su salida a bolsa el 28 de marzo de 2025 a 40 dólares por acción, significativamente por debajo del rango esperado de 47 a 55, recaudó unos 1.500 millones con una valoración de 23.000 millones. La acción abrió a 39 y cayó hasta un 6% en su primer día de cotización.
El perfil financiero es precario. La empresa arrastra más de 14.000 millones en deuda. Su backlog de ingresos contratados alcanza los 55.600 millones, pero la concentración de clientes es extrema, con lo que ello conlleva. Los contratos de OpenAI suman 22.400 millones (el 40% del backlog) y Microsoft generó el 62% de los ingresos en la primera mitad de 2025. La acción alcanzó un máximo por encima de 180 dólares para luego caer un 51% desde ese pico. Se han presentado varias demandas colectivas de valores. Un modelo intensivo en deuda con concentración extrema de clientes convierte a CoreWeave en el punto de estrés más visible de las finanzas de infraestructura de IA.

La infraestructura que sobrevive al hype

La energía nuclear no desapareció. Los reactores que sobrevivieron a la purga de los ochenta siguen operando hoy con factores de capacidad superiores al 92%, frente al 60% que registraban en los años setenta, y producen entre el 18% y el 19% de la electricidad estadounidense. La tecnología maduró, se volvió fiable, y se integró como una pieza estable del sistema energético sin cumplir ninguna de las promesas utópicas de Strauss. Lo que murió no fue la tecnología sino la especulación que la rodeaba.
Un análisis de KKR publicado en noviembre de 2025 bajo el título "Beyond the Bubble" concluye que las burbujas tecnológicas siempre hacen daño a algunos inversores, pero la capacidad que crean permanece y genera retornos compuestos a largo plazo. Según el World Economic Forum, el 80% del aumento de la demanda final privada doméstica en Estados Unidos durante la primera mitad de 2025 fue atribuible a centros de datos y gasto tecnológico asociado. La IA ya no es una apuesta especulativa sobre el futuro, sino un motor macroeconómico del presente.
El matiz está en quién se quema durante la transición. En la energía nuclear, fueron los contribuyentes y los usuarios de electricidad que pagaron sobrecostes durante décadas a través de sus facturas. En la IA, serán los accionistas de empresas que sobreinvirtieron, los fondos de venture capital que apostaron por aplicaciones sin modelo de negocio sostenible, y los tenedores de deuda de empresas como CoreWeave si el mercado se contrae antes de que sus contratos se ejecuten.
Los centros de datos estadounidenses consumieron 183 teravatios-hora en 2024, más del 4% de la electricidad total del país, y la Agencia Internacional de Energía proyecta que esa cifra alcanzará los 426 teravatios-hora para 2030. Goldman Sachs estima que la demanda energética global de centros de datos crecerá entre un 165% y un 175% para 2030, el equivalente a añadir un país entre los diez mayores consumidores de electricidad del mundo. Esa demanda está impulsando un renacimiento nuclear con patrocinadores corporativos directos. Microsoft firmó un acuerdo a 20 años con Constellation Energy para reiniciar la unidad 1 de Three Mile Island. Amazon compró un campus de 960 megavatios adyacente a la planta nuclear de Susquehanna. Google firmó un acuerdo de 500 megavatios con Kairos Power para reactores de sal fundida. Meta emitió una solicitud de propuestas para entre 1 y 4 gigavatios de nueva capacidad nuclear. En conjunto, las empresas tecnológicas han firmado contratos para más de 10 gigavatios de capacidad nuclear potencial, pero el desajuste temporal es evidente, porque los reactores modulares pequeños están a entre 5 y 10 años de operación comercial y la IA necesita esa energía ahora. El ciclo no se cierra limpiamente.

El comprador que nunca se va

La energía nuclear perdió el apoyo popular tras Three Mile Island y Chernóbil, y con él perdió el apoyo político y financiero. La IA tiene un seguro que la nuclear nunca tuvo. Es el sistema nervioso de la infraestructura militar moderna, y los estados la tratan como una carrera armamentista soberana.
DARPA mantuvo viva la investigación en IA durante los "inviernos" de los años setenta y ochenta, cuando el interés comercial desapareció. Durante el primer invierno, la agencia no eliminó la financiación sino que la redirigió hacia proyectos militares directos. El sistema de reconocimiento de voz Harpy, desarrollado en Carnegie Mellon con financiación de DARPA en 1976, introdujo los modelos ocultos de Markov y la búsqueda por haz, técnicas que se convertirían en la base de todo el reconocimiento de voz comercial posterior. Durante el segundo invierno, DARPA lanzó la Strategic Computing Initiative, un programa de mil millones de dólares en diez años que financió 92 proyectos en 60 instituciones. DART, un sistema de logística con IA desplegado durante la Tormenta del Desierto, había compensado para 1995 el equivalente monetario de toda la financiación de DARPA en IA durante los treinta años anteriores. Un solo proyecto militar, prototipado en ocho semanas, generó más valor que tres décadas de investigación acumulada.
El patrón se repite en tecnologías adyacentes. En 1962, el gobierno estadounidense compraba el 100% de todos los circuitos integrados producidos. Para 1968, esa cuota había bajado al 37%, a medida que los mercados comerciales superaban la demanda militar. La red de comunicaciones por paquetes que se convertiría en internet, ARPANET, costó aproximadamente 10 millones de dólares en sus primeros cuatro años, y el protocolo que la hizo funcionar (TCP/IP) fue desarrollado por Vint Cerf y Robert Kahn en DARPA específicamente para conectar tanques, aviones y barcos por radio y satélite. Décadas después, el programa CALO (más de 150 millones entre 2003 y 2008) produjo directamente Siri, adquirido por Apple en 2010. La historia es inequívoca. Cuando el capital privado se retira de una tecnología transformadora, el capital militar la mantiene viva.
Hoy ese papel se ha formalizado. El presupuesto de defensa de Estados Unidos para el año fiscal 2026 asigna 13.400 millones de dólares a autonomía y sistemas autónomos, la primera vez que el Pentágono dedica una línea presupuestaria independiente a estas tecnologías. El desglose revela que la mayor parte (9.400 millones) se destina a drones aéreos, con solo 200 millones específicamente a "tecnología de IA y automatización". La CDAO adjudicó contratos de 200 millones de dólares a cada una de las cuatro empresas (OpenAI, Anthropic, Google y xAI) con un techo total de 800 millones. No es investigación académica, ni siquiera es relevante en cifras totales. Es un contrato de integración para la adquisición de capacidades operativas.
La diferencia con la energía nuclear es que el uso militar del átomo y su uso civil están separados por tratados, tecnología y regulación. La IA es una tecnología de doble uso intrínseco, donde el mismo algoritmo que optimiza la logística de Amazon puede servir para análisis de objetivos en sistemas de mando y control. Project Maven, ahora con un techo de 1.300 millones de dólares hasta 2029, prevé transmitir inteligencia generada al 100% por máquinas para junio de 2026. La estrategia de IA del Departamento de Guerra, publicada el 9 de enero de 2026 por Pete Hegseth desde la Starbase de SpaceX, declara que las fuerzas armadas se convertirán en una fuerza "AI-first" e incluye proyectos como "Swarm Forge" (guerra autónoma con enjambres) y "Agent Network" (gestión de batalla mediante agentes de IA).
En Washington circula la idea de que China gasta decenas de miles de millones al año en IA militar, una cifra que se repite en discursos del Congreso y en informes alarmistas del Pentágono. La realidad documentada es otra. Un análisis de CSET (Georgetown) basado en más de 18.300 contratos públicos del Ejército Popular de Liberación estima el gasto anual militar chino en IA entre 1.600 y 2.700 millones de dólares, una cifra comparable a la partida específica del Pentágono de 1.800 millones en 2025 y muy lejos de los 70.000 millones que un general del USAF atribuyó a China en 2018 (CSET desacreditó esa cifra como una confusión entre gasto gubernamental total en IA y gasto militar específico). El presupuesto oficial de defensa chino para 2025 es de 245.000 millones, aunque el Departamento de Defensa estadounidense estima que el gasto real está subestimado entre un 40% y un 90%. Lo que importa para el argumento no es si China gasta más o menos que Estados Unidos en IA militar, sino que ambos consideran esa inversión irrenunciable.
Europa va significativamente retrasada. El Fondo Europeo de Defensa asignó 7.300 millones de euros para 2021-2027 a todas las tecnologías de defensa, con entre un 4% y un 8% para tecnologías emergentes incluyendo IA. La OTAN creó un Fondo de Innovación de 1.000 millones de euros. El presupuesto total europeo de I+D militar es de 14.400 millones de euros frente a los 130.000 millones estadounidenses.
La consecuencia práctica es que ni un crash bursátil ni una contracción del venture capital detendrían la investigación y el despliegue de IA. Incluso si el mercado de consumo decide que ChatGPT no justifica su precio, incluso si las acciones de Nvidia corrigen un 40%, los estados seguirán invirtiendo por imperativo de seguridad nacional, porque la lógica de la carrera armamentista impone su propia aritmética con independencia de que los retornos comerciales decepcionen.

El pecado conocido

Los físicos han conocido el pecado, dijo Oppenheimer en el MIT el 25 de noviembre de 1947, y ese es un conocimiento que no pueden perder. Dos años después de Hiroshima, el director del Proyecto Manhattan condensó en una frase el dilema que define a todo científico que construye algo más poderoso de lo que puede controlar. No hablaba solo de bombas. Hablaba de la distancia irreversible entre crear una tecnología y decidir cómo se usa.
La crisis ética del programa nuclear no fue un momento único sino una sucesión de rupturas que llegaron en oleadas, un patrón que ahora se repite en la inteligencia artificial con una precisión que merece atención. Joseph Rotblat abandonó Los Álamos en la Nochebuena de 1944, el único científico que dejó el Proyecto Manhattan por razones morales. Su decisión se precipitó en una cena en marzo de 1944 donde el general Leslie Groves declaró que el propósito real de la bomba era someter a los soviéticos. La razón por la que Rotblat se había unido al proyecto (crear un disuasivo contra Hitler) se evaporó cuando quedó claro que el programa nuclear alemán no existía. Al anunciar su marcha, la inteligencia militar fabricó un expediente acusándolo de espionaje y le confiscaron documentos en un tren. Cuarenta y un años después, en 1995, recibió el Premio Nobel de la Paz por cofundar las Conferencias Pugwash.
El Informe Franck, redactado el 11 de junio de 1945 por siete científicos incluyendo a Leo Szilard, instó a una demostración de la bomba en un área deshabitada ante representantes de las Naciones Unidas en lugar de su uso militar directo. Advertía que una nación que siente el precedente de usar estas fuerzas de la naturaleza recién liberadas con fines de destrucción podría tener que cargar con la responsabilidad de abrir la puerta a una era de devastación a escala inimaginable. El informe se envió al secretario de Guerra Henry Stimson. El panel científico de Oppenheimer lo rechazó... no veían alternativa aceptable al uso militar directo.
La petición de Szilard, fechada el 17 de julio de 1945 y firmada por 70 científicos, pedía al presidente Truman que no usara bombas atómicas sin anunciar públicamente los términos de rendición. La petición nunca llegó a Truman. El general Groves la retuvo deliberadamente, la clasificó como secreta, y no fue desclasificada hasta 1961. Los firmantes fueron catalogados en listas como "importantes" o "no importantes".
El castigo llegó en 1954. La audiencia de seguridad de Oppenheimer (del 12 de abril al 29 de junio de 1954), orquestada por el presidente de la AEC Lewis Strauss como represalia por la oposición de Oppenheimer a la bomba de hidrógeno, estableció el molde que se repetiría en la IA setenta años después. Edward Teller proporcionó el testimonio decisivo al declarar que preferiría ver los intereses vitales de este país en manos que comprendiera mejor y en las que por tanto confiara más. La votación fue 4 a 1 para retirar la habilitación de seguridad, 32 horas antes de que el contrato de Oppenheimer expirase de todas formas. La revocación no fue anulada hasta el 16 de diciembre de 2022, 68 años después. Teller, que abrazó el uso militar sin restricciones, recibió la Medalla Presidencial de la Libertad en 2003. El científico que acepta lo que el Estado quiere es recompensado; el que cuestiona, marginado.
Por eso nos suena la película que estamos viendo ahora...ya la hemos visto. Construir la tecnología pensando que es necesaria, descubrir que el Estado tiene un propósito distinto al anunciado, intentar poner límites después de que la tecnología existe, y ser castigado por ello. Oppenheimer perdió su habilitación de seguridad. Anthropic fue designada riesgo en la cadena de suministro.
La industria de la IA ha reproducido esta secuencia con una velocidad que comprime en tres años lo que a los físicos nucleares les llevó una década. Geoffrey Hinton, el "padrino del deep learning" y premio Turing 2018, dimitió de Google el 1 de mayo de 2023 a los 75 años para hablar libremente sobre el riesgo existencial de la IA. Lo que dijo entonces tiene el registro inconfundible del arrepentimiento de Oppenheimer. Me consuelo con la excusa habitual, admitió, si yo no lo hubiera hecho, alguien más lo habría hecho. Reconoció que se estaba arrepintiendo parcialmente de la obra de su vida y estimó una probabilidad del 10 al 20% de extinción humana por IA. Yoshua Bengio, su colaureado, pasó por su propia conversión durante el invierno de 2022-2023, precipitada por ChatGPT. Es difícil admitir que antes me equivocaba, dijo.
En OpenAI, las salidas se convirtieron en una cascada. La crisis del consejo del 17 de noviembre de 2023, en la que Ilya Sutskever y el consejo despidieron a Sam Altman alegando que no había sido consistentemente sincero, fue un intento de intervención que fracasó. En cinco días, 745 de 770 empleados amenazaron con dimitir, Altman fue reinstaurado y los consejeros disidentes fueron removidos. Sutskever nunca volvió a la oficina. Dejó OpenAI el 14 de mayo de 2024 y fundó Safe Superintelligence Inc. el 19 de junio, levantando 3.000 millones de dólares para marzo de 2025.
Jan Leike, colíder del equipo de Superalignment, dimitió el 16 de mayo de 2024 con un mensaje demoledor. Durante los últimos años, escribió, la cultura de seguridad y los procesos han quedado relegados por los productos brillantes. Describió a su equipo como navegando contra el viento y luchando por la capacidad de computación que OpenAI había prometido (el 20% de sus recursos para trabajo de seguridad, un compromiso que fuentes internas dicen que nunca se cumplió plenamente). El equipo de Superalignment fue disuelto a las pocas semanas de su marcha. Leike se unió a Anthropic.
Daniel Kokotajlo, investigador de gobernanza, dimitió en abril de 2024 y se negó a firmar la cláusula de no denigración de OpenAI, arriesgando entre 1,7 y 2 millones de dólares en equity adquirido para conservar su libertad de expresión. Perdí la esperanza de que actuarían responsablemente, explicó. Han adoptado el enfoque de moverse rápido y romper cosas, y eso es lo opuesto a lo que se necesita. Más tarde coorganizó la iniciativa "Right to Warn" en junio de 2024, donde 13 empleados actuales y anteriores pidieron protecciones para denunciantes. Miles Brundage, que dirigía la preparación para AGI, se marchó en octubre de 2024 declarando que ni OpenAI ni ningún otro laboratorio frontera está preparado para la AGI. Su equipo fue disuelto tras su salida. Para principios de 2026, OpenAI había desmantelado al menos tres equipos orientados a seguridad (Superalignment, AGI Readiness, Mission Alignment) y más de 25 figuras senior vinculadas a seguridad habían dejado la empresa.
El patrón se extendió más allá de OpenAI. Google despidió a Timnit Gebru el 2 de diciembre de 2020 por un artículo sobre riesgos de los modelos de lenguaje grande, y a Margaret Mitchell el 19 de febrero de 2021 por buscar en su correo electrónico pruebas del maltrato a Gebru. Ambas colideraban el equipo de Ética de IA de Google. La declaración de mayo de 2023 del Center for AI Safety, firmada por más de mil expertos incluyendo a Hinton, Bengio, Altman y Amodei, equiparó el riesgo de extinción por IA con pandemias y guerra nuclear. Fue una coalición extraordinaria que ahora está fracturada por las mismas cuestiones militares que no abordó.

El momento Oppenheimer de Anthropic

El enfrentamiento entre Anthropic y el Pentágono en febrero y marzo de 2026 es la repetición estructural más precisa de la audiencia de Oppenheimer en la era de la IA. Anthropic construyó Claude, lo desplegó en las redes clasificadas más sensibles del Pentágono (donde se convirtió en el primer modelo de IA frontera en sistemas militares clasificados), y luego intentó poner límites a su uso. El Estado respondió con un castigo.
En noviembre de 2024, Anthropic se asoció con Palantir y AWS para llevar Claude a agencias de inteligencia y defensa. En julio de 2025, tenía un contrato prototipo de 200 millones de dólares con la CDAO. Claude se usaba para análisis de inteligencia, planificación operativa y ciberoperaciones en múltiples niveles de clasificación.
La fractura comenzó en enero de 2026, cuando fuerzas de operaciones especiales capturaron al presidente venezolano Nicolás Maduro en un asalto que mató a 83 personas. Claude había sido utilizado durante la operación a través de la integración de Palantir. Un ejecutivo de Anthropic contactó a Palantir para preguntar si Claude se había usado en la operación, una consulta que Anthropic calificó de rutinaria pero que el Pentágono interpretó como una amenaza. El CTO del Pentágono, Emil Michael, lo describió con alarma. Si este software se cayera, dijo, si alguna barrera de seguridad se activara, si algún rechazo ocurriera en la próxima operación como esta y dejáramos a nuestra gente en riesgo.
El 25 de febrero de 2026, el secretario de Defensa Pete Hegseth entregó un ultimátum a Dario Amodei en el Pentágono. Permitir Claude para "todos los usos legales" antes del viernes a las 17:01, o enfrentar la cancelación de contratos, la designación como riesgo en la cadena de suministro y la invocación de la Ley de Producción de Defensa. La "mejor y última oferta" del Pentágono habría permitido que Claude recopilara y analizara datos de geolocalización, historial de navegación web e información financiera personal de ciudadanos estadounidenses comprada a intermediarios de datos. Amodei mantuvo dos líneas rojas. No a la vigilancia masiva doméstica de ciudadanos estadounidenses. No a las armas totalmente autónomas sin supervisión humana.
El 27 de febrero, el presidente Trump publicó en Truth Social ordenando a todas las agencias federales cesar inmediatamente el uso de la tecnología de Anthropic. Hegseth designó a Anthropic como "riesgo en la cadena de suministro para la seguridad nacional", la primera vez que esta designación, previamente reservada para adversarios extranjeros como Huawei, se aplicaba a una empresa estadounidense. Horas después, OpenAI anunció un acuerdo para desplegar sus modelos en los sistemas clasificados del Pentágono. La notificación formal llegó el 5 de marzo de 2026.
Los paralelismos con 1954 son estructurales, no retóricos. Oppenheimer construyó la bomba y luego se opuso a la bomba de hidrógeno; Anthropic construyó Claude y luego se negó a las armas autónomas y la vigilancia masiva. Strauss orquestó la revocación de la habilitación como represalia; Michael y Hegseth orquestaron la designación de riesgo como represalia. Teller proporcionó el testimonio decisivo contra Oppenheimer; OpenAI firmó el contrato que Anthropic rechazó el mismo día en que fue vetada. Los cargos declarados (preocupaciones de seguridad) ocultaban el agravio real (oposición a la bomba H); el cargo declarado (riesgo de suministro) oculta el agravio real (restricciones de uso). La habilitación de Oppenheimer fue restaurada 68 años después. Anthropic ha anunciado que impugnará la designación en los tribunales.
Dario Amodei llamó directamente mentiras a la narrativa de OpenAI sobre las salvaguardas de su propio acuerdo con el Pentágono. Caitlin Kalinowski, directora de robótica de OpenAI, dimitió el 7 de marzo de 2026 en respuesta al acuerdo militar. La vigilancia de estadounidenses sin supervisión judicial y la autonomía letal sin autorización humana, dijo, son líneas que merecían más deliberación de la que recibieron. Esto era una cuestión de principios, no de personas. Más de 900 empleados de OpenAI y Google firmaron una carta abierta exigiendo a sus empresas que rechazaran todos los contratos de vigilancia del Pentágono. El movimiento QuitGPT, con usuarios cancelando suscripciones en protesta, llevó a Claude al número 1 en la App Store de más de 20 países.
Hay un detalle que cierra el círculo con una simetría casi literaria. El mismo Lewis Strauss que prometió electricidad "demasiado barata para cobrarla" fue quien orquestó la destrucción de Oppenheimer cuando este intentó limitar el uso de la tecnología nuclear. En la IA, la misma industria que prometió IA beneficiosa para toda la humanidad es la que ahora castiga a quien intenta limitar el uso de la tecnología. OpenAI cambió su misión seis veces en nueve años; en la sexta iteración, coincidiendo con la reestructuración como empresa con ánimo de lucro en febrero de 2026, eliminó la palabra "safely". La empresa que nació como laboratorio de seguridad sin ánimo de lucro firmó un contrato con el Departamento de Guerra el mismo día que vetaron a la empresa fundada por su propio exdirector de investigación para ser más segura.

La corrección que viene y la que ya empezó

Los tres paralelismos convergen en un mismo patrón. La sobreinversión nuclear de los setenta se repite en la IA de los veinte con cifras multiplicadas por mil pero la misma distancia entre promesa y realidad. El Pentágono es el comprador que mantiene viva la tecnología cuando el mercado se retira, como lo hizo con los circuitos integrados en los sesenta, con la IA durante los inviernos de los setenta y ochenta, y como lo hará con los centros de datos si la burbuja actual se desinfla. Y los científicos que construyen la tecnología intentan poner límites a su uso y son castigados por ello, como Oppenheimer en 1954 y como Anthropic en 2026.
La corrección de la IA se parecerá más al invierno nuclear que al crash de las puntocom. No habrá un colapso de activos ficticios porque los activos son físicos. Centros de datos, turbinas, conexiones a la red eléctrica, chips. Habrá un exceso de capacidad que tardará años en absorberse, empresas que quebraron apostando demasiado fuerte y demasiado pronto, y un reajuste de expectativas que convertirá a la IA en lo que la energía nuclear debería haber sido si no hubiera perdido el apoyo público. Una utilidad omnipresente, imprescindible y aburrida.
La energía nuclear produce hoy entre el 18% y el 19% de la electricidad de Estados Unidos y nadie escribe titulares sobre ella. La IA seguirá el mismo camino. La diferencia es el tiempo que tardará en recorrerlo y quién habrá pagado el peaje. En la nuclear, fueron treinta años de estancamiento y contribuyentes pagando durante generaciones por plantas que nunca funcionaron. En la IA, con el Estado como comprador permanente, el ciclo será más corto. Pero el patrón es el mismo. Promesa utópica, sobreinversión, corrección, madurez.
Lo que no se discute con la seriedad que merece es la consecuencia de que el mayor mecenas de la IA sea el complejo militar-industrial. Si el dinero que mantiene viva la tecnología durante la corrección viene del Departamento de Guerra, del Ministerio de Defensa chino y de los presupuestos de seguridad nacional europeos, el desarrollo de la IA no se orientará hacia la cura del cáncer o la educación universal. Se orientará hacia la vigilancia, la selección de objetivos y el control.
La energía nuclear, nacida del Proyecto Manhattan, nunca se desprendió del todo de su pecado original. La IA, nacida de DARPA, podría seguir exactamente el mismo destino. Los científicos que la construyeron ya están intentando poner límites, como Szilard con su petición y Oppenheimer con su oposición a la bomba de hidrógeno. Y el Estado ya está respondiendo como respondió entonces. Marginando a los disidentes, recompensando a los que obedecen, y usando la tecnología para lo que quiso desde el principio. Con la diferencia de que esta vez, el comprador de última instancia no necesita que votemos para seguir comprando, y el Departamento ya ni siquiera se molesta en llamarse "de Defensa".

Comentarios

Entradas populares de este blog

This is not normal, and those who don't want to see it don't want to see it.

España pais tocado

Se quiere solucionar la corrupción politica?