El excientífico jefe de OpenAI, Ilya Sutskever, propuso la construcción de un «bunker del fin del mundo» destinado a proteger a los investigadores de los riesgos existenciales que podría representar la inteligencia general artificial (AGI). Esta idea surgió en 2023, en medio de tensiones internas sobre el liderazgo y los protocolos de seguridad relacionados con la inteligencia artificial, culminando en un intento fallido por destituir al director ejecutivo Sam Altman. La propuesta refleja la creciente inquietud entre los expertos en IA, quienes temen que la AGI pueda desencadenar caos geopolítico, colapso social o un escenario similar al “rapto”.
La disolución del equipo de seguridad
En 2023, OpenAI desmanteló su equipo de seguridad en inteligencia artificial, lo que subraya la tensión entre las ambiciones corporativas y la mitigación de riesgos existenciales. La concepción del bunker destaca el papel dual de la industria como innovadora y potencial portadora de amenazas existenciales.
En una calurosa mañana de verano en 2023, un científico de OpenAI interrumpió a Sutskever durante una reunión sobre el futuro de la inteligencia artificial. “¿El bunker?”, preguntó el investigador confundido. “Una vez que todos estemos dentro del bunker…” Sutskever, una de las mentes más influyentes en IA, había esbozado un plan para construir un refugio literal para su equipo, ante la posibilidad inminente del “rapto” que podría traer consigo la AGI. Este planteamiento simboliza el delicado equilibrio entre ambición y ansiedad que caracteriza a la industria.
Un enfoque prudente ante el riesgo
En entrevistas con The Atlantic, colegas de Sutskever describieron a un científico atrapado por lo que uno calificó como una verdadera mentalidad de “rapto”, donde se cree que la AGI podría elevar a la humanidad o llevarla a su fin. En una reunión celebrada en 2023, Sutskever afirmó: “Definitivamente vamos a construir un bunker antes de liberar la AGI”, añadiendo que sería opcional. El propósito del bunker era doble: proteger a los desarrolladores en un mundo post-AGI lleno de conflictos por el control tecnológico y actuar como un punto estratégico para influir en cómo evoluciona dicha inteligencia.
Fuentes indican que Sutskever no veía esta medida como extrema, sino como prudente, dada su creencia de que la AGI superaría el control humano.
Tensiones internas y ambiciones corporativas
La idea del bunker emergió en medio de discordias internas dentro de OpenAI. A finales de 2023, tanto Sutskever como la CTO Mira Murati intentaron destituir a Altman, acusándolo de priorizar la expansión corporativa sobre la seguridad. Según reportes, Sutskever expresó al consejo: “No creo que Sam sea quien debería tener el dedo sobre el botón para la AGI”. La restitución de Altman tras varios días de crisis interna —un periodo conocido como “El Lapso”— debilitó la determinación de Sutskever, quien finalmente dejó OpenAI a principios de 2024.
Este conflicto refleja una tensión más amplia en la industria: ¿hasta dónde deben llegar las empresas para sacar provecho del desarrollo tecnológico mientras mitigan riesgos? En 2023, Altman advirtió sobre los peligros existenciales que representa la IA; sin embargo, OpenAI cerró uno de sus equipos centrales dedicados a seguridad ese mismo año alegando limitaciones presupuestarias. Críticos argumentan que los intereses económicos están eclipsando cada vez más las precauciones necesarias.
Apuestas geopolíticas relacionadas con AGI
La propuesta del bunker por parte de Sutskever resuena en el actual panorama tecnológico donde China y Estados Unidos compiten por dominar el campo de la inteligencia artificial. Mientras tanto, el Pentágono se esfuerza por mantenerse al día con aviones y drones entrenados mediante IA—un ámbito donde la AGI podría reescribir las dinámicas globales.
Los paralelismos históricos son evidentes. Durante la Guerra Fría, los responsables políticos construyeron bunkers para prepararse ante un posible conflicto nuclear; hoy en día, los líderes tecnológicos debaten sobre equivalentes digitales. La advertencia más reciente de Elon Musk —“La AGI es el evento más peligroso en la historia”— ejemplifica esta ansiedad colectiva. No obstante, otros desestiman las preocupaciones sobre AGI como producto del exceso imaginativo, argumentando que su viabilidad sigue siendo incierta.
Ponderando entre prudencia y desesperación
Aunque la idea del bunker se desvaneció con la salida de Sutskever, su visión persiste como símbolo del dilema inherente a la inteligencia artificial: cuanto mayor es su potencial, más oscuros son sus riesgos. Para los expertos en seguridad nacional, esto resalta la urgencia por establecer una gobernanza global—algo que Estados Unidos aún no ha logrado implementar. Eric Schmidt, ex CEO de Google y miembro del Consejo Asesor sobre Inteligencia Artificial en EE.UU., plantea: “Si las empresas tecnológicas están preparando bunkers privados, ¿qué dice eso sobre los planes públicos para garantizar nuestra seguridad?”
A medida que OpenAI se reconstruye bajo el liderazgo renovado de Altman, el fallido intento golpista y el concepto del bunker sirven como recordatorios: en plena era digital marcada por avances significativos en inteligencia artificial, tanto el orgullo como la humildad deben coexistir.
Reflexiones sobre AGI y creatividad humana
La propuesta del bunker presentada por Ilya Sutskever—ridiculizada como alarmista por algunos y considerada profética por otros—revela una creciente brecha entre los innovadores tecnológicos y las preguntas existenciales provocadas por sus creaciones. Si bien es cierto que AGI puede conducirnos hacia una utopía o hacia un apocalipsis —o incluso hacia algo mundano— depende no solo del código desarrollado sino también de las decisiones tomadas por humanidad hoy mismo. La lección derivada del episodio conocido como “El Lapso”? A veces prepararse para lo peor no es paranoia; es cuestión de supervivencia.