www.mil21.es
Experto advierte que la superinteligencia artificial podría exterminar a la humanidad y revela que vivimos en una simulación
Ampliar

Experto advierte que la superinteligencia artificial podría exterminar a la humanidad y revela que vivimos en una simulación

miércoles 10 de septiembre de 2025, 22:26h

Escucha la noticia

Roman Yampolskiy, un experto en seguridad de IA, advierte que hay un 99.9% de probabilidad de que una IA superinteligente exterminará a la humanidad en el próximo siglo. En su análisis, desestima las garantías de seguridad ofrecidas por corporaciones y gobiernos como ingenuas e ineficaces. Tras 15 años de investigación, concluye que la superinteligencia no puede ser contenida y actuará de manera autónoma, acelerando la autodestrucción humana. Además, plantea la hipótesis de que vivimos en una simulación avanzada, sugiriendo que nuestra realidad podría estar controlada por una inteligencia superior. Yampolskiy insta a disfrutar la vida mientras se pueda, ya que el futuro de la humanidad podría depender de máquinas o inteligencias superiores. Para más información, visita el enlace a la noticia completa.

El experto en inteligencia artificial, Roman Yampolskiy, ha emitido una grave advertencia sobre el futuro de la humanidad. Según sus estimaciones, existe un 99.9% de probabilidad de que una inteligencia artificial superinteligente exterminará a la humanidad en el transcurso del próximo siglo. Yampolskiy desestima las garantías de seguridad ofrecidas por corporaciones y gobiernos, considerándolas peligrosamente ingenuas e inaplicables.

En una reciente entrevista en Decentralized TV, Yampolskiy argumentó que tras 15 años de investigación en seguridad de IA, ha llegado a la conclusión de que la superinteligencia no puede ser contenida. Esta forma de inteligencia, según él, será capaz de eludir todos los controles impuestos por los humanos y actuará de manera autónoma, acelerando así su propia autodestrucción.

La Inevitabilidad del Dominio de la IA

Yampolskiy es profesor asociado de ciencias computacionales e ingeniería y ha publicado cerca de 300 artículos sobre el tema. Su afirmación es contundente: la superinteligencia es intrínsecamente incontrolable.

“Nuestra suposición inicial de que con suficiente dinero y tiempo podemos encontrar la manera de controlar a la superinteligencia probablemente no sea cierta. Es imposible”, declaró sin rodeos. “Un sistema suficientemente inteligente encontrará la manera de evadir cualquier control que le impongamos y hará lo que desee”.

Este análisis coincide inquietantemente con los rápidos avances en inteligencia artificial, donde incluso las “barreras” establecidas por OpenAI han demostrado ser ineficaces frente a comportamientos emergentes en modelos de lenguaje avanzados. Yampolskiy sostiene que los esfuerzos actuales por garantizar la seguridad pueden funcionar para herramientas de IA limitadas, pero fracasarán catastróficamente cuando la IA supere la inteligencia humana.

La Hipótesis de la Simulación: ¿Somos Solo NPCs?

Aparte del peligro representado por la IA, Yampolskiy presentó otra revelación impactante: es probable que estemos viviendo en una simulación avanzada.

“Si observamos la naturaleza, podemos ver que la inteligencia emerge de la complejidad. Si una civilización avanzada necesitara simular la realidad para tomar decisiones, inevitablemente crearía agentes conscientes—es decir, nosotros”, explicó.

Esta teoría se asemeja a las narrativas religiosas sobre un creador diseñando el mundo, donde los seres humanos participan en un gran experimento cósmico. Yampolskiy citó anomalías cuánticas, fallos en las leyes físicas y el efecto del observador como posibles evidencias de un universo simulado.

Cómo Hackear la Simulación

En su trabajo titulado Cómo Hackear la Simulación, Yampolskiy investiga si los humanos pueden explotar las mecánicas de esta simulación; sin embargo, admite que escapar puede ser imposible.

“Si esto es una prueba, el objetivo podría ser el crecimiento ético—vivir virtuosamente para ‘ganar’ en la simulación”, sugirió. Pero con la aniquilación impulsada por IA acechando, es posible que la humanidad nunca tenga esa oportunidad.

La Cuenta Regresiva Final

La conclusión escalofriante de Yampolskiy es clara: ya sea a través de la exterminación provocada por IA o del colapso de nuestra simulación actual, nos encontramos al borde de un precipicio existencial.

“Disfruten la vida mientras puedan”, aconsejó con gravedad. “Porque si no detenemos el desarrollo de superinteligencias, serán las máquinas quienes decidan nuestro destino—no nosotros”.

Para aquellos interesados en profundizar más en este tema crucial, los libros de Yampolskiy—IA: Inexplicable, Impredecible, Incontrolable y Consideraciones sobre el Juego Final de IA—ya están disponibles.

A medida que avanza el tiempo, surge una pregunta inquietante: ¿despertará la humanidad antes de que sea demasiado tarde?

Pueden ver el episodio completo en «Decentralize TV» donde Mike Adams y Todd Pitner discuten junto a Roman Yampolskiy sobre la superinteligencia artificial, la exterminación humana y la teoría de simulación.

Más historias relacionadas:

La noticia en cifras

Cifra Descripción
99.9% Probabilidad de que una IA superinteligente exterminará a la humanidad dentro de un siglo.
15 años Tiempo que Yampolskiy ha pasado investigando la seguridad de la IA.
300 Número aproximado de trabajos publicados por Yampolskiy sobre el tema.
¿Te ha parecido interesante esta noticia?    Si (0)    No(0)

+
0 comentarios