lunes, 22 de septiembre de 2025

PODRÍA EXISTIR EN 2AÑOS: Qué es la 'super inteligencia artificial' y por qué es peligrosa: "Podría existir en dos años"

La inteligencia artificial (IA) está en plena ebullición, pero sus asombrosos avances podrían estar aún lejos de lo que pueden llegar a alcanzar. Es lo que sostienen dos expertos, que avisan de la llamada ‘super inteligencia artificial’ (ASI, por sus siglas en inglés).

Eliezer Yudkowsky, fundador del Machine Intelligence Research Institute (MIRI) y su presidente Nate Soares, han escrito un libro titulado If Anyone Builds It, Everyone Dies (“Si alguien lo construye, todos mueren”), donde alertan de que la super inteligencia artificial está a solo dos o cinco años de su desarrollo y que podría suponer el fin de la humanidad.

Los autores argumentan que la ASI no ofrecerá una “lucha justa” y que ejecutará múltiples “enfoques de toma de control”. “Un adversario superinteligente no revelará todas sus capacidades ni comunicará sus intenciones. No ofrecerá una lucha justa”, explican.

Yudkowsky y Soares creen que la ASI e volverá indispensable o indetectable hasta que pueda atacar con decisión o tomar una posición estratégica inexpugnable. De ser necesario, la ASI puede considerar, preparar e intentar múltiples estrategias de toma de control simultáneamente. Y solo una de ellas debe funcionar para que la humanidad se extinga.

FUENTE: Tomado de de FV Digital