Eliezer Yudkowsky, fundador del Machine Intelligence Research Institute (MIRI) y su presidente Nate Soares, han escrito un libro titulado If Anyone Builds It, Everyone Dies (“Si alguien lo construye, todos mueren”), donde alertan de que la super inteligencia artificial está a solo dos o cinco años de su desarrollo y que podría suponer el fin de la humanidad.
Los autores argumentan que la ASI no ofrecerá una “lucha justa” y que ejecutará múltiples “enfoques de toma de control”. “Un adversario superinteligente no revelará todas sus capacidades ni comunicará sus intenciones. No ofrecerá una lucha justa”, explican.
Yudkowsky y Soares creen que la ASI e volverá indispensable o indetectable hasta que pueda atacar con decisión o tomar una posición estratégica inexpugnable. De ser necesario, la ASI puede considerar, preparar e intentar múltiples estrategias de toma de control simultáneamente. Y solo una de ellas debe funcionar para que la humanidad se extinga.
FUENTE: Tomado de de FV Digital