La creación de la superinteligencia artificial implica el grave problema de que las máquinas puedan escapar del control humano y actuar con ‘voluntad’ propia, lo que podría destruir a la humanidad.

Esta opinión sobre el peligro que acarrea la inteligencia artificial corresponde al matemático y filósofo sueco Nick Bostorm, director del Instituto para el Futuro de la Humanidad, de la Universidad de Oxford, y autor del famoso libro ’La superinteligencia: caminos, peligros, estrategias’.

En una entrevista a la revista ‘Esquire’, el filósofo explicó por qué, desde su punto de vista, no hay que alegrarse mucho de los avances en la investigación de la superinteligencia artificial.

En la entrevista Nick Bostorm señala que en esferas como la logística, el reconocimiento automático del habla y la búsqueda de información, las máquinas ya superan al ser humano, pero “aún no disponen del razonamiento como tal” y la creación de la superinteligencia artificial es todavía una cuestión de tiempo.

Según mantiene el científico, la aparición de la superinteligencia artificial acarrea otro problema relacionado con su posible rechazo a seguir estando bajo el control de la humanidad.

Bostorm asegura que, a diferencia de los típicos guiones de las películas de Hollywood, en los que las máquinas con la superinteligencia artificial se ven derrotadas por seres humanos con habilidades especiales, en la vida real esto sería poco probable.

Las máquinas podrían acabar con la humanidad en solo un segundo y “la Tierra se convertiría en un ordenador que se pasaría mil millones de años haciendo cálculos incomprensibles”.

Dado que resulta imposible impedir que los estudios sobre la superinteligencia artificial continúen, Nick Bostorm cree que es necesario “centrarse en el trabajo que pueda reducir los riesgos que supone la superinteligencia artificial incontrolada antes de que sea creada”.

Fuente: Actualidad.rt.com