Superintelligence and the future of AI with Nick Bostrom

– Responsabilidad de crear una IA superinteligente.
– Potencial de la IA para resolver retos globales.
– Riesgos existenciales y consideraciones morales en el desarrollo de la IA.

Nick Bostrom, profesor de la Universidad de Oxford y director del Future of Humanity Institute, analiza el desarrollo de la superinteligencia de las máquinas y su impacto potencial en la humanidad. Bostrom cree que, en este siglo, crearemos la primera inteligencia general que será más inteligente que los humanos. Considera este logro como lo más importante que la humanidad hará jamás, pero también conlleva una enorme responsabilidad.Bostrom señala que existen riesgos existenciales asociados con la transición a la era de la inteligencia artificial, como la posibilidad de una superinteligencia subyacente que supere a la civilización humana con sus propias estructuras de valores.

Interés: 3′- 4’44» La Superinteligencia será un hecho en breve y revolucionará la Humanidad en todos sus ámbitos. Bostrom cree que el desarrollo de la superinteligencia de las máquinas es crucial para un futuro verdaderamente grandioso en todos los ámbitos de la vida.

Author:

Big Think

Source:

Big Think

Type:

Noticia

Publication date:

09/04/2023

Subjects:

Selected by:

Los sitios web de las Bibliotecas de la Universidad Europea hacen uso de las cookies propias y de terceros para ofrecerle un mejor servicio. política de cookies.

ACEPTAR
Aviso de cookies
en_GB
Scroll to Top