Superintelligence and the future of AI with Nick Bostrom

– Responsabilidad de crear una IA superinteligente.
– Potencial de la IA para resolver retos globales.
– Riesgos existenciales y consideraciones morales en el desarrollo de la IA.

Nick Bostrom, profesor de la Universidad de Oxford y director del Future of Humanity Institute, analiza el desarrollo de la superinteligencia de las máquinas y su impacto potencial en la humanidad. Bostrom cree que, en este siglo, crearemos la primera inteligencia general que será más inteligente que los humanos. Considera este logro como lo más importante que la humanidad hará jamás, pero también conlleva una enorme responsabilidad.Bostrom señala que existen riesgos existenciales asociados con la transición a la era de la inteligencia artificial, como la posibilidad de una superinteligencia subyacente que supere a la civilización humana con sus propias estructuras de valores.

Interés: 3′- 4’44» La Superinteligencia será un hecho en breve y revolucionará la Humanidad en todos sus ámbitos. Bostrom cree que el desarrollo de la superinteligencia de las máquinas es crucial para un futuro verdaderamente grandioso en todos los ámbitos de la vida.

Autor del artículo:

Big Think

Fuente:

Big Think

Tipo :

Noticia

Fecha de publicación :

09/04/2023

Temas:

Seleccionado por:

Los sitios web de las Bibliotecas de la Universidad Europea hacen uso de las cookies propias y de terceros para ofrecerle un mejor servicio. política de cookies.

ACEPTAR
Aviso de cookies
es_ES
Scroll al inicio