La ley de la inteligencia artificial, en la recta final: estos son los riesgos que la UE quiere regular

– Primera ley mundial de regulación de IA por la UE.
– Clasificación de IA en categorías de riesgo.
– ChatGPT en categoría de «riesgo limitado».

La Unión Europea está finalizando la primera ley mundial de regulación de la Inteligencia Artificial (IA). El 14 de junio, la Eurocámara aprobó una medida para controlar la IA, clasificándola en categorías de riesgo y prohibiendo sistemas como la identificación biométrica. Los sistemas de «riesgo inaceptable» y amenazas a las personas, como la vigilancia policial predictiva o el reconocimiento facial en tiempo real, serán vetados. Otros usos de IA serán permitidos pero sujetos a diferentes niveles de control, especialmente en áreas como educación y empleo. Sin embargo, el texto genera controversias, con preocupaciones sobre un «vacío legal». La IA generativa como ChatGPT se clasifica como «riesgo limitado». La ley también requiere transparencia en el entrenamiento con material protegido por derechos de autor. Finalmente, se contempla una categoría de IA de «riesgo mínimo». La ley busca equilibrar regulación y desarrollo tecnológico en la UE. [Texto generado con ayuda de IA]

Atención – Este documento solo está accesible a miembros de la comunidad universitaria. Para poder acceder a él botón debe identificarse en el login que encuentra a continuación.

Autor del artículo:

Carles Planas Bou

Fuente:

El Periódico

Tipo :

Noticia

Fecha de publicación :

29/09/2023

Temas:

Seleccionado por:

Los sitios web de las Bibliotecas de la Universidad Europea hacen uso de las cookies propias y de terceros para ofrecerle un mejor servicio. política de cookies.

ACEPTAR
Aviso de cookies
es_ES
Scroll al inicio