AI models collapse when trained on recursively generated data

– Impacto de la IA generativa en la creación de contenido.
– Preocupaciones sobre el «colapso del modelo».
– Importancia de los datos genuinos.

La difusión estable ha transformado la creación de imágenes a partir de texto descriptivo, mientras que modelos como GPT-2, GPT-3 y GPT-4 han demostrado un gran rendimiento en tareas lingüísticas, como se ha visto con ChatGPT. A medida que la IA generativa, en particular los grandes modelos lingüísticos (LLM), se vuelve esencial para la creación de textos e imágenes en línea, surgen dudas sobre su futuro si el contenido generado por modelos domina los conjuntos de datos de entrenamiento. El estudio revela que el uso indiscriminado de dicho contenido provoca el «colapso del modelo», cuando los modelos pierden la capacidad de representar la verdadera distribución de los datos a través de las generaciones. Este efecto se produce en varios modelos y subraya la importancia de utilizar datos humanos auténticos para mantener la calidad y precisión de estos modelos.

Autor del artículo:

Ilia Shumailov, Zakhar Shumaylov, Yiren Zhao, Nicolas Papernot, Ross Anderson & Yarin Gal

Fuente:

Nature

Tipo :

Noticia

Fecha de publicación :

24/07/2024

Seleccionado por:

Los sitios web de las Bibliotecas de la Universidad Europea hacen uso de las cookies propias y de terceros para ofrecerle un mejor servicio. política de cookies.

ACEPTAR
Aviso de cookies
es_ES
Scroll al inicio