Chatbots May ‘Hallucinate’ More Often Than Many Realize

– Los chatbots suelen inventarse información, con tasas de alucinación que oscilan entre el 3% y el 27% en diferentes empresas de IA.
– La naturaleza impredecible de las respuestas dificulta la determinación de la frecuencia con la que los chatbots proporcionan información falsa.
– La necesidad de precaución y concienciación a la hora de confiar en chatbots para tareas críticas.

Se ha detectado un fallo habitual en los diferentes chatbots creados en base a Inteligencia Artificial y es que en un porcentaje de ocasiones (del 3 al 27 por ciento) se inventan la información que dan a aquellos que las preguntan. Los expertos lo han llamado chatbot behavior “hallucination” que puede suponer un problema con aquellos que trabajan con documentos judiciales, información médica o datos comerciales confidenciales.

Atención – Este documento solo está accesible a miembros de la comunidad universitaria. Para poder acceder a él botón debe identificarse en el login que encuentra a continuación.

Autor del artículo:

Cade Metz

Fuente:

New York Times

Tipo :

Noticia

Fecha de publicación :

06/11/2023

Seleccionado por:

Los sitios web de las Bibliotecas de la Universidad Europea hacen uso de las cookies propias y de terceros para ofrecerle un mejor servicio. política de cookies.

ACEPTAR
Aviso de cookies
es_ES
Scroll al inicio