Cuando se le realiza una pregunta a un chatbot, el resultado que emite es probabilístico. Cuando no hay suficiente información o directamente no está del todo claro qué responder, la inteligencia artificial sigue asignando una probabilidad (aunque baja) de que sea algo aquello que le estamos enseñando. Los chatbots ante la necesidad de dar una respuesta, encontrarán patrones que expliquen lo que está ocurriendo. Esto se conoce como alucinación, aunque encaja más con un concepto médico llamado «fabulación», donde los pacientes que han consumido grandes cantidades de alcohol acaban teniendo una pérdida de la capacidad de formar nuevos recuerdos y, por lo tanto, completan la realidad con todo tipo de fabulas. Que es lo que más se parece, tal vez, a los errores de las inteligencias artificiales.