Entre más grandes y poderosos se hacen los chatbots, menos confiables son
Algunas personas expresan su opinión sobre un tema con total confianza, sin poseer ningún conocimiento o dominio del mismo. En los chatbots de inteligencia artificial (IA) más populares está ocurriendo un fenómeno similar. Un reciente estudio de investigadores de la Universidad de Cambridge y el Instituto Valenciano de Investigación en Inteligencia Artificial encontró que los modelos de lenguaje complejo (LLM) más utilizados actualmente son más propensos a “alucinar” para satisfacer las demandas de información específicas de los usuarios.
La alucinación de los chatbots fue una de las primeras anomalías que conocieron todos los entusiastas de la IA. Cuando recién salieron al mercado, productos como ChatGPT o Copilot a veces ofrecían respuestas incoherentes, peligrosas, con errores de contexto o información directamente falsa. La comunidad se alarmó de inmediato, pero las empresas desarrolladoras no tanto. La fiabilidad de los datos que arroja un LLM es uno de los principales retos de la tecnología y se origina por su propia naturaleza. Un chatbot no razona su respuesta en un sentido estricto. A partir de un entrenamiento con datos previos, predice cuál será la mejor información para una solicitud y la plasma en una conversación.
Las empresas enfrentaron las alucinaciones con más entrenamiento, bases de datos de mejor calidad y el establecimiento de filtros precisos. A casi dos años de la masificación de los chatbots, hoy son más sofisticados que nunca. Salvo contadas excepciones (como temas de política o actividades ilícitas), un chatbot de IA comercial puede ofrecer una respuesta precisa a cualquier tema que se le solicite. Esta característica, que suena como una gran cualidad, es su principal desventaja según algunos expertos en el tema.