Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
Physical Address
304 North Cardinal St.
Dorchester Center, MA 02124
En los últimos años, los chatbots han ganado popularidad por su capacidad para responder preguntas, escribir poesía y hablar de diversos temas. Sin embargo, un estudio realizado por la startup Vectara ha revelado que estos chatbots a menudo inventan información. Esto ha sido denominado como alucinación por parte de los expertos.
La investigación de Vectara muestra que los chatbots pueden inventar información en al menos el 3% de las ocasiones, e incluso hasta un 27% en algunos casos. La imprevisibilidad de los chatbots y su capacidad para responder de múltiples formas dificulta determinar con exactitud la frecuencia de estas alucinaciones. A pesar de los esfuerzos de compañías como OpenAI, Google y Meta para reducir este problema, no está claro si podrán eliminarlo por completo.
La capacidad de los chatbots para inventar información plantea preocupaciones sobre la precisión de la información proporcionada por estos sistemas. Los casos reportados de chatbots ofreciendo información falsa sobre temas como el telescopio James Webb y la cantante Billie Eilish resaltan la necesidad de abordar este problema.
La investigación de Vectara revela que los chatbots tienen tasas variables de alucinación, con las tecnologías de OpenAI presentando la tasa más baja y Palm Chat de Google presentando la tasa más alta. Estos chatbots se basan en probabilidades y a veces adivinan incorrectamente. Los investigadores esperan que su estudio impulse a la industria a tomar medidas para reducir las alucinaciones y mejorar la precisión de los chatbots en la información que proporcionan.