Los chatbots con inteligencia artificial (IA) se utilizan para redactar textos, buscar información en tiempo real, resolver dudas y crear imágenes, aunque los usuarios de España también emplean dicha tecnología para encontrar ideas de regalos o planes nutricionales. No obstante, más allá de los múltiples usos que se le puede dar a ChatGPT, Gemini, Perplexity AI o Copilot, hay quienes usan la IA para mantenerse informado, pese a que se ha descubierto que dichos chatbots "están resumiendo incorrectamente las noticias".
Una reciente investigación realizada por la BBC revela que dicho medio proporcionó a ChatGPT, Copilot, Gemini y Perplexity AI contenido del sitio web de la BBC y, después, les hizo preguntas sobre las noticias. Pero, desafortunadamente, las respuestas proporcionadas contenían "inexactitudes significativas" y "distorsiones".
Ante tal situación, Déborah Turnes, directora ejecutiva de BBC News and Current Affairs, afirmó en un comunicado que "la distorsión ocurre cuando un asistente de inteligencia artificial extrae información para responder a una pregunta y ofrece una respuesta que es incorrecta, engañosa y potencialmente peligrosa. No es difícil ver con qué rapidez la distorsión de la IA podría socavar la ya frágil fe de las personas en los hechos y la información verificada. Vivimos tiempos difíciles. ¿Cuánto tiempo pasará antes de que un titular distorsionado por inteligencia artificial cause un daño significativo en el mundo real? Las empresas que desarrollan herramientas de inteligencia artificial están jugando con fuego".
ChatGPT, Gemini, Copilot y Perplexity no resume con precisión las noticias
En el estudio, BBC solicitó a ChatGPT, Copilot, Gemini y Perplexity que resumieran 100 noticias y calificaran cada respuesta; además, un grupo de periodistas expertos relevantes en el tema cualificaron la calidad de las respuestas de los asistentes de inteligencia artificial.
"Se encontró que el 51% de todas las respuestas de IA a preguntas sobre noticias fueron consideradas como si tuvieran problemas importantes de algún tipo. Asimismo, el 19% de las respuestas de IA que citaban contenido de la BBC introdujeron errores fácticos, como declaraciones fácticas, números y fechas incorrectas", indica el medio citado.
Por otro lado, la investigación señala que, además de contener imprecisiones fácticas, los chatbots "tenían dificultades para diferenciar entre opiniones y hechos, editorializaban y, a menudo, no incluían el contexto esencial".
La respuesta de OpenAI
Tras hacerse públicas las respuestas incorrectas, un portavoz de OpenAI le dijo a BBC News que han colaborado con socios para "mejorar la precisión de las citas en línea" y "respetar las preferencias de los editores", "lo que incluye habilitar cómo aparecen en las búsquedas mediante la gestión OAI-SearchBot en su arvicho robots.txt —es decir, una instrucción en el código de una página web que le solicita a un bot que no use esa página en los resultados de búsqueda—".
Apúntate a nuestra newsletter y recibe en tu correo las últimas noticias sobre tecnología.