Búsquedas de IA: resultados erráticos.

La inteligencia artificial generativa se está utilizando cada vez más para buscar noticias, y aproximadamente 1 de cada 4 estadounidenses ahora utiliza estas herramientas como alternativa a los motores de búsqueda tradicionales. Sin embargo, un nuevo estudio de Columbia Journalism Review revela problemas significativos de precisión con estas herramientas de búsqueda de noticias impulsadas por IA, encontrando que frecuentemente proporcionan información incorrecta sobre las fuentes de noticias.

Un reciente estudio del Tow Center for Digital Journalism de Columbia Journalism Review ha revelado problemas significativos de precisión con los modelos de IA generativa que se utilizan cada vez más para búsquedas de noticias, lo que genera serias preocupaciones sobre la fiabilidad de la información a la que se accede a través de estas herramientas. La investigación, realizada por Klaudia Jaźwińska y Aisvarya Chandrasekar, probó ocho herramientas de búsqueda impulsadas por IA equipadas con funcionalidad de búsqueda en vivo, descubriendo que estos modelos respondieron incorrectamente más del 60 por ciento de las consultas relacionadas con fuentes de noticias. Esto es particularmente preocupante dado que aproximadamente una de cada cuatro personas en Estados Unidos ahora utiliza modelos de IA como alternativa a los motores de búsqueda tradicionales, lo que destaca una creciente dependencia de fuentes de información potencialmente defectuosas.

Los hallazgos del estudio demostraron una amplia gama de tasas de error en las plataformas probadas, lo que subraya la inconsistencia en la precisión de estas herramientas. Perplexity, por ejemplo, proporcionó información incorrecta en el 37 por ciento de las consultas probadas. ChatGPT Search exhibió una tasa de error considerablemente más alta, identificando incorrectamente el 67 por ciento (134 de 200) de los artículos consultados. Sin embargo, Grok 3 se destacó con la tasa de error más alarmante, alcanzando un asombroso 94 por ciento. Estas estadísticas ilustran claramente el riesgo sustancial de desinformación al depender de estas herramientas de búsqueda impulsadas por IA para el consumo de noticias.

Para evaluar rigurosamente la precisión de los modelos, los investigadores emplearon una metodología de pruebas directas. Alimentaron extractos tomados textualmente de artículos de noticias reales en los modelos de IA y luego plantearon preguntas específicas sobre cada artículo, incluyendo su titular, el editor original, la fecha de publicación y la URL. Este entorno controlado permitió una evaluación precisa de la capacidad de los modelos para identificar y atribuir con precisión el contenido de las noticias. Se realizaron un total de 1.600 consultas en las ocho herramientas de búsqueda generativa diferentes, proporcionando un conjunto de datos integral para el análisis.

Un patrón preocupante surgió durante las pruebas: en lugar de admitir incertidumbre cuando carecía de información fiable, estos modelos de IA frecuentemente generaron “confabulaciones”. Esto significa que proporcionaron respuestas plausibles, pero en última instancia incorrectas o especulativas. Los investigadores enfatizaron que este comportamiento no se limitó a una sola herramienta; fue una tendencia consistente observada en los ocho modelos probados. Esta tendencia a presentar con confianza información inexacta es particularmente peligrosa, ya que los usuarios pueden ser engañados para que crean que las respuestas fabricadas son fácticas.

Sorprendentemente, el estudio encontró que las versiones premium, de pago, de estas herramientas de búsqueda de IA a menudo funcionaron incluso peor que sus contrapartes gratuitas en términos de precisión. Perplexity Pro ($20/mes) y el servicio premium de Grok 3 ($40/mes) entregaron con confianza respuestas incorrectas con más frecuencia que sus versiones gratuitas. Si bien estos modelos premium sí respondieron correctamente un mayor número de indicaciones en general, su falta de voluntad para rechazar las respuestas inciertas resultó en tasas de error generales más altas. Esto sugiere que la promesa de un rendimiento mejorado con suscripciones de pago no necesariamente se traduce en una precisión mejorada en la recuperación de noticias.

Más allá de las preocupaciones sobre la precisión, los investigadores de CJR también descubrieron evidencia preocupante que sugiere que algunas herramientas de IA estaban ignorando las instrucciones de los editores con respecto a la indexación web. Específicamente, encontraron instancias en las que las herramientas de IA ignoraron la configuración del Protocolo de Exclusión de Robots (REP). REP es un mecanismo estándar que utilizan los editores para evitar el acceso y la extracción no autorizados de su contenido. Por ejemplo, la versión gratuita de Perplexity identificó correctamente los 10 extractos de contenido de National Geographic con muro de pago, a pesar de que National Geographic prohibió explícitamente a los rastreadores web de Perplexity. Este desprecio por las directivas de los editores plantea preguntas éticas y legales sobre el respeto por los derechos de autor y la propiedad del contenido en la era de la búsqueda impulsada por IA.

Un estudio de Columbia Journalism Review revela alarmantes tasas de imprecisión (hasta el 94%) en las herramientas de búsqueda de noticias basadas en IA generativa, donde las versiones de pago a menudo son peores que las gratuitas. Estos modelos con frecuencia inventan respuestas en lugar de admitir incertidumbre y, en algunos casos, ignoran las restricciones de los editores. A medida que la IA reemplaza cada vez más la búsqueda tradicional, es primordial garantizar la precisión y respetar los estándares periodísticos, siendo necesaria una investigación urgente sobre el impacto de la IA en el consumo de noticias.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *