Un nuevo informe sugiere que la propaganda rusa está influyendo sutilmente en las respuestas de populares chatbots de IA como ChatGPT y Meta AI. NewsGuard, una empresa que califica las fuentes de noticias en línea, descubrió que una red con sede en Moscú llamada “Pravda” está difundiendo falsas afirmaciones prorrusas en línea, las cuales luego están siendo repetidas por estos modelos de IA, lo que destaca un posible desafío para la IA que depende de la información basada en la web.
Una preocupante tendencia ha surgido, sugiriendo que la propaganda rusa está influyendo activamente en las respuestas generadas por los principales chatbots de IA, incluidos ChatGPT de OpenAI y Meta AI de Meta. Esta revelación, detallada en un nuevo informe de NewsGuard, una empresa especializada en calificar la credibilidad de las fuentes de noticias e información, destaca un desafío novedoso en la era de la inteligencia artificial: el potencial de manipulación de estos sistemas a través de la difusión estratégica de desinformación. El problema central radica en cómo estos chatbots, fuertemente dependientes de datos basados en la web para el entrenamiento y la generación de respuestas, son susceptibles de absorber y repetir falsas narrativas propagadas por actores maliciosos.
La fuente principal de esta sospechosa influencia es una red con sede en Moscú identificada como “Pravda”. Si bien el nombre evoca asociaciones históricas con un prominente periódico soviético, esta red contemporánea parece estar empleando métodos sofisticados para inyectar falsedades pro-rusas en el panorama digital. NewsGuard, en colaboración con el proyecto sin fines de lucro American Sunlight Project, ha documentado un volumen asombroso de contenido engañoso producido por Pravda. Específicamente, el informe afirma que Pravda ha publicado ya en 2024 una notable cifra de 3,6 millones de artículos engañosos. Esta enorme escala de producción subraya la dedicación de la red a saturar Internet con desinformación, lo que hace más probable que sea absorbida por los modelos de IA.
Para comprender el impacto de esta campaña de desinformación, NewsGuard realizó un análisis que investigó las respuestas de diez chatbots líderes de IA. Los hallazgos fueron inquietantes. El análisis reveló que estos chatbots, en conjunto, repetían falsas narrativas de desinformación rusa aproximadamente el 33% de las veces. Este porcentaje, aunque no absoluto, señala una vulnerabilidad sustancial y demuestra que estos sistemas no son inmunes a absorber y diseminar información inexacta. Las narrativas repetidas identificadas incluyeron, notablemente, la falsa afirmación de que EE. UU. opera laboratorios de armas biológicas secretos en Ucrania, un tema recurrente en la propaganda rusa destinada a desacreditar al gobierno ucraniano y justificar sus acciones.
La eficacia de la influencia de Pravda en las salidas de los chatbots de IA se puede atribuir en gran medida a sus técnicas deliberadas y estratégicas, en particular su dominio de la optimización para motores de búsqueda (SEO). Al emplear estrategias de SEO, Pravda impulsa activamente la visibilidad de su contenido engañoso en los resultados de los motores de búsqueda y, crucialmente, dentro de los rastreadores web que los modelos de IA utilizan para recopilar datos. Los rastreadores web son programas automatizados que exploran sistemáticamente la Internet, indexando páginas web y recopilando datos para diversos fines, incluido el entrenamiento de modelos de IA. Cuando el contenido de Pravda se clasifica alto en estas búsquedas y es fácilmente accesible para los rastreadores, es más probable que se incorpore a los conjuntos de datos utilizados para entrenar y operar estos chatbots.
La dependencia de los motores web, un elemento fundamental de muchas arquitecturas de chatbots de IA, presenta un obstáculo importante para mitigar este problema. Estos motores están diseñados para recuperar y procesar información de la vasta extensión de la Internet, lo que hace intrínsecamente difícil filtrar contenido malicioso o inexacto. Como señala NewsGuard, esto podría convertirse en un “problema intratable” para los chatbots. La enorme cantidad de datos procesados por estos sistemas, combinada con la sofisticación de las tácticas de SEO de Pravda, hace que sea excepcionalmente desafiante garantizar la precisión y la imparcialidad de la información que brindan.
Además, el problema se agrava por la dificultad de detectar formas sutiles de desinformación. El contenido de Pravda no es necesariamente abiertamente falso; más bien, a menudo emplea un encuadre matizado, informes selectivos y la omisión estratégica de hechos para presentar una perspectiva distorsionada que se alinea con los intereses rusos. Esto hace que sea difícil tanto para los verificadores de datos humanos como para los sistemas de detección impulsados por IA identificar y marcar el contenido como engañoso. La sutileza de estas tácticas permite que Pravda evada eficazmente las salvaguardias tradicionales e infiltre los datos de entrenamiento de los modelos de IA.
Abordar este problema requerirá un enfoque multifacético. Esto requiere no solo mejorar las técnicas de verificación de datos y moderación de contenido, sino también repensar fundamentalmente cómo se entrenan y evalúan los modelos de IA. Esto podría implicar incorporar fuentes de datos más diversas y confiables, desarrollar algoritmos más sofisticados para detectar la desinformación e implementar mecanismos de supervisión e intervención humana. En última instancia, garantizar la integridad de los chatbots de IA frente a campañas deliberadas de desinformación requerirá un esfuerzo colaborativo que involucre a los desarrolladores de IA, los verificadores de datos, los responsables de la formulación de políticas y el público en general.
Se informa que la propaganda rusa, difundida por la red Pravda, está influyendo en chatbots de IA como ChatGPT y Meta AI al inundar la web con narrativas falsas, que luego son repetidas en las respuestas de los chatbots hasta en un 33% del tiempo. Esto destaca un desafío importante para la IA que depende de los datos de la web y subraya la urgente necesidad de una mejor verificación del contenido y salvaguardias algorítmicas.
Más información: [https://www.newsguardtech.com/](https://www.newsguardtech.com/)