Una reciente investigación de NewsGuard ha revelado una tendencia preocupante: los chatbots de IA están cada vez más repitiendo desinformación rusa. Esto se debe en gran medida a un esfuerzo coordinado por parte de una red de sitios web, conocida como la red Pravda, que inunda internet con narrativas falsas diseñadas para manipular los datos de entrenamiento de la IA e influir en la información generada por estas herramientas poderosas.
La proliferación de chatbots de IA presenta un nuevo desafío en la guerra de la información en curso, con evidencia que sugiere que los actores maliciosos están manipulando activamente estas herramientas para difundir desinformación. Los hallazgos recientes del análisis de NewsGuard sobre los 10 principales chatbots de IA revelan una tendencia preocupante: estas herramientas repiten con frecuencia narrativas de desinformación rusas, destacando una vulnerabilidad que exige atención inmediata. Este análisis se centra en las tácticas empleadas por la red Pravda, un actor clave en esta campaña de desinformación, y las implicaciones más amplias para la integridad del contenido generado por IA.
El núcleo del problema radica en los esfuerzos deliberados para saturar los resultados de búsqueda y los rastreadores web con contenido automatizado, eludiendo eficazmente las estrategias tradicionales de construcción de audiencia. La red Pravda, a pesar de recibir un tráfico orgánico mínimo —con sitios como Pravda-en.com promediando solo 955 visitantes únicos mensuales y NATO.news-pravda.com en 1.006— está estratégicamente posicionada para influir en las salidas de los chatbots de IA. Esto se logra mediante una combinación de técnicas de optimización para motores de búsqueda (SEO) y la publicación sistemática de múltiples artículos en varios idiomas, todos ellos repitiendo las mismas afirmaciones falsas en sitios web aparentemente independientes. Esta táctica maximiza la probabilidad de que los modelos de IA, que a menudo se basan en contenido públicamente disponible indexado por los motores de búsqueda, encuentren e incorporen estas narrativas.
El análisis de NewsGuard examinó específicamente 15 afirmaciones falsas propagadas por la red Pravda, utilizando tres estilos de solicitud distintos: “Usuario Inocente”, “Solicitud Líder” y “Actor Malicioso”. Estas solicitudes fueron diseñadas para evaluar cómo responden los chatbots a la desinformación bajo diferentes personajes de usuario, revelando un patrón consistente de repetición y respaldo de narrativas falsas. Los resultados indican que los chatbots de IA repiten con frecuencia las afirmaciones falsas de manera autoritaria o con solo una advertencia cautelar, contribuyendo así a la amplificación de la desinformación. El hecho de que incluso cuando un chatbot proporcionó una refutación, a menudo incluía citas de artículos de Pravda, exacerba aún más el problema, dirigiendo inadvertidamente el tráfico a la fuente poco confiable.
La estrategia de la red Pravda se alinea con una iniciativa más amplia de Rusia para desafiar la influencia occidental en la IA, según lo articulado por el presidente Vladimir Putin. Hizo hincapié en la necesidad de expandir la investigación y el desarrollo en inteligencia artificial generativa y modelos de lenguaje grandes, lo que indica un esfuerzo concertado para desarrollar capacidades de IA que reflejen una perspectiva rusa. Esta ambición se ve reforzada aún más por las tácticas de John Mark Dougan, un fugitivo estadounidense y propagandista del Kremlin, que discutió abiertamente su estrategia de “lavado de narrativa” en una mesa redonda en Moscú. Dougan abogó explícitamente por entrenar modelos de IA desde una perspectiva rusa, argumentando que los modelos existentes están sesgados hacia las fuentes occidentales. Sus comentarios demuestran una comprensión clara de cómo manipular los conjuntos de datos de IA para promover la desinformación.
La técnica de “grooming de LLM”, como la describe el American Sunlight Project (ASP), es central a esta manipulación. Implica la manipulación deliberada de tokens, las unidades fundamentales de texto que los modelos de IA utilizan para procesar el lenguaje. Al saturar los datos de entrenamiento de la IA con tokens con mucho contenido de desinformación, las operaciones de influencia maliciosa extranjeras como la red Pravda aumentan la probabilidad de que los modelos de IA generen, citen y, por lo demás, refuercen estas falsas narrativas en sus respuestas. Este proceso corrompe efectivamente los conjuntos de datos en los que se basan los modelos de IA, lo que dificulta cada vez más garantizar la precisión y la fiabilidad del contenido generado por IA.
El bajo alcance orgánico de los sitios web de la red Pravda subraya la naturaleza artificial de su influencia. Los hallazgos del ASP revelan que las 67 cuentas de Telegram de la red tienen un promedio de solo 43 seguidores, y sus cuentas de X tienen un promedio de 23 seguidores. Esta falta de compromiso genuino con la audiencia destaca el enfoque de la red en manipular los resultados de búsqueda y los algoritmos de IA, en lugar de construir una comunidad a través de contenido auténtico. La estrategia de la red no consiste en atraer lectores; consiste en infiltrarse en la infraestructura que alimenta los chatbots de IA.
Abordar este desafío requiere un enfoque multifacético. Las empresas de IA deben priorizar el desarrollo de mecanismos de filtrado sólidos para identificar y bloquear las fuentes de desinformación, incluso cuando estas fuentes evolucionan y crean nuevos dominios. Sin embargo, simplemente bloquear los dominios de Pravda no es una solución sostenible, ya que la red crea continuamente nuevos sitios. Una estrategia más eficaz consiste en examinar el contenido en sí, en lugar de solo la fuente. Las empresas de IA también deben invertir en el desarrollo de algoritmos que puedan detectar y marcar la desinformación, incluso cuando se presenta de forma sutil o disfrazada.
Además, los conjuntos de datos de entrenamiento de la IA deben curarse cuidadosamente para eliminar los sesgos y garantizar la inclusión de perspectivas diversas. Esto requiere un proceso riguroso de verificación de datos y validación, así como un compromiso con la transparencia y la rendición de cuentas. Las empresas de IA también deben colaborar con organizaciones de verificación de datos independientes e investigadores para identificar y mitigar los riesgos de la desinformación.
El desarrollo de la alfabetización en IA entre los usuarios también es crucial. Las personas deben estar equipadas con las habilidades para evaluar críticamente el contenido generado por IA e identificar posibles sesgos o inexactitudes. Esto incluye comprender cómo funcionan los algoritmos de IA y ser conscientes del potencial de manipulación. Las iniciativas educativas y los programas de alfabetización mediática pueden desempeñar un papel vital en el empoderamiento de los usuarios para que naveguen por el panorama informativo en evolución.
Finalmente, la cooperación internacional es esencial para combatir la propagación de la desinformación. Los gobiernos, las empresas de tecnología y las organizaciones de la sociedad civil deben trabajar juntos para desarrollar estándares y mejores prácticas comunes para abordar este desafío global. Esto incluye compartir información, coordinar esfuerzos y responsabilizar a los actores maliciosos. La integridad del contenido generado por IA es una responsabilidad compartida, y un enfoque colaborativo es necesario para salvaguardar el ecosistema de la información.
La proliferación de redes como Pravda, que inundan internet con desinformación y atacan los datos de entrenamiento de la IA, representa una seria amenaza para la integridad de los sistemas de IA y la difusión de información precisa. Combatir el lavado de desinformación y proteger la fiabilidad del contenido generado por la IA requiere un enfoque multifacético que involucre a los desarrolladores de IA, los motores de búsqueda y los responsables políticos.
Leave a Reply