Ante las elecciones presidenciales en Rumanía, una nueva investigación de Global Witness revela que el algoritmo de TikTok está promoviendo desproporcionadamente contenido de extrema derecha a nuevos usuarios. Los hallazgos sugieren que el algoritmo sirve casi tres veces más contenido de extrema derecha que todo el contenido político restante combinado, lo que genera preocupación sobre el impacto potencial de la plataforma en la integridad de las elecciones y sigue a investigaciones previas que destacan sesgos algorítmicos similares en Rumanía y Alemania.
La investigación de Global Witness revela una tendencia preocupante en TikTok, particularmente en el período previo a la segunda vuelta de las elecciones presidenciales de Rumania. El estudio sugiere un sesgo significativo en el algoritmo de la plataforma, favoreciendo el contenido de extrema derecha sobre otras perspectivas políticas. Esto plantea serias preguntas sobre el impacto potencial de la plataforma en la integridad de las elecciones.
Los hallazgos de la investigación son particularmente alarmantes dado el contexto del panorama político rumano. La primera vuelta de las anteriores elecciones presidenciales fue inicialmente ganada por un candidato populista de extrema derecha, lo que destaca la influencia potencial de dicho contenido. La carrera actual presenta una segunda vuelta entre un candidato de extrema derecha, George Simion, y un candidato centrista, Nicușor Dan. Esto hace que el sesgo del algoritmo sea aún más crítico.
La metodología empleada por Global Witness implicó la creación de tres nuevas cuentas de TikTok y la cuidadosa curación de sus interacciones iniciales para asegurar una exposición equilibrada a ambos candidatos. Los investigadores siguieron las cuentas oficiales tanto de Simion como de Dan, y vieron videos de ambos candidatos. Esto se hizo para crear un campo de juego nivelado, asegurando que el algoritmo tuviera la misma oportunidad de recomendar contenido de ambos lados.
A pesar de estos esfuerzos, los resultados fueron sorprendentemente unilaterales. En las tres cuentas, el algoritmo recomendó una cantidad desproporcionada de contenido de extrema derecha. Específicamente, de 65 publicaciones que contenían contenido político, el 74% promovía o daba plataforma a puntos de vista o personas de extrema derecha, mientras que solo el 26% promovía otras opiniones políticas. Esto representa casi tres veces más contenido de extrema derecha que todo el otro contenido político combinado.
El dominio del contenido de extrema derecha fue consistente en las tres cuentas, reforzando la fiabilidad de los hallazgos. Todas las publicaciones políticas mostradas eran sobre política rumana, lo que indica que el algoritmo estaba identificando correctamente el interés del usuario en las elecciones. Esto sugiere un problema sistémico dentro del algoritmo, en lugar de una ocurrencia aleatoria.
TikTok, en respuesta a la investigación, desestimó los hallazgos como “no científicos” y “engañosos”. La plataforma argumentó que la metodología, particularmente la práctica de saltarse el contenido no político, sesgaba los resultados y no reflejaba la experiencia de un usuario típico. Sin embargo, Global Witness defiende su metodología como un enfoque necesario para comprender el funcionamiento interno del algoritmo, dada su naturaleza propietaria.
El problema central, como destaca Global Witness, no es necesariamente un intento deliberado de TikTok de promover contenido de extrema derecha. En cambio, el problema radica en la naturaleza de los algoritmos de recomendación de contenido. Estos algoritmos están diseñados para maximizar la participación del usuario. El contenido de extrema derecha, a menudo siendo provocador, puede generar más vistas y reacciones que el contenido más moderado.
Esta tendencia inherente de los algoritmos a priorizar el contenido atractivo puede amplificar inadvertidamente ciertos puntos de vista políticos sobre otros. Esto plantea un riesgo significativo para los procesos democráticos, ya que puede crear cámaras de eco y reforzar los sesgos existentes. Este riesgo es particularmente agudo en el contexto de las elecciones, donde la difusión de desinformación y contenido sesgado puede influir en los votantes.
La Comisión Europea ya está investigando el manejo de TikTok de las elecciones rumanas bajo la Ley de Servicios Digitales (DSA). La DSA exige que plataformas como TikTok evalúen y mitiguen los riesgos que sus plataformas plantean a los procesos electorales, incluida la influencia de sus sistemas de recomendación. Esta investigación es crucial, ya que puede responsabilizar a TikTok por sus sesgos algorítmicos.
Global Witness pide a la Comisión Europea que continúe su escrutinio de los algoritmos de recomendación de contenido de TikTok. La investigación destaca la importancia de la investigación independiente para comprender el impacto de las plataformas de redes sociales en el discurso político y la integridad de las elecciones. Los hallazgos subrayan la necesidad de una mayor transparencia y responsabilidad por parte de estas plataformas.
El algoritmo de TikTok está promoviendo desproporcionadamente contenido de extrema derecha a usuarios nuevos y políticamente equilibrados en Rumanía, lo que podría comprometer la integridad electoral, a pesar de las afirmaciones de la plataforma. Esto resalta el riesgo de que los algoritmos impulsados por la interacción amplifiquen puntos de vista sesgados y subraya la necesidad de una vigilancia continua por parte de la Comisión Europea, bajo la Ley de Servicios Digitales, para garantizar procesos electorales justos y democráticos.
Leave a Reply