Meta: Críticas a cambios de contenido y derechos humanos

Meta, la empresa de Mark Zuckerberg, ha recibido fuertes críticas de su junta de supervisión independiente en relación con los recientes cambios en la moderación de contenido y su manejo de contenido dañino durante los disturbios en el Reino Unido el verano pasado. La junta, que revisa las decisiones de contenido de Meta, ha acusado a la empresa de realizar cambios apresurados sin considerar los impactos en los derechos humanos y de ser demasiado lenta para abordar publicaciones inflamatorias que incitan a la violencia y difunden desinformación.

La Junta de Supervisión de Meta ha criticado duramente a Meta, de Mark Zuckerberg, por sus apresurados cambios en la moderación de contenido, particularmente aquellos anunciados en enero de 2025. La junta, que tiene el poder de tomar decisiones vinculantes sobre la eliminación de contenido, expresó su preocupación de que la compañía implementó estos cambios sin la debida consideración de su impacto en los derechos humanos. Específicamente, la junta declaró que los cambios fueron “anunciados apresuradamente, en una desviación del procedimiento regular, sin que se compartiera información pública sobre qué, si es que hubo alguna, diligencia debida sobre derechos humanos realizó la compañía”. Esta falta de diligencia debida, según la junta, plantea serias preocupaciones sobre el potencial de consecuencias adversas, especialmente en regiones que experimentan crisis como conflictos armados.

Además, la crítica de la junta se extiende a la decisión de Meta de reducir su dependencia de los verificadores de datos en los Estados Unidos, una medida que la junta teme que pueda exacerbar la propagación de contenido dañino. La junta destacó el potencial de que este cambio tenga “consecuencias desiguales a nivel mundial”, particularmente en áreas vulnerables. Instaron a Meta a defender los principios de las Naciones Unidas sobre empresas y derechos humanos y a realizar una diligencia debida exhaustiva para evaluar el impacto de estos cambios. Esto incluye evaluar si la reducción de la detección automatizada de violaciones de políticas podría conducir a un aumento del daño.

Sumándose a las críticas, la Junta de Supervisión también abordó el manejo de Meta del contenido relacionado con los disturbios que estallaron en el Reino Unido el verano pasado. La junta condenó específicamente a Meta por mantener tres publicaciones que contenían contenido anti-musulmán y anti-inmigrante durante los disturbios. Estas publicaciones, que la junta consideró que habían “creado el riesgo de daño probable e inminente”, incluían llamamientos a la violencia contra mezquitas e inmigrantes, así como imágenes generadas por IA que representaban violencia contra musulmanes. La junta determinó que Meta reaccionó demasiado lento a la crisis, no implementando medidas de crisis con la suficiente prontitud para evitar la amplificación de contenido dañino.

La primera publicación, que finalmente fue eliminada, pedía violencia. La segunda y tercera publicaciones contenían imágenes violentas. El fallo de la junta enfatizó que Meta debería haber actuado con mayor rapidez para eliminar este contenido, ya que incitaba a la violencia y mostraba apoyo a los disturbios.

Las preocupaciones de la junta también se extienden a los cambios en la guía de Meta, que ahora permite a los usuarios atribuir comportamientos dañinos a grupos de características protegidas, como los definidos por religión, sexo, etnia o estatus migratorio. Este cambio, señaló la junta, permite a los usuarios decir que un grupo de características protegidas “mata”, lo que podría aumentar el discurso de odio y la incitación a la violencia. La junta recomendó que Meta investigara la efectividad de las funciones de notas de la comunidad, que se están implementando después de la eliminación de los verificadores de datos de EE. UU., para mitigar la propagación de la desinformación.

El fallo de la junta también ordenó la eliminación de dos publicaciones anti-inmigrantes en Polonia y Alemania por violar la política de conducta de odio de Meta. Además, la junta solicitó a Meta que identificara cómo las actualizaciones de su política de contenido de odio afectan los derechos de los refugiados y solicitantes de asilo. Esto demuestra el compromiso de la junta de garantizar que las políticas de moderación de contenido de Meta se apliquen de manera consistente y no perjudiquen de manera desproporcionada a los grupos vulnerables.

En respuesta al fallo de la junta, un portavoz de Meta declaró que la compañía busca regularmente la opinión de expertos, incluida la Junta de Supervisión, y cumplirá con sus decisiones. El portavoz también destacó los esfuerzos de Meta para abordar el contenido dañino relacionado con los disturbios en el Reino Unido, incluido el establecimiento de un grupo de trabajo dedicado que eliminó miles de piezas de contenido que infringían las normas. Meta ha indicado que responderá a las recomendaciones más amplias de la junta en un plazo de 60 días.

El consejo de supervisión de Meta criticó duramente los apresurados cambios de la empresa en la moderación de contenido, alegando una falta de consideración por el impacto en los derechos humanos y una respuesta lenta ante contenido dañino durante los disturbios en el Reino Unido, incluyendo publicaciones que incitaban a la violencia y difundían desinformación. El consejo instó a Meta a priorizar la diligencia debida en materia de derechos humanos y abordar las posibles consecuencias adversas, especialmente en zonas de crisis, a la vez que ordenó la eliminación de contenido de odio en Polonia y Alemania. Esto subraya la necesidad urgente de que las plataformas de redes sociales prioricen las consideraciones éticas y las medidas proactivas para proteger a las comunidades vulnerables del daño en línea.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *