Anthropic ha eliminado del sitio web los compromisos voluntarios sobre seguridad y confiabilidad de la IA realizados en 2023 bajo la administración Biden. Estas promesas, junto con compromisos similares de otras empresas de IA como OpenAI y Google, tenían la intención de señalar las prioridades políticas antes de una Orden Ejecutiva de IA más amplia. Tras el cambio de administración y la posterior derogación de esa orden, Anthropic y OpenAI están ajustando sus políticas públicas, lo que plantea interrogantes sobre el futuro de la gobernanza de la IA y la influencia de los cambios políticos en las prácticas de la industria.
Anthropic ha eliminado silenciosamente varios compromisos voluntarios de su sitio web que fueron realizados en 2023 en conjunto con la administración Biden para promover la inteligencia artificial segura y “confiable”. Estas eliminaciones, descubiertas por el grupo de vigilancia de la IA The Midas Project, abarcaban promesas de compartir información sobre la gestión de riesgos de la IA en la industria y el gobierno, y de llevar a cabo investigaciones sobre el sesgo y la discriminación de la IA. Este movimiento señala un posible cambio en el enfoque de la empresa en la gobernanza de la IA tras el cambio en la administración presidencial, a pesar de que los compromisos iniciales no tenían plazos ni dependían de la afiliación política.
Los compromisos formaban parte de una iniciativa más amplia anunciada en julio de 2023, donde Anthropic, junto con gigantes de la industria como OpenAI, Google, Microsoft y Meta, acordaron adherirse a ciertos estándares voluntarios de seguridad de la IA propuestos por la administración Biden. Específicamente, estos compromisos incluían la realización de pruebas internas y externas de seguridad de los sistemas de IA antes de su lanzamiento, la inversión en medidas de ciberseguridad para proteger los datos sensibles de la IA y el desarrollo de métodos para marcar con marcas de agua el contenido generado por la IA para garantizar la transparencia y la trazabilidad. Si bien el acuerdo no era legalmente vinculante, la administración Biden lo consideró un paso crucial para señalar sus prioridades de política de IA antes de la más completa Orden Ejecutiva de IA que siguió varios meses después. Es importante señalar que Anthropic ya había adoptado muchas de estas prácticas antes de los compromisos formales, lo que sugiere una alineación previa con los objetivos declarados.
La eliminación de estos compromisos coincide con un cambio significativo en el enfoque del gobierno federal hacia la regulación de la IA bajo la administración Trump. En enero, el presidente Trump revocó la mencionada Orden Ejecutiva de IA, que había dirigido al Instituto Nacional de Estándares y Tecnología (NIST) para redactar directrices para las empresas para identificar y corregir fallas en los modelos de IA, incluido el sesgo. Los críticos alineados con Trump argumentaron que los requisitos de presentación de la orden eran excesivamente onerosos y, efectivamente, obligaban a las empresas a revelar secretos comerciales propietarios. Esta revocación demuestra una clara divergencia del énfasis de la administración Biden en la mitigación proactiva de riesgos y la transparencia.
Tras la revocación de la Orden Ejecutiva, Trump firmó una nueva orden dirigida a las agencias federales a promover el desarrollo de la IA “libre de sesgos ideológicos”, con un enfoque en promover la “florecimiento humano, la competitividad económica y la seguridad nacional”. Es fundamental destacar que esta nueva orden no hizo mención alguna de combatir la discriminación de la IA, un principio fundamental de la iniciativa de Biden. Esta omisión subraya una diferencia fundamental en las prioridades, lo que sugiere una menor énfasis en abordar los posibles daños asociados con los sistemas de IA sesgados. La falta de un enfoque explícito en la discriminación plantea preocupaciones sobre el potencial de la IA para exacerbar las desigualdades sociales existentes.
A pesar de las garantías de varias empresas de IA en noviembre de que sus compromisos no habían cambiado tras las elecciones, las acciones recientes de Anthropic sugieren una reevaluación de esas promesas. Las observaciones de The Midas Project destacan una desconexión entre las declaraciones públicas y la implementación real de las políticas. Esto plantea preguntas sobre la sinceridad de los compromisos anteriores y hasta qué punto fueron impulsados genuinamente por consideraciones éticas en lugar de conveniencia política. La falta de transparencia en torno a la eliminación de los compromisos alimenta aún más estas preocupaciones.
Anthropic no está sola en ajustar sus políticas públicas a raíz del cambio de administración. OpenAI anunció recientemente que abrazaría la “libertad intelectual… sin importar cuán desafiante o controvertido pueda ser un tema”, y trabajaría para garantizar que su IA no censure ciertos puntos de vista. Este cambio de enfoque parece ser una respuesta a las críticas de quienes alegan que los sistemas de IA han incurrido en censura al limitar las respuestas a ciertas consultas. Además, OpenAI ha eliminado una página de su sitio web que anteriormente expresaba su compromiso con la diversidad, la equidad y la inclusión (DEI), un programa que ha sido objeto de críticas por parte de la administración Trump, lo que ha llevado a numerosas empresas a eliminar o reestructurar sustancialmente sus iniciativas de DEI.
Varios de los asesores de Trump en Silicon Valley sobre IA, incluidos Marc Andreessen, David Sacks y Elon Musk, han alegado que empresas como Google y OpenAI han incurrido en censura de la IA al limitar las respuestas de sus chatbots de IA. Si bien estos laboratorios, incluido OpenAI, han negado que sus cambios de política respondan a presiones políticas, el momento y la naturaleza de estos ajustes sugieren una posible correlación. Las alegaciones de censura resaltan un debate creciente sobre los límites apropiados de la moderación del contenido de la IA y el potencial de sesgo en la toma de decisiones algorítmicas.
Tanto OpenAI como Anthropic están buscando activamente contratos gubernamentales, lo que podría estar influyendo en sus decisiones políticas. Esta búsqueda de ganancias financieras podría incentivar a las empresas a alinear sus políticas con las prioridades de la administración actual, potencialmente a expensas de las consideraciones éticas. El potencial de conflictos de intereses plantea preocupaciones sobre la objetividad del desarrollo de la IA y la necesidad de una mayor transparencia en los procesos de contratación gubernamental.
Tras la publicación de esta historia, Anthropic emitió una declaración a TechCrunch afirmando su compromiso continuo con los compromisos voluntarios de IA establecidos bajo la administración Biden. La empresa declaró que el progreso y las acciones específicas continúan reflejándose en su centro de transparencia, y que agregará una sección que cite directamente dónde su progreso se alinea con los compromisos originales. Esta declaración representa un intento de abordar las preocupaciones sobre la eliminación de los compromisos y de tranquilizar a las partes interesadas sobre su dedicación continua al desarrollo responsable de la IA. Sin embargo, la falta inicial de transparencia en torno a la eliminación de los compromisos sigue siendo motivo de preocupación.
Anthropic eliminó silenciosamente los compromisos voluntarios de seguridad de la IA hechos a la administración Biden, enfocándose en el intercambio de riesgos y la investigación de sesgos, de su sitio web. Esto sigue a un cambio en la gobernanza de la IA bajo la administración Trump, que derogó la Orden Ejecutiva de Biden y prioriza el desarrollo de la IA “libre de sesgos ideológicos” – omitiendo las preocupaciones sobre la discriminación. Otras empresas como OpenAI también están ajustando sus políticas, reduciendo el énfasis en la diversidad, equidad e inclusión (DEI) y expresando un compromiso con la “libertad intelectual”. Si bien Anthropic afirma un compromiso continuo, los cambios señalan una respuesta más amplia de la industria ante el panorama político en evolución. Esto plantea preguntas sobre la sostenibilidad a largo plazo de los compromisos voluntarios y la necesidad de una supervisión sólida e independiente en el desarrollo de la IA. Se recomienda leer más sobre las implicaciones de la derogación de la Orden Ejecutiva de la IA para comprender el entorno regulatorio en evolución.
Leave a Reply