Asalto de la IA: El plan de Trump para reemplazar a los empleados públicos con máquinas.

El gobierno de EE. UU. está integrando rápidamente la inteligencia artificial generativa en sus operaciones, con la Administración de Servicios Generales (GSA) a la vanguardia, desarrollando e implementando un chatbot llamado “GSA Chat”. Esta iniciativa, acelerada durante la administración Trump, forma parte de un esfuerzo más amplio para reducir el tamaño de la función pública y automatizar tareas que antes realizaban empleados humanos, lo que genera preocupaciones sobre la precisión, el sesgo y los riesgos potenciales para el público.

El artículo detalla un cambio rápidamente acelerado dentro del gobierno federal de EE. UU. hacia la utilización de la IA generativa, impulsado por DOGE y la administración Trump, con posibles ramificaciones para la función pública y el público. Inicialmente concebida como una herramienta para impulsar la productividad, el chatbot de la GSA, ahora conocido como GSA Chat, representa una estrategia más amplia para automatizar tareas previamente realizadas por empleados humanos, lo que podría conducir a reducciones significativas de la fuerza laboral. Este cambio señala una desviación del enfoque más cauteloso de la administración Biden en la implementación de la IA, priorizando las pruebas, las salvaguardias y la transparencia.

El desarrollo del chatbot de la GSA comenzó durante la administración Biden dentro de un pequeño equipo de tecnología llamado 10x. Inicialmente, se visualizó como un “terreno de pruebas de la IA”, un entorno seguro para que los empleados federales exploraran el potencial de la IA y prototiparan modelos personalizados. Este enfoque, reflejado en la base de código del programa en GitHub, enfatizaba demostrar las capacidades de la IA en aplicaciones específicas en lugar de abogar por su adopción generalizada. Un ingeniero de 10x destacó este principio en un video de demostración inicial, afirmando que el objetivo era “proporcionar una forma sencilla de interactuar con estas herramientas y prototipar rápidamente”. Sin embargo, los nombrados por Donald Trump rápidamente impulsaron para acelerar su desarrollo y desplegarlo como un chatbot de trabajo, eludiendo efectivamente el enfoque inicial, más mesurado. Las capacidades del chatbot, según una correo electrónico del jefe de IA de la GSA, Zach Whitman, incluyen la redacción de correos electrónicos y la escritura de código, lo que indica un movimiento hacia una automatización más amplia de las tareas administrativas.

La estrategia actual de la administración se extiende más allá del chatbot de la GSA, abarcando una estrategia más amplia “primero en la IA” en todo el gobierno. Thomas Shedd, recientemente instalado como director de los Technology Transformation Services (TTS) en la GSA, articuló esta visión en una reunión para todos los empleados, afirmando que la tecnología y la automatización deben “venir con toda fuerza” a medida que el gobierno federal disminuye de tamaño. También sugirió el despliegue de “agentes de codificación” para reemplazar a los programadores humanos y propuso utilizar la IA para analizar contratos y automatizar las funciones financieras. Shedd anticipa que la división TTS será “al menos un 50 por ciento más pequeña” en cuestión de semanas, lo que demuestra el compromiso de la administración con reducciones significativas de la fuerza laboral. Esta ambición está respaldada por el hecho de que decenas de miles de trabajadores federales han renunciado o han sido despedidos desde que Elon Musk comenzó su ataque contra el gobierno.

El Departamento de Educación también está utilizando la IA para identificar áreas para recortes presupuestarios, con asesores de DOGE que alimentan datos confidenciales en programas de IA para analizar el gasto de la agencia. Más controvertidamente, el Departamento de Estado planea utilizar la IA para revisar las publicaciones en las redes sociales de decenas de miles de titulares de visas de estudiante, lo que podría conducir a la revocación de visas basadas en el apoyo percibido a grupos terroristas designados, según informó Axios. Estos ejemplos ilustran una tendencia más amplia de utilizar la IA tanto para fines administrativos como potencialmente para la toma de decisiones sensibles.

El rápido despliegue de la IA, sin embargo, conlleva riesgos significativos. El artículo destaca las preocupaciones bien establecidas que rodean a los modelos de IA, incluidas las sesgos, las imprecisiones, los altos costos y el funcionamiento interno opaco. La GSA parecía ser consciente de estos riesgos cuando comenzó a trabajar en el chatbot, desarrollando el “10x AI Sandbox” con un enfoque en la experimentación segura. Sin embargo, el rápido despliegue de GSA Chat, sin una consideración adecuada de las aplicaciones y las salvaguardias potenciales, genera preocupaciones sobre la fiabilidad y la imparcialidad de las decisiones impulsadas por la IA. Un empleado de la GSA que recientemente se marchó advirtió sobre un “riesgo muy alto de señalar falsos positivos” al utilizar la IA para analizar datos contractuales, enfatizando la necesidad de una comprobación contra resultados inexactos. La propia página de ayuda del chatbot reconoce las preocupaciones sobre la “alucinación”, las respuestas sesgadas y los problemas de privacidad, instruyendo a los empleados para que no ingresen información confidencial.

Las agencias federales han estado experimentando con la IA generativa durante meses antes del impulso de la administración actual. Antes de las elecciones de noviembre, la GSA había iniciado un contrato con Google para probar modelos de IA para la productividad y la colaboración. Departamentos como los de Seguridad Nacional, Salud y Servicios Humanos y Asuntos de los Veteranos también estaban probando herramientas de OpenAI, Google y Anthropic. Si bien alguna forma de chatbot federal era probablemente inevitable, el enfoque actual representa una desviación significativa del énfasis de la administración Biden en las pruebas exhaustivas y la transparencia pública. La orden ejecutiva de la administración Biden y la guía posterior enfatizaron la importancia de estas salvaguardias, pero la administración Trump derogó esa orden el primer día, citando “control gubernamental oneroso e innecesario”.

La administración actual parece decidida a utilizar todo el gobierno federal como un terreno de pruebas, exponenciando potencialmente a más de 340 millones de estadounidenses a los que sirve como sujetos de prueba. Este enfoque contrasta marcadamente con el enfoque cauteloso y mesurado de la administración anterior en la implementación de la IA, lo que genera preocupaciones sobre las posibles consecuencias imprevistas y la erosión de la confianza pública. El artículo concluye enfatizando la necesidad de una cuidadosa consideración de los riesgos y los beneficios de la adopción de la IA, particularmente en el contexto de la toma de decisiones gubernamentales y los servicios públicos.

El artículo revela un rápido impulso por parte de DOGE y la administración Trump para integrar la inteligencia artificial generativa en todo el gobierno federal, buscando automatizar tareas y potencialmente reducir la fuerza laboral. Esto incluye un nuevo chatbot en la GSA y planes más amplios para usar la IA en el análisis de contratos, evaluaciones de empleados e incluso revisiones de visas. Si bien la IA ofrece beneficios potenciales, el artículo destaca riesgos importantes como sesgos, imprecisiones y preocupaciones sobre la privacidad, sugiriendo un enfoque imprudente en la implementación de la tecnología con consecuencias potencialmente de gran alcance para los ciudadanos estadounidenses.

Comments

Leave a Reply

Your email address will not be published. Required fields are marked *