El gobierno de EE. UU. está integrando rápidamente la IA generativa en sus operaciones, con la Administración de Servicios Generales (GSA) a la vanguardia a través del desarrollo y lanzamiento de un nuevo chatbot, “GSA Chat”. Este cambio, impulsado por DOGE y sus aliados, señala un esfuerzo más amplio para automatizar tareas que antes realizaban los empleados públicos y podría remodelar la fuerza laboral federal, generando preocupaciones sobre la precisión, el sesgo y el potencial de consecuencias no deseadas.
El artículo detalla un cambio preocupante en el enfoque del gobierno federal estadounidense hacia su fuerza laboral, impulsado por DOGE y la administración Trump, que implica la rápida integración de la IA generativa para automatizar tareas y potencialmente reducir el tamaño de la función pública. Inicialmente concebido como una herramienta para impulsar la productividad, el chatbot de la GSA, ahora conocido como “GSA Chat”, representa una estrategia más amplia para reemplazar a los trabajadores humanos con IA, lo que plantea importantes preocupaciones sobre la precisión, el sesgo y el daño potencial al público.
El núcleo de esta iniciativa reside en el impulso de DOGE hacia una “estrategia primero en IA”. Thomas Shedd, recientemente instalado como director de los Servicios de Transformación Tecnológica (TTS) de la GSA, declaró explícitamente en una reunión de todos los empleados que la agencia tiene como objetivo una “estrategia primero en IA” y que la tecnología y la automatización “llegarán con fuerza” a medida que el gobierno federal disminuya de tamaño. Shedd sugirió además el despliegue de “agentes de codificación” en todo el gobierno, programas de IA capaces de escribir y desplegar código, y el uso de la IA para analizar contratos y automatizar las funciones financieras. Esta visión se extiende más allá de la GSA, con asesores de DOGE que supuestamente alimentan datos confidenciales sobre el gasto de las agencias en programas de IA en el Departamento de Educación para identificar áreas de recortes, lo que demuestra un esfuerzo sistemático para aprovechar la IA para la reducción de la fuerza laboral y la racionalización operativa.
El desarrollo del chatbot de la GSA en sí mismo ejemplifica esta implementación rápida y potencialmente imprudente. Inicialmente, el equipo 10x dentro de la GSA, durante la administración Biden, concibió el programa como el “10x AI Sandbox”, un entorno seguro para que los empleados federales exploraran el potencial de la IA y probaran varios modelos. El objetivo no era crear un chatbot de propósito general, sino más bien proporcionar una “forma sencilla de interactuar con estas herramientas y de crear prototipos rápidamente”, enfatizando la experimentación cautelosa y la integración responsable de la IA. Sin embargo, tras el cambio de administración, los nombramientos de Donald Trump aceleraron el desarrollo del chatbot y presionaron para su lanzamiento como asistente de trabajo, pareciendo pasar por alto los riesgos y las aplicaciones potenciales. El programa, brevemente llamado “GSAi”, fue descrito en un correo electrónico del jefe de IA de la GSA, Zach Whitman, como una herramienta para “redactar correos electrónicos, escribir código, ‘y mucho más!’”.
El lanzamiento de GSA Chat, y los esfuerzos más amplios de integración de la IA, están ocurriendo junto con reducciones significativas de la fuerza laboral dentro del gobierno federal. Miles de trabajadores federales han renunciado o han sido despedidos desde que Elon Musk comenzó su asalto al gobierno, creando un contexto en el que la implementación de la IA puede tener prioridad sobre una consideración cuidadosa de su impacto en el servicio público. Se espera que el TTS, la división responsable de construir GSA Chat, sea “al menos un 50 por ciento más pequeño” en cuestión de semanas, lo que ilustra aún más la escala de la reestructuración de la fuerza laboral que se está llevando a cabo. Esta rápida reducción de personal, combinada con el despliegue acelerado de la IA, plantea preocupaciones sobre el potencial de una menor calidad de servicio y la erosión del conocimiento institucional.
Los riesgos potenciales asociados con confiar en la IA en las operaciones gubernamentales son sustanciales. El artículo destaca los riesgos bien establecidos de los modelos de IA, incluidos los sesgos, las dificultades con la precisión fáctica, los altos costos y los mecanismos internos opacos. La propia página de ayuda de GSA Chat reconoce preocupaciones como la “alucinación” —la presentación con confianza de información falsa—, “respuestas sesgadas o estereotipos perpetuados” y “problemas de privacidad”, instruyendo a los empleados a no ingresar información personal identificable ni información confidencial no clasificada. El artículo cita a un empleado de la GSA que recientemente se marchó y expresó preocupaciones sobre “marcar falsos positivos” y la falta de comprobaciones contra tales errores. Estas advertencias subrayan el potencial de la IA para generar información inexacta o engañosa, lo que podría tener consecuencias graves para la toma de decisiones gubernamentales y la confianza pública.
El cambio en el enfoque de la implementación de la IA contrasta marcadamente con la postura más cautelosa de la administración anterior. La administración Biden emitió una orden ejecutiva y una guía federal posterior que enfatizaban las pruebas exhaustivas, las estrictas salvaguardias y la transparencia pública en el uso de la IA gubernamental, reconociendo los riesgos y las deficiencias de la tecnología. Sin embargo, en su primer día en el cargo, el presidente Trump revocó esa orden, con la Casa Blanca afirmando más tarde que había impuesto “control gubernamental oneroso e innecesario”. Esta revocación señala un movimiento deliberado alejado de la gobernanza responsable de la IA y hacia un enfoque más experimental y potencialmente arriesgado.
Más allá de la GSA, el artículo revela aplicaciones más amplias de la IA en todas las agencias federales. El Departamento de Estado planea utilizar la IA para revisar las publicaciones en las redes sociales de decenas de miles de titulares de visados para estudiantes para revocar potencialmente los visados, una aplicación controvertida que plantea preocupaciones sobre la privacidad y el posible sesgo. Además, la GSA había iniciado un contrato con Google antes de las elecciones de noviembre para probar cómo los modelos de IA “pueden mejorar la productividad, la colaboración y la eficiencia”, lo que demuestra una tendencia preexistente hacia la integración de la IA que se ha acelerado bajo la administración actual. Estas aplicaciones diversas subrayan la naturaleza generalizada del impulso de la IA y su potencial para remodelar las operaciones gubernamentales en varias agencias.
El artículo concluye enfatizando el potencial de que todo el gobierno federal se convierta en un “sandbox” para la experimentación con IA, con los 340 millones de estadounidenses atendidos por el gobierno convirtiéndose en posibles sujetos de prueba. Esta caracterización destaca la escala de la empresa y el potencial de consecuencias no deseadas, subrayando la necesidad de una supervisión cuidadosa y un escrutinio público de las iniciativas de IA del gobierno. El rápido despliegue de la IA, impulsado por DOGE y la administración Trump, representa una desviación significativa de las prácticas establecidas y plantea preguntas fundamentales sobre el futuro de la función pública y la calidad del servicio público en los Estados Unidos.
La administración Trump, junto con DOGE, está implementando agresivamente la IA en el gobierno federal para automatizar tareas, reducir la plantilla de funcionarios públicos e incluso tomar decisiones críticas como la retención de empleos y la revisión de visas. A pesar de las preocupaciones iniciales sobre sesgos e imprecisiones, se prioriza el despliegue rápido, convirtiendo a la población en sujetos de prueba. Esta acelerada adopción de la IA sin salvaguardias adecuadas plantea serias dudas sobre la equidad, la precisión y el futuro del servicio público.
Leave a Reply