Organizaciones Exigen el Fin del Uso de IA en Decisiones de Inmigración

0
64
US flag with spying eyes for stars

Un grupo de 141 organizaciones, entre las que se encuentran EFF (Electronic Frontier Foundation), Just Futures Law y diversas entidades de defensa de derechos civiles, han enviado una carta al Secretario de Seguridad Nacional, Alejandro Mayorkas, exigiendo que el Departamento de Seguridad Nacional (DHS) detenga el uso de herramientas de inteligencia artificial (IA) en su sistema de inmigración. Durante años, EFF ha estado advirtiendo sobre los peligros del uso de la vigilancia automatizada en la frontera entre Estados Unidos y México, señalando que las decisiones algorítmicas no deberían tener la autoridad final sobre temas críticos como la vigilancia, arrestos o la concesión de asilo.

La carta, que cuenta con el respaldo de diversas organizaciones de derechos humanos y cuentas gubernamentales, sostiene que el DHS está violando políticas federales sobre el uso responsable de la IA, particularmente en decisiones relacionadas con la aplicación de la ley de inmigración. Según la definición de la Casa Blanca, la IA es un sistema capaz de hacer predicciones, recomendaciones o decisiones basadas en objetivos definidos por humanos, pero su implementación por parte del DHS no ha cumplido con los estándares establecidos.

En este sentido, la carta destaca los hallazgos de un informe alarmante publicado por Mijente y Just Futures Law, que se enfoca en el uso de la IA y la toma de decisiones automatizadas por parte del DHS y sus dependencias. A pesar de las promesas del DHS de no utilizar tecnología de IA para la vigilancia indiscriminada, el informe revela que la agencia ha estado usando la IA para justificar su falta de cumplimiento de estos estándares, a menudo aludiendo a excepciones de seguridad nacional.

A pesar de que el uso de la IA en el DHS está en auge, el informe señala que la eficacia de estas herramientas es cuestionable y a menudo puede agravar la discriminación. Ejemplos del fracaso de la IA en contextos de contratación han mostrado que los algoritmos pueden amplificar sesgos existentes, como lo ocurrió con el sistema de selección de currículums de Amazon, que favoreció a candidatos masculinos debido al sesgo en los datos utilizados para entrenar el sistema. Los productos de inteligencia predictiva también han demostrado ser problemáticos al enfocarse en comunidades de color, perpetuando así disparidades raciales.

El informe también revela que el DHS está usando IA en procesos cruciales, como la evaluación de solicitudes de asilo y la gestión de la detención y deportación por parte de ICE, sin realizar una evaluación adecuada de las herramientas tecnológicas utilizadas. La falta de transparencia en el uso de estas herramientas plantea serias inquietudes sobre la adopción de tecnologías no probadas y los intereses financieros que pueden estar detrás de su promoción.

Por lo tanto, las organizaciones firmantes piden de manera urgente que el DHS se responsabilice de sus decisiones relacionadas con la tecnología de IA y se detenga el uso de estas herramientas hasta que se aborden adecuadamente los problemas planteados en la carta y el informe.
Fuente: EFF.org