El uso de tecnologías de toma de decisiones algorítmicas (ADM, por sus siglas en inglés) ha sido objeto de preocupación por parte de la Electronic Frontier Foundation (EFF) durante varios años. Estas herramientas, que emplean datos y reglas o modelos predefinidos para tomar decisiones con poca o ninguna intervención humana, han cobrado gran relevancia en 2024. En este año, el uso de ADMs ha sido adoptado por propietarios, empleadores, reguladores y fuerzas del orden, generando un impacto potencial en la libertad personal y el acceso a necesidades básicas como la medicina y la vivienda.
La EFF ha publicado informes y comentarios destacados a nivel nacional e internacional, advirtiendo sobre los altos riesgos que las ADMs representan para los derechos humanos. Los algoritmos de aprendizaje automático que habilitan estas tecnologías tienden a replicar patrones presentes en conjuntos de datos ya sesgados. Por ejemplo, si se entrena un algoritmo con datos sobre arrestos policiales o aprobaciones históricas de cobertura médica, se está creando una herramienta que automatiza injusticias sistémicas y históricas. Dado que estas tecnologías a menudo no pueden explicar su razonamiento, desafiarlas se volvía sumamente complicado.
Uno de los problemas críticos es que los tomadores de decisiones suelen recurrir a las ADMs como justificación para sus propios sesgos. Aunque se implementan para reformar la forma en que las autoridades gubernamentales toman decisiones, la adopción de un ADM se considera a menudo como una simple decisión de adquisición, sin el tipo de participación pública que normalmente acompañaría un cambio en las normas. Esta falta de escrutinio aumenta el riesgo de que los miembros más vulnerables de la sociedad se vean perjudicados, y que se adopten tecnologías sin una evaluación significativa.
La creciente ola de entusiasmo en torno a la inteligencia artificial ha llevado a las agencias policiales y de seguridad a invertir dinero de los contribuyentes en productos que dificultan la rendición de cuentas y su efectividad. La EFF ha señalado el uso de inteligencia generativa para elaborar informes policiales basados en grabaciones de cámaras corporales y ha destacado que el uso de IA en el ámbito de la seguridad nacional representa una amenaza a la transparencia.
Adicionalmente, el sector privado está utilizando ADMs para decisiones relativas al acceso de las personas a empleos, viviendas y atención médica. La percepción de los ciudadanos es que este uso puede ser problemático, con una mayoría de estadounidenses expresando su incomodidad ante esta práctica. Las empresas continúan despedidos a trabajadores mientras implementan herramientas ADM, a pesar de que los resultados no están cumpliendo con las expectativas de mejora en productividad.
No obstante, las ADMs pueden ayudar a las empresas a evitar decisiones discriminatorias que infrinjan las leyes de derechos civiles, uno de los motivos detrás de la necesidad de mecanismos que prevengan la discriminación privada. Al mismo tiempo, la búsqueda de maximizar los datos de los usuarios ha incentivado prácticas invasivas de privacidad, lo que ha llevado a la EFF a abogar por un enfoque centrado en la privacidad frente a las aplicaciones perjudiciales de estas tecnologías.
En un episodio reciente del podcast de la EFF, se discutieron los desafíos planteados por la inteligencia artificial y algunas de las aplicaciones positivas que esta tecnología puede ofrecer, siempre que no se utilice en detrimento de los derechos humanos y el bienestar de las personas. A menos que se produzcan cambios significativos, el uso de IA para tomar decisiones sobre seres humanos está causando más daño que beneficios.
Fuente: EFF.org