La Casa Blanca de Biden ha publicado un memorando titulado «Avanzando en el liderazgo de Estados Unidos en inteligencia artificial», que tiene como objetivo principal dirigir al aparato de seguridad nacional del país para que se convierta en un referente mundial en el uso de esta tecnología. Entre las medidas propuestas, se destaca la necesidad de reclutar a destacados expertos de la academia y el sector privado, así como utilizar modelos de inteligencia artificial operados por empresas privadas para fines de seguridad nacional.
El uso de sistemas de inteligencia artificial privados plantea serias preocupaciones, dado su carácter opaco. Muchos ciudadanos se sienten incómodos con la idea de que empresas utilicen inteligencia artificial para tomar decisiones sobre aspectos fundamentales de sus vidas, como su probabilidad de cometer un delito, su idoneidad para un empleo o cuestiones relacionadas con inmigración, seguros y vivienda. En la actualidad, las compañías con fines de lucro están arrendando este tipo de servicios automatizados a diversas organizaciones, y la mayoría de las personas afectadas desconocen que una máquina ha tomado decisiones que les conciernen, además de no poder apelar tales decisiones ni entender cómo fueron alcanzadas.
La combinación de inteligencia artificial privada con la secretividad del ámbito de la seguridad nacional agrava la situación, ya que puede llevar a un sistema aún más poco transparente y sin responsabilidad. Las agencias que forman parte del aparato de seguridad nacional son conocidas por su falta de transparencia, y organizaciones como la Electronic Frontier Foundation (EFF) han tenido que recurrir a los tribunales en múltiples ocasiones para tratar de hacer públicos los marcos básicos de la vigilancia masiva y las normativas que la rigen. La fusión de estas dos realidades podría resultar en un «monstruo de Frankenstein» caracterizado por la falta de responsabilidad y un poder de decisión aún más concentrado.
A medida que la rama ejecutiva impulsa a las agencias a aprovechar la experiencia de la inteligencia artificial privada, existe una creciente preocupación sobre la posibilidad de que la información relativa al funcionamiento de estos modelos de inteligencia artificial quede oculta bajo un velo casi impenetrable de secreto gubernamental. Dado que la inteligencia artificial se basa en la recopilación y procesado de enormes cantidades de datos, entender qué información se retiene y cómo se llegan a ciertas conclusiones se vuelve fundamental para el razonamiento del estado en temas de seguridad. Esto podría implicar que se clasifiquen los datos de entrenamiento del AI, y que se obligue a las empresas a mantener en secreto los algoritmos que rigen estas tecnologías.
El memorando subraya que «la inteligencia artificial ha surgido como una tecnología definitoria de nuestra era y ha demostrado tener una relevancia significativa y creciente para la seguridad nacional». Si bien el estado de seguridad nacional de EE. UU. busca utilizar poderosas herramientas de inteligencia artificial comercial para obtener ventaja, quedan muchas preguntas sin respuesta sobre cómo esta relación puede afectar la tan necesaria transparencia y responsabilidad en la inteligencia artificial privada y los sistemas de toma de decisiones automatizadas con fines de lucro.
Fuente: EFF.org