La Casa Blanca ha presentado su nuevo «Plan de Acción sobre la IA», el cual se centra en combatir lo que se ha llamado «IA woke». Este término se refiere a modelos de lenguaje grande (LLMs) que ofrecen información que no se alinea con las posturas del actual gobierno en materias como cambio climático y género. Además, el plan busca regular medidas que aborden la generación de contenido racista y sexista, así como discursos de odio.
Junto con este plan, se ha emitido una orden ejecutiva denominada «Prevención de la IA Woke en el Gobierno Federal», que obliga a las empresas de tecnología que reciben contratos federales a demostrar que sus LLMs están exentos de lo que se considera «sesgos ideológicos», tales como diversidad, equidad e inclusión. Esta censura, en vez de mejorar la exactitud y «fiabilidad» de estos modelos, parece una estrategia destinada a restringir el desarrollo de LLMs como herramientas de expresión y acceso a información.
La cuestión de los sesgos en la inteligencia artificial no es nueva. Los modelos suelen discriminar a minorías raciales y de género debido a los patrones que aprenden del conjunto de datos con el que son entrenados. Si los datos reflejan prejuicios, la IA los reproducirá. Por ejemplo, las herramientas de «policía predictiva» entrenadas con datos de arrestos, a menudo sugieren un mayor nivel de vigilancia en barrios con población predominantemente negra, perpetuando una injusticia histórica.
Los modelos generativos también están en el centro de esta problemática. Se ha demostrado que algunos LLMs asocian a personas de color con situaciones criminales de manera desproporcionada. Estudios indican que el 80% de las imágenes generadas de reclusos presentan piel más oscura, mientras que más del 90% de las imágenes generadas de jueces son masculinas, a pesar de que en la vida real las mujeres ocupan el 34% de esos puestos.
La inexactitud, sin embargo, no es el único problema asociado. Cuando los organismos gubernamentales utilizan IA sesgada para tomar decisiones, las consecuencias son reales y tangibles para las personas afectadas, impactando su libertad personal, acceso a recursos financieros y atención médica, entre otros. La Casa Blanca ha proyectado un aumento significativo en el uso de LLMs por parte de las agencias, lo que podría perpetuar injusticias sistémicas.
Es crucial implementar salvaguardias robustas que eviten que las entidades gubernamentales adquieran herramientas de IA sesgadas y nocivas. La reciente administración ha desmantelado las limitaciones establecidas para proteger los derechos civiles, lo que incrementa la posibilidad de abusos impulsados por IA. Además, las nuevas reglas podrían ser utilizadas para influir en las empresas y hacer que los modelos disponibles al público sean aún más ineficaces.
Frente a esta situación, expertos y organizaciones de derechos digitales han argumentado en contra del uso de algoritmos para decisiones críticas, insistiendo en la necesidad de salvaguardar los derechos de los ciudadanos frente a determinaciones influenciadas por modelos de aprendizaje automático sesgados.
Fuente: EFF.org