En el cambiante panorama de la inteligencia artificial (IA), un nuevo reporte revela preocupantes lagunas en la atención al sesgo y los desafíos éticos que plantea esta tecnología. Según un estudio reciente, el 27.1% de los profesionales de la IA y el 32.5% de los usuarios finales de herramientas basadas en inteligencia artificial no abordan específicamente los sesgos y problemas éticos inherentes al uso de la IA.
Mientras la IA transforma rápidamente industrias como la salud, mejorando potencialmente los diagnósticos médicos, también suscita serias preocupaciones éticas. Entre estas, se incluyen el potencial de sesgo en los sistemas de IA, amenazas a los derechos humanos, y una contribución negativa al cambio climático. Con el mercado global de IA proyectado para alcanzar un tamaño de 1.8 billones de dólares para 2030, resulta crucial enfrentar estos desafíos éticos desde la raíz.
El sesgo puede infiltrarse en cualquier etapa del desarrollo de IA, siendo la colección de datos una fuente primaria. La dependencia de datos no diversos o que no representan a minorías podría perpetuar estos sesgos. Otros riesgos aparecen en el etiquetado de datos, donde distintas interpretaciones pueden crear disparidades, y en la formación de modelos, que requieren arquitecturas balanceadas capaces de manejar entradas diversas. El despliegue de IA también requiere de escrutinios rigurosos para evitar sesgos perjudiciales antes de que los sistemas sean implementados.
En particular, se han documentado casos de sesgo en aplicaciones de IA dentro de la salud. Los sistemas de diagnóstico asistido por computadora han mostrado menores niveles de precisión para pacientes femeninas negras comparadas con sus contrapartes blancas. En otro ámbito, la investigación académica ha señalado cómo ciertas plataformas tienden a reproducir imágenes estereotipadas, presentando a hombres en profesiones especializadas como mayores y a mujeres como más jóvenes, perpetuando así sesgos de género.
Además, el uso de IA en el sistema de justicia penal, a través de herramientas predictivas, puede reforzar patrones de discriminación racial al basarse en datos históricos, focalizando de manera desproporcionada a comunidades minoritarias.
Los riesgos no terminan en el sesgo y la discriminación. La IA enfrenta otros desafíos éticos, como la seguridad, donde los sistemas pueden ser vulnerables a hackeos, difundiendo desinformación y causando potencial desplazamiento laboral. En el ámbito de la propiedad intelectual, ha habido litigios por la utilización ilegal de obras protegidas. Estos desafíos ponen de manifiesto la necesidad de que las empresas prioricen la ética en sus desarrollos de IA, asegurando medidas de seguridad adecuadas.
Para abordar estos problemas, algunas organizaciones recurren a auditorías regulares, ya que el 44.1% de los profesionales y el 31.1% de los usuarios finales han indicado que utilizan esta estrategia para evaluar y mitigar el sesgo en sus sistemas. Sin embargo, una proporción significativa de usuarios (32.5%) y profesionales (27.1%) admitieron no tomar medidas específicas para abordar estos asuntos, lo que destaca la necesidad urgente de una mayor conciencia y acción en la industria.
Los principios propuestos por organismos como la UNESCO enfatizan la importancia de un enfoque centrado en el ser humano en la IA, promoviendo valores como la proporcionalidad, seguridad, privacidad, y no discriminación. En último término, para que la inteligencia artificial realmente beneficie a todos, debe integrarse con una comprensión ética que proteja a todas las minorías y respalde procesos justos en sectores críticos como la salud y la justicia.
vía: AI Accelerator Institute