Política de IA Inteligente: Analizando Sus Verdaderos Daños y Beneficios

0
1
Two robots, one smiling, one frowning (photo: Nicholas-Halodi CC-BY)

La inteligencia artificial (IA) es un término que ha estado presente durante décadas, abarcando desde computadoras con “cerebros”, como Data de Star Trek o Hal 9000 de 2001: odisea en el espacio, hasta funciones simples como la autocompletación en correos electrónicos. Sin embargo, este concepto abarca una variedad de aplicaciones, algunas ya consolidadas y otras en desarrollo, lo que genera una mezcla de entusiasmo y preocupación en la sociedad.

Recientemente, se ha evidenciado un catalogo en expansión de posibles daños asociados a la implementación apresurada de tecnologías de IA en diversos aspectos de la vida pública. Estas preocupaciones incluyen decisiones automatizadas que pueden perpetuar sesgos, ya que las máquinas son entrenadas con datos históricos que a menudo reflejan desigualdades pasadas. Además, la electricidad y el agua necesarias para el funcionamiento de algunas de estas tecnologías presentan preguntas difíciles sobre el costo ambiental y el uso de combustibles fósiles.

A pesar de la saturación de anuncios sobre las últimas aplicaciones de IA, hay ejemplos concretos donde estas tecnologías han demostrado ser útiles. Por ejemplo, el aprendizaje automático es invaluable para investigadores en campos que van desde la biología hasta la astronomía. Los herramientas de IA también están mejorando la accesibilidad para personas con discapacidades y facilitando iniciativas de responsabilidad policial. Sin embargo, es vital no asumir que cualquier modelo de lenguaje o tecnología IA tiene el conocimiento experto necesario para resolver todos los problemas que se les presentan.

La Electronic Frontier Foundation (EFF) ha abogado por políticas tecnológicas equilibradas y racionales, advirtiendo que cualquier intento de preemptar la regulación estatal sobre la IA podría impedir esfuerzos significativos para proteger a las personas de daños reales derivados de estas tecnologías. La regulación debe centrarse en el impacto de su uso en contextos específicos.

Un análisis de los riesgos asociados al uso de la IA resalta que, a menudo, tanto las empresas desarrolladoras como los gobiernos que aplican estas herramientas no logran identificar o no se preocupan por los verdaderos peligros. AI se ha utilizado en prácticas dañinas, desde colusión de precios hasta vigilancia masiva, lo que plantea serias dudas sobre su papel en decisiones cruciales que afectan la vida de las personas, como arrestos, desalojos o la concesión de beneficios gubernamentales.

Es esencial que las decisiones se basen en principios responsables y justos, ya que los sistemas de IA aprenden a replicar patrones de los datos en los que son entrenados, que podrían incluir decisiones discriminatorias. Simplemente añadir un humano en el proceso de decisión no garantiza que se eliminen esos sesgos, lo que hace que la supervisión y la regulación sean aún más necesarias.

Existen también preocupaciones sobre la sobresaturación de la IA, lo que puede llevar a un uso poco crítico de estas tecnologías. Históricamente, los usuarios pueden reforzar creencias erróneas a través de herramientas de IA que no siempre son transparentes o comprensibles. Las empresas a menudo comercializan estas herramientas como soluciones fáciles y confiables sin informar adecuadamente sobre sus limitaciones, lo que genera riesgos adicionales.

No obstante, la IA tiene el potencial de ofrecer soluciones en contextos adecuados. Ha demostrado ser efectiva en la investigación científica, ayudando a descubrir materiales alternativos para baterías de ion de litio y mejorando la previsión meteorológica. También se han producido avances significativos en el desarrollo de tratamientos médicos, donde la IA se ha utilizado para identificar nuevos medicamentos y acelerar la creación de vacunas.

En términos de accesibilidad, tecnologías de voz generadas por IA están ayudando a personas con discapacidades a recuperar su capacidad de comunicarse. Asimismo, aplicaciones de IA están haciendo la información más accesible para personas con discapacidades visuales o auditivas.

Finalmente, es crucial que se ejerza una supervisión continua sobre el uso de la IA, asegurando que sus aplicaciones sean beneficiosas y equitativas. La EFF sigue trabajando para mitigar los efectos negativos de la IA mientras promueve su uso constructivo, recordando que las decisiones sobre su implementación deben ser informadas y cuidadosas.
Fuente: EFF.org