En un esfuerzo por mantener el liderazgo en el desarrollo y regulación de la inteligencia artificial (IA), Estados Unidos ha intensificado su enfoque en las políticas que rodean a esta tecnología emergente. Todo comenzó con la promulgación de la Ley Nacional de Iniciativa de Inteligencia Artificial de 2020, la cual se convirtió en ley en 2021, estableciendo un marco comprensivo para que el país pueda supervisar y evaluar los sistemas basados en IA.
En 2022, la Oficina de Política Científica y Tecnológica de la Casa Blanca presentó el Blueprint para una Carta de Derechos de la IA, un documento orientador que busca proteger los derechos de los ciudadanos estadounidenses frente a los sistemas automatizados. Este esfuerzo tomó un año de diálogo público para cristalizar los cinco principios fundamentales que guiarán la creación y el manejo de estos sistemas.
Con el auge de tecnologías como ChatGPT, presentada por OpenAI en noviembre de 2022 y cuyo potencial económico podría superar los 2.1 billones de dólares, han surgido preocupaciones sobre su integración en el sistema de justicia, particularmente por su velocidad y capacidades en constante evolución.
En respuesta, en octubre de 2023, el presidente Biden emitió una orden ejecutiva para construir un entorno de IA seguro y confiable. Esta medida requiere que las empresas que desarrollan los sistemas más potentes compartan sus datos de prueba de seguridad con el gobierno estadounidense, especialmente si estos plantean riesgos para la seguridad nacional o la salud pública.
El marco regulatorio de las leyes antimonopolio dentro de los Estados Unidos, que data de finales del siglo XIX, también enfrenta desafíos en su capacidad para adaptarse al rápido avance de la IA. La Ley Sherman y la Ley Clayton, ambos pilares de la regulación antimonopolio, fueron diseñadas para preservar la competencia libre y sin trabas, evitando la formación de monopolios y prácticas comerciales desleales.
A nivel estatal, iniciativas como la Ley de IA de Colorado están marcando precedentes en la regulación específica de IA. Esta ley, que entrará en vigor en 2026, se centra en los sistemas de IA de alto riesgo, obligando a los desarrolladores a implementar salvaguardas y compartir información crítica sobre sus modelos y medidas de mitigación de riesgos.
A pesar de los avances sustanciales, Estados Unidos aún enfrenta el reto de equilibrar la promoción de la innovación mientras se establecen salvaguardas adecuadas para proteger a los consumidores y preservar la competencia. Con las leyes específicas de competencia digital aún pendientes de aprobación, es evidente que el país tiene un largo camino por recorrer en la regulación de la IA. En este contexto, el enfoque multilateral y colaborativo entre sectores público y privado será esencial para lograr un marco regulatorio efectivo y justo para estas tecnologías emergentes.
vía: AI Accelerator Institute