Una reciente decisión ha impactado el futuro de la regulación de la inteligencia artificial en California. El proyecto de ley A.B. 412, que buscaba implementar medidas de «transparencia» en el ámbito del desarrollo de inteligencia artificial, ha sido retardado y transformado en un proyecto de ley de dos años. Esto significa que no avanzará en 2025, lo que representa una victoria importante para la innovación, la libertad de programar y la web abierta.
Desde sus inicios, la Electronic Frontier Foundation (EFF) se opuso firmemente a esta iniciativa. A.B. 412 intentó regular la inteligencia artificial generativa, pero lo hizo sin considerar el interés público, al exigir listas de «lectura de datos de entrenamiento» que podrían facilitar nuevos litigios por derechos de autor, principalmente promovidos por grandes empresas del contenido.
Mientras la transparencia en el desarrollo de inteligencia artificial es un objetivo loable, el proyecto fracasó en ofrecer un camino justo o efectivo hacia este fin. En lugar de ello, imponía a las empresas, tanto grandes como pequeñas, la tarea casi imposible de diferenciar entre el contenido protegido por derechos de autor y el que no lo está, penalizando severamente a aquellos que no pudieran cumplir con dichas regulaciones. Este enfoque habría beneficiado a las grandes corporaciones de inteligencia artificial, pero habría excluido a desarrolladores más pequeños y no comerciales que intentan adaptar los sistemas de IA para el bien público.
La creación más valiosa en el campo de la inteligencia artificial no necesariamente provendrá de las grandes empresas. Más bien, surgirá de pequeños equipos que se dedican a mejorar la accesibilidad, la privacidad y a desarrollar herramientas que identifiquen los daños inherentes a la IA. Además, muchos de estos proyectos utilizarán códigos fuente bajo licencias permisivas, lo que podría ser perjudicado con regulaciones como las propuestas en A.B. 412.
El proyecto de ley pasó por alto importantes realidades respecto a los derechos de uso justo. En este momento, la cuestión de cuánto del entrenamiento de la IA califica como uso justo está siendo activamente litigada en los tribunales federales, donde muchos de estos trabajos se han determinado como justos. En un caso reciente y significativo, se concluyó que el trabajo de entrenamiento de la IA es «transformador — espectacularmente transformador», comparándolo con cómo los motores de búsqueda copian imágenes y texto para proporcionar resultados útiles.
La regulación de derechos de autor está gobernada a nivel federal, y los intentos de los estados por modificar estas reglas generan confusión y más litigios, que no benefician a nadie. Para que los legisladores que deseen abordar la transparencia en la IA lo hagan de manera efectiva, necesitan evitar ofrecer a los titulares de derechos una herramienta para utilizar reclamaciones de copyright como armas. Esto implica rechazar el enfoque de A.B. 412 y crear leyes que protejan la libertad de expresión, la competencia y el interés público en un ecosistema de inteligencia artificial robusto, abierto y justo.
Fuente: EFF.org