Desde el lanzamiento de ChatGPT y otras tecnologías de aprendizaje profundo, se ha producido un aumento significativo en las demandas legales contra los desarrolladores de modelos de inteligencia artificial. Las teorías legales varían, pero la mayoría se centra en cuestiones de derechos de autor. Los demandantes argumentan que el uso de sus obras para entrenar estos modelos infringe sus derechos, mientras que los desarrolladores defienden que su entrenamiento cumple con la doctrina del uso justo. En este contexto, los desarrolladores están realizando numerosos acuerdos de licencia para prevenir litigios futuros, lo que sugiere que las actuales disputas legales pueden ser estrategias de negociación por parte de los involucrados.
Los resultados de estos casos pueden ser variados: los derechos de autor pueden prevalecer, puede haber acuerdos entre las partes, o los desarrolladores pueden ganar. Analistas opinan que los desarrolladores tienen un argumento más sólido, pero no es el único motivo por el cual deberían prevalecer en estas disputas. Aunque los creadores tienen preocupaciones legítimas, expandir la protección de derechos de autor no necesariamente protegerá los empleos de la automatización. Asimismo, un resultado favorable para los derechos de autor, o incluso un acuerdo, podría tener graves consecuencias, en especial si se debilitan las protecciones de uso justo para fines de investigación o las protecciones artísticas para los creadores.
En el ámbito legal, múltiples tribunales han desestimado las reclamaciones basadas en la Sección 1202(b) de la Ley de Derechos de Autor del Milenio Digital. Por ejemplo, en el caso «Raw Story Media v. OpenAI, Inc.», el tribunal desestimó las reclamaciones porque el demandante no había logrado demostrar que el entrenamiento de ChatGPT sobre sus obras les había causado daño. El tribunal argumentó que «la probabilidad de que ChatGPT produjera plagiados de los artículos del demandante parece remota». Similarmente, en otros casos, como «Andersen v. Stability AI, Ltd.» y «Kadrey v. Meta Platforms, Inc.», se han desestimado reclamaciones bajo el mismo principio.
Las reclamaciones de infracción de derechos de autor también han tenido resultados mixtos. En «Kadrey v. Meta Platforms, Inc.», el tribunal desestimó las reclamaciones que consideraban que los modelos LLaMA de Meta eran obras derivadas infractoras. Sin embargo, en «Andersen v. Stability AI Ltd.», se permitió continuar con las reclamaciones de derechos de autor basadas en el supuesto de que las obras del demandante habían sido incluidas en un conjunto de datos de entrenamiento, donde el uso de los nombres de los demandantes había generado imágenes similares a sus obras artísticas.
Un aspecto crucial en estas disputas es la doctrina del uso justo. Hasta ahora, la mayoría de los casos de inteligencia artificial no han considerado si se aplica esta doctrina. En un caso singular, un juez cambió su decisión respecto al uso justo en «Thomson Reuters Enterprise Centre GMBH v. Ross Intelligence, Inc.», que implica tecnología de investigación legal. Originalmente, el tribunal había determinado que el uso era justo, pero posteriormente cambió de opinión, lo que podría plantear problemas legales para los desarrolladores de IA.
Mientras se desarrollan estos litigios, los desarrolladores con recursos, como OpenAI y Google, están cerrando acuerdos de licencia multimillonarios con empresas como Reddit y el Wall Street Journal. De este modo, ha emergido un mercado de licencias de 2.500 millones de dólares para datos de entrenamiento, a pesar de que el uso de esos datos probablemente se considera justo. Sin embargo, la atención en este litigio no debe centrarse únicamente en los beneficios financieros para las corporaciones. El verdadero riesgo radica en que un pequeño grupo de empresas que pueden permitirse altos costos de licencia podría definir el futuro de la inteligencia artificial para todos.
Fuente: EFF.org