La IA irrumpe en el campo de los derechos de autor: Literatos y medios, en contra
Nicholas Basbanes y Nicholas Gage, presentaron una demanda contra la estadounidense OpenAI
La generalización de la IA generativa, fruto del desarrollo de herramientas como la de OpenAI, ChatGPT, ha conseguido que se plantee un nuevo escenario en diversos sectores, tales como la educación y la comunicación. Ahora, la IA también comienza una disputa con la literatura tras recibir varias demandas por un supuesto uso indebido de sus contenidos.
El pasado 5 de enero, dos autores de libros de no ficción, Nicholas Basbanes y Nicholas Gage, presentaron una demanda ante el tribunal federal de Manhattan, en la que se acusaba a OpenAI, una empresa tecnológica de investigación y desarrollo en el área de la inteligencia artificial, y a su patrocinador financiero Microsoft de haber llevado a cabo “un uso indebido de sus obras para entrenar los modelos de IA que sustentan el popular chatbot ChatGPT y otros tantos servicios”.
En la demanda colectiva, los autores sostenían que OpenAI y Microsoft violaron sus derechos de autor al haber incorporado varios de sus libros como parte de los datos que utiliza la empresa para entrenar al modelo lingüístico GPT de OpenAI, tal y como señalan algunos medios como Reuters.
Como publicó la agencia, el abogado de los periodistas definió de “indignante” que las empresas puedan “impulsar una nueva industria de más de 1.000 millones de dólares sin ninguna compensación”, haciendo hincapié en los grandes beneficios que puede llegar a generar este nuevo sector tecnológico.
Esta demanda sigue a algunas otras que ya han sido presentadas contra empresas de tecnología que aprovechaban su trabajo para entrenar a los programas de inteligencia artificial: algunas de ellas fueron la de la comediante Sarah Silverman o la de George R.R. Martin, autor de Game of Thrones.
Denuncia de 'The New York Times'
Hace pocas semanas, The New York Times también demandó a OpenAI y Microsoft por infracción de derechos de autor. Como indica el medio en una publicación, es la primera vez que una gran organización de medios estadounidense demanda a los creadores de ChatGPT y otras plataformas populares de inteligencia artificial, en relación a cuestiones de derechos de autor asociadas con sus obras escritas.
La demanda fue presentada en el Tribunal Federal de Distrito en Manhattan, y expresa que millones de artículos pertenecientes al medio han sido utilizados para entrenar chatbots automatizados que ahora “compiten con el medio de comunicación como fuente de información confiable”, expresan.
A pesar de que la demanda no especifica un requerimiento monetario exacto, afirma que los acusados deben ser considerados responsables de “miles de millones de dólares en daños legales y reales” relacionados con la “copia y uso ilegal de las obras excepcionalmente valiosas de The Times”.
Así mismo, el medio expresó que intentó acercarse a Microsoft y OpenAI en abril para exponer una situación preocupante desde la perspectiva de propiedad intelectual y explorar “una resolución amistosa”, para llegar a un acuerdo mutuo. Sin embargo, afirmó que las conversaciones no consiguieron plantear una resolución.
El periódico estadounidense afirma también en su denuncia que a raíz de que las herramientas de IA hayan sido entrenadas con su contenido, pueden “generar resultados que reciten el contenido del Times palabra por palabra, lo resuma detalladamente e imite su estilo expresivo, como lo demuestran decenas de ejemplos... Estas herramientas también atribuyen erróneamente información falsa al periódico”, indica.
La demanda interpuesta por The New York Times exige a OpenAI y Microsoft que reparen “los daños legales y reales” que han supuesto el “plagio” de sus creaciones. Sin embargo, la empresa dirigida por Sam Altman, ha publicado un comunicado en el que se afirma que dicha demanda “no tiene fundamento”.
We build AI to empower people, including journalists.
— OpenAI (@OpenAI) January 8, 2024
Our position on the @nytimes lawsuit:
• Training is fair use, but we provide an opt-out
• "Regurgitation" is a rare bug we're driving to zero
• The New York Times is not telling the full storyhttps://t.co/S6fSaDsfKb
“Si bien no estamos de acuerdo con las afirmaciones de la demanda de The New York Times, lo vemos como una oportunidad para aclarar[...]nuestra intención y cómo construimos nuestra tecnología”, expresan. Entre los puntos que se explican en la publicación, la empresa indica que el periódico “no cuenta la historia completa”: “Nuestras discusiones con The New York Times parecían estar progresando constructivamente a través de nuestra última comunicación el 19 de diciembre”.
OpenAI continua exponiendo: “Le habíamos explicado a The New York Times que, como cualquier otra fuente, su contenido no contribuía significativamente a la formación de nuestros modelos existentes y tampoco tendría un impacto suficiente para la formación futura”.
Concluyen manifestando su percepción sobre el conflicto que se ha ocasionado: “Su demanda del 27 de diciembre, de la que nos enteramos leyendo The New York Times, fue una sorpresa y una decepción para nosotros”.
La posición de la AMI
Ante esta situación, la Asociación de Medios de Información (AMI) afirmó mediante una publicación que respalda plenamente la acción entablada por The New York Times. Así mismo, la asociación expresó que “se debe asegurar que los medios de información reciban una justa remuneración por el uso que realizan los gigantes tecnológicos de sus obras”.
Además, indican que solo de esa manera se podrá garantizar “la sostenibilidad de un ecosistema de información sano que permita el desarrollo de la Inteligencia Artificial de forma responsable, en beneficio de la sociedad y del aseguramiento del derecho a la información de los ciudadanos”.
La directora general de AMI, Irene Lanzaco, señaló que la innovación que la tecnología aporta a la sociedad “no puede basarse en comportamientos predatorios que niegan los derechos de los medios de información” y expresa su denuncia a la práctica de compañías con beneficios multimillonarios que sistemáticamente se benefician de los contenidos editoriales. Estos “no pueden ignorar el obligado respeto de los derechos de los medios de información”.
Ley de de Inteligencia Artificial
En la última década, y en concreto durante los últimos años, la inteligencia artificial ha conseguido crear un escenario particular en el que ha transformado las posibilidades creativas. Su capacidad de descubrimiento se ha ampliado con el incremento masivo de datos, así como por la innovación de los algoritmos, y su uso se encuentra todavía en proceso de regulación legislativa.
La Unión Europea será la primera región del mundo que regulará de forma completa los usos de la inteligencia artificial. Los Estados y el Parlamento Europeo llegaron el pasado 9 de diciembre, y después de tres días de intensas negociaciones, a un acuerdo provisional.
Este texto final todavía deberá ser ratificado por las dos partes antes de entrar en vigor, previsiblemente a finales de 2026. Como se indica en el Portal de la Administración Electrónica del Gobierno de España, el borrador del reglamento tiene como objetivo “garantizar que los sistemas de IA comercializados en el mercado europeo y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE”. Así, la propuesta histórica también busca “estimular la inversión y la innovación en IA en Europa”.
Algunos de los principios que propone son reglas sobre modelos de IA de propósito general de alto impacto que puedan causar riesgo sistémico en el futuro, así como sobre sistemas de IA de alto riesgo, y un sistema revisado de gobernanza con algunos poderes de ejecución a nivel de la UE.
Así mismo, también expresa “la ampliación de la lista de prohibiciones, pero con la posibilidad de utilizar la identificación biométrica remota por parte de las autoridades encargadas de hacer cumplir la ley en espacios públicos, sujeto a salvaguardias, y la mejora en la protección de los derechos mediante la obligación de que quienes implementen sistemas de IA de alto riesgo realicen una evaluación del impacto en los derechos fundamentales antes de poner en uso un sistema de IA”.
Más noticias: