26 de junio de 2024
|
Buscar
FIN DE SEMANA

George R.R. Martin fue testigo de como ChatGPT generaba el quinto y sexto volumen de la saga 'Juego de Tronos' que aún continua escribiendo

El sindicato de escritores de EEUU contra la IA: La demandan por vulnerar los derechos de autor de sus libros

George R. R. Martin, autor de
George R. R. Martin, autor de "Juego de Tronos" y uno de los principales demandantes contra ChatGPT.
Tan antigua como la mitología griega o la literatura. Parece que el peligro de la Inteligencia Artificial es algo reciente, pero ha ocupado libros y ha protagonizado miles de historias. Ahora, cuando su uso está aumentando exponencialmente con herramientas como ChatGPT, empieza a ser un problema, pero no como el que adelantaban los autores: el sindicato de autores ha lanzado una gran demanda contra la Inteligencia Artificial, y no ha sido por control o suplantación. Ha sido por plagio.

No son los primeros y, desde luego, tampoco van a ser los últimos. El sindicato de escritores estadounidense ha lanzado, la semana pasada, una demanda conjunta contra el famoso ChatGPT y la empresa que lo gestiona, OpenAI, por vulnerar los derechos de autor de sus libros. El epicentro de la demanda es la violación delos derechos de autor con fines lucrativos  comerciales, teniendo en cuenta que ninguno de los autores ha recibido una recompensa monetaria por parte de OpenAI por el uso de sus obras para “entrenar” al programa y poder desarrollar contenido nuevo.

George R. R. Martin en una presentación de "Juego de Tronos". | Fuente: SplashNews

Afirman que ChatGPT obtuvo de forma ilegal sus textos. De hecho, en el caso de George R.R. Martin, el autor ha visto cómo la plataforma de inteligencia artificial generaba el sexto y séptimo libro de su exitosa saga Juego de Tronos, volúmenes que aún continúa escribiendo y que ni siquiera se han publicado. Otros artistas han demandado antes a la Inteligencia Artificial por el robo de sus derechos de autor de fotografías, cuadros e imágenes, alegando una violación de copyright. Y, aunque es pronto para saberlo, en base a los antecedentes, la última vez que el sindicato de escritores emitió una demanda conjunta contra una entidad por vulnerar sus derechos de autoría (contra Google, concretamente), el tribunal falló a favor del gigante estadounidense.

Una futura Ley de Inteligencia Artificial de la UE que aún no llega

En lo que coinciden usuarios, autores y políticos es en la necesidad de desarrollar, por fin, una ley que establezca un control sobre la IA. Y no, no es la primera vez que los artistas lo advierten. Ya en junio de este año, la Unión Europea empezó a trabajar en un marco legislativo para controlar las nuevas tecnologías, garantizando así sus condiciones tanto de uso como de desarrollo.

Imagen de un ordenador portátil.

La intención es que esté lista para finales de año, aunque la primera propuesta es de abril de 2021. Hace dos años, la UE proponía que los sistemas que emplearan inteligencia artificial y que pudieran ser incluidos en aplicaciones, se analizaran y clasificaran según el riesgo que implicaran para los usuarios. A mayor peligro, mayor regulación de la IA.

Tal y como explica el propio Parlamento Europeo en su sitio web, el objetivo es “garantizar que sean seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente”, además de que haya una persona detrás de la IA para evitar resultados perjudiciales.

La clasificación que propone la UE: Desde “riesgo inaceptable” hasta “riesgo limitado”

En el listado de categorías que propone la propia Unión Europea se encuentran cinco tipos (cuatro principales y uno, con dos subtipos). La categoría más peligrosa sería la de riesgo inaceptable. Toda la IA que suponga una amenaza para las personas por manipulación cognitiva del comportamiento de personas o grupos vulnerables específicos, que establezca una puntuación social (es decir, una clasificación de personas por sus características) o que utilice sistemas de identificación biométrica en tiempo real y a distancia (como reconocimiento facial), estará terminantemente prohibida.

Imagen de una joven utilizando gafas de IA.

El segundo tipo es el de alto riesgo, que incluye, a su vez, dos subcategorías. Estarían, en primer lugar, los productos sujetos a la legislación de la UE sobre seguridad, como juguetes, la aviación, los automóviles, los dispositivos médicos y los ascensores. En segundo lugar, implica la IA que forme parte de ocho ámbitos diferentes y que tendrá que estar, obligatoriamente, registrada en una base de datos de la UE. Sería aquella que cuente con identificación biométrica e identificación de personas, gestión y explotación de infraestructuras, educación y formación profesional, empleo, gestión de trabajadores, acceso a servicios privados esenciales y servicios públicos, aplicación de la ley, gestión de la migración, asilo y control de fronteras e interpretación de la ley.

En los dos últimos lugares, se encontrarían las IA que menos riesgo suponen para los usuarios. Serían la generativa, como ChatGPT, herramienta que la propia UE pone de ejemplo en esta categoría y sobre la cual, dice (dando la razón a los escritores que la han demandado) que debe “revelar que el contenido ha sido generado por IA, diseñar el modelo para evitar que genere contenidos ilegales y publicar resúmenes de los datos protegidos por derechos de autor utilizados para el entrenamiento”. Por último, estaría la IA de riesgo limitado, que debe contar con unos requisitos mínimos de transparencia y que debe permitir al usuario decidir si quiere o no quiere utilizar la inteligencia artificial. En este grupo entrarían las herramientas que modifican archivos de vídeo, imágenes y audios.

COMPARTIR: