29 de septiembre de 2023
|
Buscar
FIN DE SEMANA

Los objetivos principales de esta nueva medida son la captura de imágenes y sonidos en situaciones derivadas del terrorismo o el crimen organizado

La IA llega a la Eurocámara: El Parlamento Europeo 'da luz verde' al proyecto de Ley

Parlamento Europeo
Parlamento Europeo
El Parlamento Europeo votará el miércoles 14 de junio la ley que plantea regularizar el sector de la Inteligencia Artificial en la Unión Europea. La nueva norma prevé clasificar los usos de IA en cuatro niveles de riesgo y en ellos incluye la regulación de servicios como ChatGPT. El objetivo es crear un marco jurídico que permita la innovación de las empresas y la protección de los ciudadanos.

La regularización del uso de Inteligencia Artificial se presenta por primera vez en la Eurocámara en forma de ley. La votación, que tendrá lugar el miércoles, se produce tras varios años de debate y decidirá la posición de Europa ante esta tecnología. 

La cuestión del uso de Inteligencia Artificial ha sido abordada en el continente con anterioridad, pues en 2020 se presentó un paquete de tres resoluciones no legislativas sobre IA, y posteriormente los eurodiputados Ibán García del Blanco (S&D) y Axel Voss (PPE) presentaron dos iniciativas legislativas al respecto. La principal intención de la nueva norma es asegurar la innovación de las empresas y al mismo tiempo proteger a los ciudadanos ante posibles usos peligrosos de la Inteligencia Artificial. 

La adaptación a las nuevas tecnologías y la “necesidad” de crear un marco jurídico han conducido al Parlamento Europeo a una votación pionera a nivel mundial y se espera que “abra la veda” a que otros organismos internacionales se pronuncien sobre el uso de Inteligencia Artificial. En esta nueva ley se incluyen las normas que las comisiones de Mercado Interior y de Libertades Civiles del Parlamento Europeo aprobaron el mes pasado para mitigar los riesgos de Chatbots como ChatGPT.

Las normas para los desarrolladores de ChatBots

Aún no está confirmado que la normativa aprobada para sofocar el riesgo de Chatbots vaya a incluirse íntegramente en la nueva ley sin modificación, pero de ser así los desarrolladores o empresas que pretendan introducir al mercado productos o herramientas de este tipo deberán cumplir las siguientes normas.

En primer lugar se debe demostrar que se han reducido los riesgos para la salud, los derechos fundamentales y el sistema democrático. Paralelamente, se debe someter la herramienta al análisis de expertos independientes.

202212141212159_1

Interfaz de la herramienta ChatGPT, que funciona con Inteligencia Artificial

Los usuarios que generen o manipulen contenido con este tipo de herramientas deben informar al resto de ciudadanos de que el contenido que están presentando es falso. Pues a menudo las manipulaciones realizadas con IA son muy realistas e inducen a un gran número de personas a pensar que son reales. Además, los desarrolladores deberán presentar un resumen “suficientemente detallado” sobre los datos protegidos con derechos de autor que utilizan para “entrenar” a los sistemas de Inteligencia Artificial.

La última norma dicta que las herramientas se tendrán que diseñar de tal forma que a lo largo de su vida útil tengan "niveles apropiados" de rendimiento, previsibilidad, interpretabilidad, corregibilidad, seguridad y ciberseguridad.

Los cuatro niveles de riesgo que prevé la ley

La ley, que será sometida a votación el miércoles cuenta con una clasificación en cuatro niveles sobre el riesgo que puede suponer el uso de herramientas de Inteligencia Artificial. La clasificación se divide entre: Prohibidos, riesgo alto, riesgo medio y riesgo mínimo.

Dentro de los usos prohibidos, calificados así por ser contrarios a los Derechos Fundamentales de la Unión Europea,  encontramos cuatro sistemas diferentes que serán vetados. Se prohibirán los sistemas de IA que exploten “posibles vulnerabilidades debidas a factores como la edad, discapacidad física o mental etc”. Los sistemas que usen identificación biométrica a distancia también serán prohibidos, exceptuando usos policiales o justificados.

También estará prohibido comercializar, encargar o utilizar, por las autoridades públicas o en su nombre, sistemas de Inteligencia Artificial destinados a evaluar o establecer clasificaciones de la fiabilidad de personas físicas y que den lugar a un "trato perjudicial o desfavorable". Quedarán vetados también los sistemas de IA que utilizan técnicas subliminales que "podrían resultar perjudiciales para la salud física o psicológica de las personas".

Respecto a los usos de alto riesgo, se refiere a sistemas que deberán ser evaluados por agencias nacionales antes de su implantación. Entre estos sistemas se encuentran los algoritmos utilizados por algunas aplicaciones médicas o las de escaneo de CV dirigidas a la evaluación de los solicitantes de una oferta de empleo.

La categoría de riesgo medio incluye las herramientas de Inteligencia Artificial con obligaciones específicas de transparencia. Estas herramientas no serán evaluadas previamente pero se exigirá transparencia respecto a su uso. Por último, el riesgo mínimo incluye todos los objetos cotidianos conectados en el hogar, como lavadoras, frigoríficos o relojes conectados, que no requerirían ninguna autorización específica ni transparencia.

La digitalización también llega a la política

De forma paralela al anuncio de la ley que regulará el sector de la Inteligencia Artificial, la digitalización de algunos sectores como la política está generando revuelo en países como Francia, donde ha explotado una polémica por la Ley de activación remota de cámaras en móviles: "Es una dictadura digital".

El pasado miércoles 7 de junio, el Senado francés aprobó la activación remota de cámaras y micrófonos en teléfonos móviles, disposición que será incluida en el proyecto de ley de Justicia. La autorización para esta activación remota ocurrirá sin el consentimiento ni conocimiento de los individuos involucrados en ciertos delitos o situaciones relacionadas con bandas organizadas y terrorismo. Además, también se ha autorizado que el Estado escuche y vigile las fuentes de los periodistas, lo que pone en riesgo el derecho a la información en la Unión Europea.

Los objetivos principales de esta nueva medida son la captura de imágenes y sonido en situaciones derivadas del terrorismo o el crimen organizado, y el acceso a la geolocalización en tiempo real de ciertos casos de delincuencia, además de la posibilidad de activar ordenadores y sistemas informáticos del coche de forma remota.

Con esta medida se está gestando la que para muchos individuos es la “dictadura digital”. Esta iniciativa ha generado el rechazo de gran parte de la población francesa. La preocupación principal radica en el riesgo de abrir la puerta a una vigilancia generalizada y el impacto que esto podría tener en la privacidad de los ciudadanos. 

COMPARTIR: