24 de abril de 2024
|
Buscar
FIN DE SEMANA

La Agencia Española de Protección de Datos AEPD ha sido denunciada "por tráfico ilegal de datos y por un uso inadecuado de la tecnología"

Varapalo ChatGPT: APEDANICA denuncia los riesgos de la Inteligencia Artificial en la función pública en España

APADENICA denuncia a ChatGPT
APADENICA denuncia a ChatGPT
Este pasado martes, la Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas (APEDANICA) ha procedido a denunciar el uso de Chat GPT en organismos públicos españoles, entre los que se encuentra la Agencia Española de Protección de Datos. Señala a la directora Mar España Martí, a la secretaria general Mónica Bando Munugarren y a la subdirectora de Inspección de Datos Olga Pérez Sanjuán, “de toda posible consecuencia indeseable".

Este martes pasado saltaba la alarma por el uso de Chat GPT en España. Tras ser denunciado por la autoridad de Protección de Datos de Italia- GARANTE- sobre la limitación temporal de su uso debido a la filtración de datos de usuarios italianos, la Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas (APEDANICA) ha denunciado el posible uso de esta herramienta en la función pública de España según se puede leer  en el siguiente enlace: https://cita.es/gobierno-chatgpt-firmado.pdf 

A través de un comunicado, la asociación APEDANICA ha advertido que “hasta ahora, no hemos encontrado ninguna resolución de la Agencia Española de Protección de Datos AEPD relativa a ChatGPT de OpenAI, aunque sí muy vagas y genéricas manifestaciones sobre inteligencia artificial en los documentos publicados en el dominio aepd.es”.

Aunque no han sido los únicos en advertir a la sociedad. Y es que EUROPOL ha publicado un informe sobre los “riesgos para la seguridad pública que supone ChatGPT”. Pero APEDANICA “sospecha que son más y que OpenAI debe ser responsable subsidiario de todos los daños y perjuicios que ocasione ChatGPT”.

Además, la Asociación añade que “en todo caso, las resoluciones administrativas, especialmente las policiales o fiscales y mucho más aún las judiciales basadas en ChatGPT deben ser prohibidas y sancionados todos los funcionarios que las utilicen, sin perjuicio de todas las responsabilidades patrimoniales indemnizatorias”.

Denuncia a ChatGPT en España

Este domingo, APEDANICA ha registrado una solicitud de transparencia a la Presidencia del GobiernoMinisterios y Entidades Dependientes. En cuanto al asunto se refiere se trata de la denuncia contra ChatGPT en la función pública, responsabilizando a la Agencia Española de Protección de Datos AEPD de “toda posible consecuencia indeseable”, donde además, “el funcionario que utilice ese tipo de aplicaciones debe estar bien identificado sin que sus datos sean protegibles ni ocultados”.

Y es que “no solamente es responsable del tráfico ilegal de datos, más aún cuando los datos o metadatos de ciudadanos españoles acaban en sistemas de EEUU sin representante legal alguno en España, sino también del uso que se está haciendo de la tecnología en perjuicio de terceros, como es el caso de ChatGPT de OpenAI o IBM Watson ROSS”, advierte la Asociación.

Según el comunicado expuesto por Miguel Ángel Gallardo Ortiz, en representación de APEDANICA, en España numerosas instituciones públicos han reconocido “estar utilizando, o al menos experimentando, con ChatGPT, entre las cuales bien puede estar la Agencia Española de Protección de Datos AEPD, para procesar textos o incluso proponer resoluciones”.  Y destaca que debido a la “opacidad” de la AEPD no han podido “evidenciar esta fundada sospecha”, aunque aseguran que “hay al menos 400 referencias de entidades bajo el dominio gob.es que elogian y anuncian usos de ChatGPT en resultados de Google”.

Sin ir más lejos Google sería uno de los más sospechosos por ahora y AEPD habría encubierto,a través de censuras, varias marcas como TeBorramos y la empresa Legal Eraser SL según ha informado la parte denunciante.

En el comunicado denuncian que la Administración Pública “pague por versiones “PREMIUM” de ChatGPT y que los funcionarios hagan libre uso de versiones premium o privilegiadas para fines privados”. Por este motivo, APEDANICA sugiere que “toda licencia pagada con fondos públicos de ChatGPT debe tener un responsable que rinda cuentas de su utilización”, incluidas las versiones gratuitas en cualquier Administración Pública.

Para la Asociación, “desde las más altas magistraturas, fiscalías y Cuerpos y Fuerzas de la Seguridad del Estado (que pueden violar derechos fundamentales de manera inconsciente e irresponsable por ser muy difícil de detectar), hasta la última universidad pública o municipio que utilice ChatGPT para el ejercicio de cualquier función pública, debe estar siempre muy bien motivado y ser transparente, garantizando la seguridad jurídica y la interdicción de la arbitrariedad del artículo 9.3 de la Constitución Española”.

Otras denuncias de APEDANICA

No es la primera vez que la Asociación para la Prevención y Estudio de Delitos, Abusos y Negligencias en Informática y Comunicaciones Avanzadas denuncia alguna aplicación informática que carece de representante legal en España.

Desde NSO Group, propietaria y responsable del sistema para el espionaje telefónico, pasando por PEGASUS, que violó las medidas de seguridad de sistemas ANDROID de Google e IOS de Apple, al igual que lo han hecho Cellebrite (con los metadatos de su sistema analítico UFED) y Verint en espionaje de smartphones, así como de redes como LinkedIn (propiedad de Microsoft que “no asume ninguna responsabilidad en España por acciones u omisiones o censuras encubridoras de LinkedIn”, o Twitter, "cuyos abogados en Baker & Mckenzie hacen lo imposible para que Twitter sea indemandable en España".

La Asociación continúa con esta lista incluyendo a "Facebook, cuyos abogados del despacho Cuatrecasas hacen lo mismo, obligando a demandar en EEUU a Meta Platforms a costa del demandante, hasta ChatGPT, quien necesita de forma urgente una representación legal que sea demandable y sancionable por su reciente influencia en la tecnología actual y los riesgos que está ocasionando", sostiene.

APEDANICA no descarta el ejercicio de todos los derechos que estén a su alcance o al de sus asociados, dando a conocer el uso “indebido o perverso de la nueva Inteligencia Artificial dañando a particulares. No dudaremos en acusar de encubrimiento al funcionario público que impida su ejercicio o la publicación de la identidad de quien haga uso indebido de recursos públicos que financien inteligencia artificial”, ha advertido la asociación en su comunicado.

Uso de ChatGPT de OpenAI en el Gobierno

La Asociación, en un análisis de varias respuestas del Gobierno, cree posible que se haya usado esta herramienta para contestar preguntas parlamentarias, donde cree haber observado elementos parecidos a los que la asociación APEDANICA ha analizado críticamente en el ChatGPT de OpenAI, llegando a redactar resoluciones estereotipadas y resoluciones administrativas.

Desde la asociación manifiestan que "la directora de la AEPD, Mar España Martí, es responsable de todo cuanto firma, sea quien sea quien se lo redacte, pero si en alguna de sus resoluciones hay algún texto generado por ChatGPT de OpenAI o por cualquier otra aplicación de Inteligencia Artificial, el perjudicado puede instar la nulidad de las actuaciones sin que exista prescripción nunca". Además, añaden que la directora de la AEPD "también tiene responsabilidad por las acciones, omisiones y disfunciones de las Administraciones Públicas que utilicen Inteligencia Artificial afectando a ciudadanos, incluyendo a la Administración de Justicia y al Poder Judicial". 

Dicen desde la Asociación que quien sea legalmente responsable del uso indebido o abusivo de la inteligencia artificial "sea consciente de que no solamente se está utilizando para obtener y beneficiarse ilegalmente de datos personales como ha resuelto el Garante de Italia, sino que también está siendo utilizada para censurar hechos relevantes penalmente en presunto encubrimiento", señala el comunicado.

APEDANICA solicita que se admita la denuncia y pide que se abra un expediente sobre ChatGPT de OpenAI, IBM Watson ROSS, Google Assistant, Amazon Alexa, Microsoft Cortana, Apple Siri u otras aplicaciones de Inteligencia Artificial que usen funcionarios en Administraciones Públicas, empezando por la Agencia Española de Protección de Datos AEPD informando a todos los posibles afectados "de la manera más eficaz posible".

COMPARTIR: