24 de abril de 2024
|
Buscar
FIN DE SEMANA

El nuevo chatbot, como las herramientas Alexa o Siri, supone una amenaza para la desinformación y los expertos no lo ven fiable para los usuarios

Los peligros de los chatGPT, lo último en inteligencia artificial: Usurpación de datos personales y graves errores

Los errores de chatGPT.
Los errores de chatGPT.
La nueva Inteligencia artificial ChatGPT no es confiable para obtener datos veraces según los expertos. Es cierto que se le puede preguntar cualquier cosa, pero eso no implica que la respuesta sea veraz. Han sido muchos los usuarios que han podido comprobar los errores de esta herramienta que, aunque sea conversacional y parezca “humana”, no es capaz de razonar y eso genera que tenga fallos. Es un dispositivo que está en continuo aprendizaje.

El último 'juguete' de internet que ha seducido a toda la población es capaz de responder a todas tus preguntas, pero admite que su respuesta no es perfecta y puede tener errores. Es una herramienta diseñada para responder preguntas a través de un diálogo. En una publicación en su blog, OpenAi afirma que el ChatGPT “responde a las preguntas de seguimiento, admite sus errores, desafía supuestos incorrectos y rechaza solicitudes inapropiadas”.

Es cierto que esta inteligencia artificial puede solucionar alguno de estos problemas, pero no llega a tener una solución completa. No realiza una búsqueda web para obtener información sobre hechos recientes, por lo que no es capaz de resolver las dudas sobre la actualidad debido a que sus conocimientos tan sólo llegan hasta un tiempo específico, el año 2021. OpenAi también, programó a este chatbot para rechazar aquellas “peticiones inapropiadas”.

2106291758-FF-INTELIGENCIA-ARTIFICIAL-SHUTTERSTOCK-1920x520

La herramienta chatGPT y sus errores. 

Una de las causas por las que está a disposición de todo el mundo es su condición de gratuita De esta manera ChatGPT puede detectar con mayor velocidad los fallos y los posibles usos nocivos, y puede aprender de ellos puesto que es una herramienta "machine learning" que está en continuo aprendizaje. 

Esta inteligencia artificial genera una respuesta que hace que parezca “humano”. Sin embargo, hay que tener en cuenta que ChatGPT no razona, no es capaz de entender en su totalidad la complejidad del lenguaje humano y no comprende el significado de las palabras. Tan sólo se basa en crear frases en base a un patrón estadístico para que gramaticalmente concuerden.

Los errores de ChatGPT

Tal y como se autodefine, no es una herramienta diseñada y programada para ser veraz, sino para ser conversacional. Han sido muchos usuarios los que han utilizado esta nueva herramienta y muchos de ellos los que han podido comprobar sus errores.

Por ejemplo, el vicerrector de investigación de la UNED, Julio Gonzalo, le pidió que le realizaráauna lista de las poetas españolas del siglo XX, lo que hizo correctamente. Sin embargo, Gonzalo le dijo que se había equivocado en una de ellas, algo que no era cierto pero ChatGPT  admitió. Se disculpó y a continuación se invento unas nuevas fechas de nacimiento y muerte para la supuesta poeta que estaban mal. 

No es el único error que esta herramienta tiene. Otro caso comprobable se da cuando se le pregunta por Iñigo Arcauz Ascargorta y lo describe de la siguiente manera: “Iñigo Arcauz Ascargorta es un político y abogado vasco que ha desempeñado un papel importante en la política regional y nacional de España. Nacido en 1954 en Gasteiz, Arcauz es miembro del partido político vasco PNV (Partido Nacionalista Vasco) y ha sido elegido varias veces como diputado al Parlamento vasco y al Congreso de los Diputados de España. Arcauz es uno de los políticos más destacados del PNV…”

Arcauz no pertenece al PNV y este partido tampoco ha tenido a ningún político con este nombre. La única persona que coincide con este nombre y se dedica a la política pertenece al Partido Popular. Además, la biografía política que describe el chatbot no es completamente cierta.

OpenAI ya alertaba de los problemas y errores que puede llegar a tener su herramienta en su sitio web. “ChatGPT a veces escribe respuestas plausibles pero incorrectas o sin sentido. Solucionar este problema es complicado, ya que durante el entrenamiento, actualmente no hay una fuente de verdad; entrenar al modelo para que sea más cauteloso hace que rechace preguntas que puede responder correctamente; y el entrenamiento supervisado engaña al modelo porque la respuesta ideal depende de lo que sabe el modelo, en lugar de lo que sabe el demostrador humano”.

ChatGPT y la desinformación

Sam Altman ya ha advertido a través de su cuenta de Twitter y página web de que el sistema está aún en experimentación. Por tanto, este chatbot no puede usarse como única herramienta para informarse. Si preguntas por un tema que conoces y controlas es fácil verificar la veracidad de la respuesta que te dé. Sin embargo, si preguntas sobre algo que desconoces es mejor que busques otras fuentes en las que comprobar si realmente es cierto toda la información que ChatGPT te proporciona.

Cuando le preguntas sobre algo de lo que hay mucha información es capaz de responderte con elocuencia. No obstante, si hay poca información sobre el tema es cuando comienza a descarriar y se inventa información para completar su respuesta.

Los peligros de ChatGPT

El efecto placebo y el ansia de novedad que tenemos las personas hace que no nos percatemos o no seamos plenamente conscientes de la exposición de nuestra privacidad a la hora de compartir datos y patrones de comportamiento en cualquier lugar y de lo que puede suponer la recopilación de todos ellos. ChatGPT, a través del registro de sus usuarios y de la interacción con su sistema, recopila de forma masiva datos personales sobre cada persona que lo consuma.

Joseba Ortega, periodista especialista en seguridad informática, alerta del peligro que puede suponer facilitarle todos estos datos a ChatGPT. “Seamos conscientes de los datos que le estamos dando a esta presunta Inteligencia Artificial. Es decir, para que esta herramienta te dé este servicio gratuito tienes que dar tu nombre, apellido, tu correo electrónico, tienes que crear una contraseña y solemos usar contraseñas sencillas que recordamos fácilmente o que usamos en otras cuentas… y tu teléfono móvil. El teléfono dice que lo requiere para enviar un código a ese dispositivo y así verificar la identidad del usuario. Uno, le estás dando tu número móvil; dos, ya le has dado tu nombre; tres, le estás dando una dirección IP que ayuda a geolocalizarte; cuatro, le estás dando una dirección MAC, es decir, la dirección física de cualquier dispositivo”.

Tras darte de alta en este sistema “basado en técnicas de ingeniería social la propia inteligencia artificial puede extraer información a través de las conversaciones que tienes con este y sin que tú te des cuenta”, explica Ortega.

ChatGPT es un machine learning, lo que significa que es una máquina que va aprendiendo según las interacciones que tenga con todas las personas que vayan utilizando el sistema. “De lo que yo me di cuenta es que con la Inteligencia Artificial estamos creando una base de datos y de comportamientos que Google ha necesitado muchos años. Y nosotros estamos ayudando a esta supuesta Inteligencia Artificial en tiempo récord, no hay que olvidar que hoy en día los datos son el nuevo oro. Todo tiene un precio”, alerta Ortega.

Al igual que se conciencia a los ciudadanos de los peligros que conlleva compartir en las redes sociales los datos y vida personal, es necesario ser consciente de los peligros que pueden suponer los chatsbots y la nueva Inteligencia Artificial.

Qué es ChatGPT

La mayoría de la población ha interaccionado en algún momento con un chatbot, ya sea la famosa Alexa, Aura, Siri o algún servicio al cliente de un portal web.

El pasado 30 de noviembre se lanzó el sistema ChatGPT, un prototipo de chatbot movido por inteligencia artificial (IA) con el que se puede conversar gratis y de una forma bilateral. Este nuevo sistema no sólo contesta preguntas, sino que es capaz de escribir poemas, artículos, historias, dar consejos, etc… Con tan ni siquiera un mes en funcionamiento, el ChatGPT ya tiene a más de un millón de usuarios de todo el mundo en su servidor.

Fue creado por Sam Altman y entre los inversores estaba el actual dueño de Twitter, Elon Musk. Se ha usado el lenguaje tecnológico GPT-3.5 para que se puedan introducir grandes cantidades de bases de datos en el robot. Gracias a este lenguaje se puede producir una conversación bilateral de forma “natural”. Además, se ha recurrido a algoritmos machine learning, una rama de Inteligencia Artificial que enseña a “pensar y aprender” a robots y máquinas.

 

ChatGPT se ha desarrollado escuchando y aprendiendo de conversaciones entre personas. Sus creadores enseñaron al sistema la conducta y el comportamiento que debe tener, por ello, los defensores alegan que el robot no tiene discursos o comentarios extremistas, xenófobos o racistas.

La otra cara de ChatGPT

Tras el lanzamiento del nuevo sistema de Inteligencia Artificial, expertos de todo el mundo se han posicionado a favor y en contra. Muchos de ellos argumentan que la inteligencia del robot es tan sólo un “espejismo lleno de trucos técnicos”.

El crítico de tecnología de “The Atlantic”, Ian Bogost, alegó en un artículo que “ChatGPT carece de la capacidad para comprender verdaderamente la complejidad del lenguaje y la conversación entre humanos. Esto significa que es probable que cualquier respuesta que genere sea superficial y carente de profundidad y perspicacia”.

Bogost afirma en su artículo que "ChatGPT es más tonto de lo que piensas". Así, puso a prueba a este sistema. “A veces simplemente usaba plantillas. Cuando le pedí a ChatGPT que generara una carta de presentación para un trabajo universitario, respondió de manera competente, pero sin inspiración. También produjo exactamente la misma carta para un trabajo como editor de una revista que para un trabajo como innovador de cannabis en el espacio Web3”, argumenta.

2022-12-28_2

Logotipo ChatGPT. Fuente: NURPHOTO VIA GETTY IMAGES.

El profesor emérito de la Universidad de Nueva York Gary Marcus explicaba en una entrevista en El Confidencial: “Si ChatGPT lleva a una persona a creer que es inteligente cuando no lo es, ese es el peligro". Marcus explica que el sistema “coge trozos de texto de aquí y allá, los pega y los reproduce, pero no entiende la relación entre esos trozos”.

Por otro lado, Joseba Ortega explica a elcierredigital.com que “es un sistema que le queda mucho por aprender y de ahí que se puedan dar incorrecciones, respuestas limitadas o incluso respuestas aparentemente sesgadas”.

ChatGPT vs Google

Tras la creación de esta Inteligencia Artificial hay gente que cree que podría acabar sustituyendo a Google. Sin embargo, Ortega explica que “todavía tiene mucho que pulir para poder ser un sustituto efectivo de Google, porque es un sistema que está en versión beta permanente porque está en constante aprendizaje”.

El creador de Gmail, Paul Buchheit, explicó que es la mayor amenaza para Google puesto que “la IA eliminará la página de resultados de búsqueda, que es de donde viene la mayoría de sus ingresos".

Por otro lado, Gary Marcus, al contrario que Buchheit, cree que es muy difícil sustituir a una herramienta como Google. “Con Google buscas algo y te da 10 páginas web, sabes que esas webs pueden ser útiles o no, pueden contener desinformación, pero puedes evaluar por ti mismo. Con ChatGPT lo que obtienes se parece más a una página de la Wikipedia y, desgraciadamente, parte de ese contenido va a ser erróneo. En lugar de dejarte a ti evaluar qué es bueno y qué no, decide por ti y te lo da todo hecho”, argumenta Marcus.

COMPARTIR: