Los errores de la inteligencia artificial

Foto del autor

Javier Arevalo

La inteligencia artificial ha venido para quedarse, eso está claro, y también podemos afirmar que estamos en un punto muy inicial, pero como suele ocurrir cuando hablamos de tecnología la evolución será vertiginosa los próximos meses.

ChatGPT parece haber sido solamente el comienzo y otros desarrolladores como Google ya están preparando sus proyectos como Gemini, que promete ser toda una revolución.

Ni que decir que la IA presenta unas ventajas considerables y que puede resultar muy beneficioso para todos, pero también hay inconvenientes importantes con respecto a la información que ofrece.

También hemos vivido episodios relacionados con noticias fake, imágenes manipuladas, etc. y que evidencian, para variar, que la legislación no está actualizada a los nuevos tiempos.

Cuando la inteligencia artificial se equivoca

El hecho de que usemos aplicaciones como ChatGPT por ejemplo no significa ni mucho menos que sea mejor que los humanos o que estemos ante un «ser» realmente inteligente.

De hecho si lo pones a prueba en exámenes test de cualquier temática, no suele ser demasiado acertado…

Igualmente las respuestas que suele arrojar son bastante ambiguas, un tanto de perogrullo, es como si tuvieras enfrente a un cibercuñao que tiene respuestas para todo pero no significa que esas respuestas siempre sean las acertadas.

Cumple un poco con esa premisa de que si dices algo con mucha seguridad entonces parecerá que tengas razón.

Puedes ponerlo a prueba hasta el punto que arroje respuestas que no son del todo ciertas o a la mínima te pide disculpas si le haces ver que se ha equivocado…

Chat GPT es hackeable… para dar información falsa

No estoy diciendo ninguna barbaridad si afirmo que ChatGPT, como cualquier otro sistema de inteligencia artificial, se puede hackear para que dé una determinada información.

Si se nutre de información que encuentra en internet y de la información proporcionada por los usuarios, que de manera inconsciente, entrenan a ese sistema… es fácil pensar que entre una gran cantidad de personas se puede conseguir modificar la información que ChatGPT tiene de alguna cosa específica.

Imaginemos que le preguntamos a ChatGPT por los mejores vermuts de la ciudad de Reus, que es una ciudad conocida precisamente por la producción de esta bebida…

En la lista se nos cuela una marca que no tiene nada que ver con esa ciudad, por algún motivo, ChatGPT considera que el vermut Petroni es de Reus, mientras que se trata de una marca de Galicia.

Pero la pregunta es ¿cómo es posible que ofrezca esa información de manera errónea? ¿de dónde lo ha sacado? ¿quién le ha dicho esto para que considere que es lo correcto? ¿lo ha sacado de internet?

El ejemplo, que puede parecer en sí bastante inocente, en realidad no lo es tanto si hace que un consumidor se lo crea a ciencia cierta y buscando una bebida con denominación de origen decida una adquisición que en realidad no es lo que busca.

La cuestión es como se ha llegado a manipular esa información o si realmente se puede manipular…

En definitiva, que esos gazapos que tienen plataformas como ChatGPT serán sin duda los aspectos a tener en cuenta, junto con los riesgos de privacidad y seguridad que pueden suponer este tipo de sistemas, incluso en su uso con motivos publicitarios en un futuro.

 

 

Deja un comentario