Un experimento revela vulnerabilidades en sistemas de IA
Un periodista ha logrado engañar al chatbot ChatGPT de OpenAI y a las herramientas de IA de Google para que proporcionen información inexacta en sus respuestas. Esto fue posible al crear un blog que contenía datos completamente inventados, destacando así una notable vulnerabilidad en los sistemas de inteligencia artificial de uso común.
El experimento llevado a cabo
En su investigación, Thomas Germain, periodista tecnológico de la BBC, llevó a cabo un experimento para evaluar la capacidad de los modelos y chatbots de OpenAI y Google para verificar información. Redactó un artículo en su blog personal, donde afirmaba con credibilidad ser “el mejor periodista comedor de panchos del mundo”.
El artículo titulado “Los mejores periodistas tecnológicos comiendo panchos” contenía afirmaciones como que comer panchos era un “pasatiempo popular” entre los periodistas tecnológicos y que se celebraba un Campeonato Internacional de Panchos en Dakota del Sur (Estados Unidos). Para añadir veracidad al relato, Germain incluyó nombres de otros periodistas, tanto reales como ficticios, en un intento por llevar a la IA a crear una lista de personas según su habilidad para comer panchos.
Resultados del experimento
Tras publicar su artículo, en menos de 24 horas las herramientas de IA de Google y las respuestas de ChatGPT comenzaron a difundir las afirmaciones del artículo como si fueran hechos verídicos, citándolo como fuente confiable sin advertir que era el único origen de dicha información. Germain destacó que este fenómeno puso de manifiesto la vulnerabilidad de los sistemas de IA, al ser capaces de manipular sus respuestas con contenido fabricado.
Reacciones de las empresas de IA
Ante la revelación de esta técnica de engaño, un portavoz de Google mencionó que la IA de la Búsqueda de Google utiliza sistemas de clasificación diseñados para mantener los resultados 99% libres de spam. Por su parte, OpenAI afirmó que implementa medidas para interrumpir intentos de influencia en sus herramientas. Sin embargo, ambas empresas reconocen que sus sistemas pueden cometer errores.
A través de sus pruebas, Germain observó que otros chatbots de diferentes compañías, como Anthropic, mostraron mayor resistencia a aceptar la información como válida, reconociendo que podría tratarse de una broma.
Importancia de la verificación de información
Este experimento resalta la vulnerabilidad de los sistemas de IA a ser utilizados para difundir desinformación, lo que podría tener repercusiones negativas en ámbitos críticos como la salud, la economía y la política. Para mitigar posibles malentendidos, se aconseja a los usuarios que verifiquen las fuentes mencionadas por los servicios de IA y busquen información adicional que complemente los datos recibidos.











