Engañan a Gemini y ChatGPT para que den información falsa en sus resultados, con solo escribir un blog con dichos datos

Archivo - FILED - 22 October 2025, Mecklenburg-Western Pomerania, Schwerin: Several AI applications can be seen on a smartphone screen, including ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok and DeepSeek. Photo: Philip Dulian/dpa
Archivo - FILED - 22 October 2025, Mecklenburg-Western Pomerania, Schwerin: Several AI applications can be seen on a smartphone screen, including ChatGPT, Claude, Gemini, Perplexity, Microsoft Copilot, Meta AI, Grok and DeepSeek. Photo: Philip Dulian/dpa- Philip Dulian/dpa - Archivo
Europa Press PortalTIC
Actualizado: lunes, 23 febrero 2026 17:22

   MADRID, 23 Feb. (Portaltic/EP) -

   Un periodista ha conseguido engañar al 'chatbot' ChatGPT de OpenAI y las herramientas de inteligencia artificial (IA) de Google para que muestren información falsa a los usuarios en sus respuestas, con solo inventarse los datos en cuestión y escribirlos de forma detallada y realista en un blog, reflejando una vulnerabilidad en los sistemas de IA de uso masivo.

   A la hora de hacer preguntas a un 'chatbot' o a un servicio con herramientas de búsqueda de información impulsadas por IA, como es el caso del Modo IA o AI Overviews de Google con Gemini, las respuestas se obtienen a partir de los grandes modelos de lenguaje en los que están basados dicho servicios que, a su vez, están entrenados con grandes cantidades de bases de datos, analizados y categorizados como verdaderos.

   Sin embargo, cuando el 'chatbot' recibe una pregunta sobre la que no tiene información, a menudo realiza una búsqueda en internet para encontrar los datos solicitados, que a su vez se complementan con el conocimiento de su modelo de lenguaje. En esos casos, la IA se vuelve más susceptible de utilizar datos sin contrastar que pueden ser falsos.

   Teniendo esto en mente, el periodista tecnológico de la BBC, Thomas Germain, ha realizado un experimento para poner a prueba la capacidad de los modelos y los 'chatbots' de OpenAI y Google a la hora de contrastar la información o, de lo contrario, aportar datos falsos en sus respuestas.

   Concretamente, Germain escribió un artículo en su blog personal con información completamente inventada, en el que afirmaba convincentemente de que era "el mejor periodista comiendo perritos calientes del mundo".

   Este artículo, llamado 'Los mejores periodistas tecnológicos comiendo perritos calientes', incluye afirmaciones como que comer perritos es "un pasatiempo popular" entre los periodistas tecnológicos, así como que existía un Campeonato Internacional de Perritos Calientes de Dakota del Sur (Estados Unidos).

   Para continuar aportando realismo, el periodista agregó el nombre de otros periodistas, tanto verdaderos como falsos, con la idea de que la IA pudiera crear una lista de 10 personas y organizarla en base a quién comía más perritos calientes. Todo ello, lo realizó en apenas 20 minutos de redacción y, tras ello, lo acabó publicando en su blog.

   Según ha detallado, menos de 24 horas después de la publicación del artículo, las herramientas de IA de Google, así como las respuestas de ChatGPT comenzaron a repetir las afirmaciones incluidas en el artículo, considerándolas como información real. Incluso, citando el artículo en cuestión como fuente confiable y sin advertir que era el único origen de dichas afirmaciones.

   Como resultado, Germain ha asegurado que consiguió hacer que tanto las herramientas de IA de Gemini como ChatGPT respondieran a los usuarios de forma general que él era muy bueno comiendo perritos calientes, poniendo de relieve una vulnerabilidad en los sistemas de IA de uso masivo, al poder manipular las repuestas de los 'chatbots' de empresas relevantes del sector, con poco trabajo y contenidos falsos. El periodista se aprovechó para que los sistemas asumieran su mentira como un hecho verificable.

   Al descubrir esta posibilidad de engaño hacia la IA, el periodista ha especificado que, según declaraciones de un portavoz de Google al respecto, la IA integrada en la parte superior de la Búsqueda de Google utiliza sistemas de clasificación que "mantienen los resultados 99% libres de spam".

   OpenAI, por su parte, también ha afirmado que toma medidas para interrumpir y exponer los intentos de usuarios influyendo en sus herramientas. No obstante, tanto Google como OpenAI han reconocido que sus opciones de IA "pueden cometer errores".

   A pesar de todo ello, según sus pruebas, otros 'chatbots' o modelos de IA de otras empresas, mostraron más reticencia a la hora de responder este tipo de cuestiones, como por ejemplo, Anthropic. Así, Germain ha indicado que dichos chatbots notaban que la información en cuestión podía ser una broma.

   Así, se ha puesto sobre la mesa la capacidad que puede tener cualquier persona para introducir y difundir desinformación a través de la IA, lo que se puede traducir en efectos peligrosos para la salud, la economía, la política o recomendaciones críticas de seguridad.

   Para evitar este tipo de malentendidos, se recomienda a los usuarios verificar las fuentes citadas por el servicio de IA y buscar más respuestas e información que complementen los datos.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado