Investigadores trabajan para evitar el acúmulo de alucinaciones de la IA en el futuro

Archivo - Representación visual de la Inteligencia Artificial
Archivo - Representación visual de la Inteligencia Artificial - ANDRE M. CHANG / ZUMA PRESS / CONTACTOPHOTO
Europa Press Ciencia
Publicado: jueves, 14 mayo 2026 16:00

MADRID, 14 May. (EUROPA PRESS) -

El funcionamiento interno de la inteligencia artificial podría ofrecer una solución a la amenaza del "colapso del modelo" de la IA, evitando potencialmente un número creciente de alucinaciones provocadas por la IA en el futuro, según un trabajo del King's College de Londres (Reino Unido).

Como se recuerda en el artículo publicado en 'Physical Review Letters', el término "colapso del modelo", acuñado por primera vez en 2024, se refiere a un escenario en el que un modelo de IA entrenado con datos producidos por IA deja de proporcionar resultados precisos y, en su lugar, produce "galimatías" inexactos debido a la mala calidad de sus datos de entrenamiento.

Algunos han advertido que los datos de texto de alta calidad para entrenar sistemas como los Modelos de Lenguaje a Gran Escala (LLM, por sus siglas en inglés) se agotarán este mismo año, por lo que los datos producidos por los propios modelos han asumido un papel más importante en el entrenamiento, lo que conlleva la amenaza de un colapso del modelo.

Mediante el análisis de un conjunto de modelos estadísticos sencillos pero potentes, denominados Familias Exponenciales, el equipo de investigadores del King's College de Londres, en colaboración con la Universidad Noruega de Ciencia y Tecnología (Noruega) y el Centro Internacional Abdus Salam de Física Teórica (Italia), descubrió que bastaba con integrar un solo dato del mundo exterior en su entrenamiento para evitar este problema en todos los casos.

Aunque mucho más sencillos que los modelos lineales generalizados (LLM), los modelos de la familia exponencial se encuentran entre los más potentes para el modelado de datos. El equipo espera que, al analizar el aprendizaje en bucle cerrado en un entorno tan simple pero potente, puedan establecer principios para evitar el colapso de modelos en los LLM más comunes.

El profesor Yasser Roudi, catedrático de Sistemas Desordenados del Departamento de Matemáticas del King's College de Londres, explica: "Los trabajos anteriores sobre el colapso de modelos se centran principalmente en modelos LLM grandes y complejos, donde no está claro cómo funcionan estos modelos ni si los resultados son repetibles; por eso se producen alucinaciones inexplicables, donde no se puede explicar por qué una IA ha generado una respuesta errónea.

Al centrarnos en un modelo sencillo, podemos determinar por qué añadir un solo dato impide que generen información sin sentido desde un punto de vista estadístico objetivo. Partiendo de esta base, podemos establecer principios que serán fundamentales para el desarrollo de la IA en el futuro. A medida que se implementen modelos más complejos en ámbitos que afectan a nuestra vida cotidiana, desde ChatGPT hasta los coches autónomos, y los datos sintéticos adquieran mayor protagonismo en el entrenamiento de la IA, los informáticos dispondrán de las herramientas necesarias para prevenir este escenario potencialmente desastroso.

El estudio publicado expone cómo el entrenamiento estándar de familias exponenciales (denominado de máxima verosimilitud) en un escenario de bucle cerrado, donde un modelo se entrena solo con los datos que produce, siempre conducirá al colapso del modelo.

Sin embargo, el estudio demuestra que introducir un único dato externo al bucle cerrado, o incorporar una creencia previa durante el entrenamiento (por ejemplo, a partir de conocimientos adquiridos previamente), evita el colapso del modelo. Sorprendentemente, este efecto de un único dato externo se mantiene incluso cuando la cantidad de datos generados por la máquina es infinitamente mayor.

Los autores también aportan evidencia de que se observa un fenómeno similar en otra clase de modelos, las máquinas de Boltzmann restringidas, lo que sugiere que sus resultados probablemente no se limitan solo a las familias exponenciales. En el futuro, el grupo espera probar estos primeros principios con modelos más grandes y complejos, como las redes neuronales, para validarlos.

Contador

Últimas noticias sobre estos temas

Contenido patrocinado