Publicado 23/08/2025 12:14

Expertos defienden "mantener cierta autonomía" al usar la inteligencia artificial y "no obviar el pensamiento crítico"

Mesa redonda sobre el futuro de la IA en la UNIA
Mesa redonda sobre el futuro de la IA en la UNIA - EUROPA PRESS

BAEZA (JAÉN), 23 (EUROPA PRESS)

Nieves Ábalos, del estudio de innovación Manoceros Labs; el artista y pintor Juan Manuel Moreno y Javier Valls, de la Universidad de Granada, han afirmado que se debería "mantener cierta autonomía en el proceso de la IA". "No podemos obviar el pensamiento crítico", han destacado.

Así lo han indicado en una entrevista con Europa Press en Baeza (Jaén), donde han participado en la mesa redonda '¿Un nuevo invierno de la IA?'. Esta actividad ha formado parte del curso 'Fundamentos de la Inteligencia Artificial: modelos generativos y aplicaciones avanzadas', incluido en los Cursos de Verano de la Sede Antonio Machado de la Universidad Internacional de Andalucía (UNIA).

En su opinión, la IA abarca dos visiones a futuro: la positiva y la negativa. Valls ha apuntado que, si se plantea un futuro "distópico", dentro de diez años podrá encontrarse "una tasa de desempleo de aproximadamente el 30 por ciento", ya que se perderán puestos de trabajo, y habrá una crisis climática "bestial" ya que, los consumos de agua y energía por sistemas de inteligencia artificial son "tremendos".

"Estamos hablando que para utilizar aproximadamente unos diez minutos ChatGPT, se está gastando el agua que puede conseguir una población de 50.000 habitantes durante un año", ha explicado este experto, que miembro de los proyectos europeos de investigación Sienna y Copkit relacionados con la IA.

Sin embargo, también ha hablado del lado positivo: "Podemos conseguir una inteligencia artificial que esté integrada en la utilización de los humanos, con la mejora tecnológica a evitar muchos de los riesgos que hemos puesto anteriormente y que sea una herramienta que nos permita aumentar nuestras capacidades, por ejemplo, creativas o de organización", ha comentado.

Juan Manuel Moreno también se ha detenido en la cuestión que "preocupa" a la sociedad, con respecto a esa posible sustitución laboral. "Hay un libro que se llamaba 'El fin del trabajo', que habla sobre que, frente a esta tesitura, podíamos hacer que todo el mundo trabaje un poquito menos y sea más feliz y vivamos mejor o que la empresa use este como excusa para despedir a la mitad de la plantilla", ha precisado.

ARTE Y DERECHOS DE AUTOR

El artista ha aludido, además, a lo debates sobre los derechos autor, una disputa que conoce "de cerca". "Si tu le pides a la IA que te genere un Homer Simpson comiendo algo, te lo va a generar, pero ese personaje ya tiene 'copyright', pero al mismo tiempo es una creación nueva. Esa red neuronal se ha entrenado usando imágenes de 'Homer Simpson' que tiene 'copyright'", ha dicho. De ahí, que exista un debate de fondo entre los artistas y la IA "bastante agrio".

Al hilo, ha resaltado, por ejemplo, que hay activistas 'anti-IA' presentes en las redes sociales o muchos artistas que comparten su proceso de Photoshop porque reciben amenazas de que van a difundir rumores sobre que utilizan inteligencia artificial para sus trabajos.

"He visto ilustradores buenos que tienen reputación, que no tienen que demostrarle nada a nadie, compartiendo las capas de Photoshop. Te quedas pensando: ¿Esta persona por qué ha compartido esto?. En el arte hay mucha incomprensión", ha lamentado Moreno.

De su lado, Nieves Ábalos ha planteado la cuestión de si es "realmente viable" el futuro de la IA que "nos están pintando". "Aquí hay muchas empresas que quieren vender frente a inversores, un producto que tiene unas capacidades demasiado elevadas", ha resumido.

EXPECTATIVAS

En esta línea, ha recordado que "cuando se lanzó GPT5, la gente tenía unas expectativas muy altas puestas en que el salto de inteligencia con respecto al modelo anterior iba a ser abismal que iba a representar un cambio disruptivo". Sin embargo, "eso no ha pasado" y ha hecho que la sociedad empiece a cuestionar esas expectativas iniciales.

"Deberíamos ser honestos y plantear un debate positivo más allá del 'hype' porque, si no, podemos caer en ese invierno de la IA --que sería ya el tercero--; la gente deja de invertir en esto porque piensan que no nos sirve de nada cuando sí que nos va a servir para muchas cosas", ha considerado.

Tras exponer sus puntos de vista, han comenzado a debatir algunos aspectos e ideas "clave". Valls ha comentado que "los grandes saltos tecnológicos ahora mismo no están" y se ha agregado que "la cuestión es cómo lo va a integrar la sociedad en su día a día".

"Los grandes cambios vienen de la gente que conocen las reglas y las rompen, de tal forma que hacen una cosa nueva y producen cambios que hacen que vayamos evolucionando", ha manifestado.

Valls, que forma parte de un Comité de Ética de uno de los hospitales de Granada, ha apuntado también que percibe innovaciones que se hacen con IA y que "aportan un plus muy importante sin tener que sustituir al médico". "El médico va a seguir operando, ya que, si tenemos médicos que no operen, van a perder la destreza y cuando sucedan acontecimientos como un apagón o una guerra no van a saber", ha explicado.

Ábalos ha coincidido en señalar que "ahora mismo la sociedad no está preparada porque los cambios están sucediendo tan rápido que no da tiempo a que permeen y se entiendan bien las herramientas". "Hay mucha gente que usa ChatGPT, pero que no sabe cómo funciona", ha apostillado.

Esto, a su juicio, "supone un problema", puesto que, si se integra esa herramienta en el día a día, se pueden "estar tomando decisiones erróneas sin entender el por qué y eso tiene unas repercusiones". "Necesitamos entender las limitaciones que tiene la tecnología porque vamos a estar construyendo cosas como castillos de naipes, se puede tambalear y caer", ha resaltado.

Moreno ha incidido en que, "igual que la inteligencia humana se puede equivocar, ChatGPT se puede equivocar". "No tomaría ninguna decisión importante en base a un modelo de inteligencia artificial", ha afirmado, no sin aconsejar "tener cuidado".

Por otra parte, Valls se ha referido al uso de la IA en el ámbito de del bienestar emocional, con personas que "cuando entras en profundidad a hablar con ellos, no saben cómo funciona y no saben cómo el modelo toma las decisiones".

"Cuando tiras del hilo vienen argumentos de que es una persona que escucha. No es una persona --aunque quizás detrás si hay personas escuchando, que puede darse el caso-- que tenga características humanas, no es médico ni un facultativo en psiquiatría. Es una máquina diseñada para darte la razón", ha precisado.

Ábalos ha considerado, además, que "otro de los problemas de no entender las herramientas es no entender que se están sustituyendo ciertos pasos porque es mucho más cómodo". "Deberíamos mantener cierta autonomía y pensamiento crítico frente a estas situaciones", ha subrayado.

Últimas noticias sobre estos temas

Contenido patrocinado