El catedrático de Neurología en la Escuela Médica de Harvard, Álvaro Pascual-Leone. - FUNDACIÓN RAMÓN ARECES
MADRID, 30 Sep. (EUROPA PRESS) -
Científicos españoles han apelado este martes "a la transparencia, al rigor científico y a la responsabilidad colectiva" para "abordar los desafíos éticos" que entraña la inteligencia artificial (IA). Además, han hecho un llamamiento al consenso y a la ética científica en la investigación, sobre todo en cuestiones sensibles como el uso de modelos animales y embrionarios.
Estas han sido algunas de las conclusiones de la jornada anual que la Confederación de Sociedades Científicas de España (COSCE) ha celebrado con la colaboración de la Fundación Ramón Areces en la sede de la propia fundación.
"La IA no debería sustituir al juicio clínico", ha afirmado a lo largo de la jornada el director del Área de Medicina Interna del Hospital Costa del Sol de Marbella y expresidente de la FACME (Federación de Asociaciones Científico Médicas Españolas), Javier García Alegría.
En el marco de su intervención, en la que ha analizado los dilemas éticos que plantea la incorporación de la IA en la práctica médica, ha pedido integrar esta tecnología "de forma crítica y responsable para mejorar la toma de decisiones". Para poder conseguirlo, ha hecho hincapié en la necesidad de nuevas competencias profesionales en el uso y supervisión de la IA, una regulación clara y una formación médica apropiada".
El catedrático de Neurología en la Escuela Médica de Harvard, Álvaro Pascual-Leone, ha abogado porque la sociedad promueva "una adopción "ética y regulada" de las tecnologías que permiten "planear y optimizar el cuidado del cerebro a lo largo de la vida".
Tal y como ha recordado, "la mayor causa" de discapacidad a lo largo de la vida son "las alteraciones cerebrales", cuyo gasto anual supone "más del 10% de la riqueza del mundo entero". En este sentido, ha apuntado a que hoy en día existen tecnologías capaces de caracterizar el funcionamiento del cerebro y métodos de IA para predecir el riesgo de enfermedad.
Más allá de la práctica médica, la presidenta de la asociación, Perla Wahnón, ha hecho hincapié en los principales riesgos de la IA en el sector de la ciencia, como "la generación de resultados falsos o engañosos en los estudios" y "su uso fraudulento para redactar artículos científicos sin respaldo empírico sólido".
"La IA ha transformado la manera que se produce y analiza el conocimiento científico y al mismo tiempo plantea grandes desafíos éticos que la comunidad científica debe manejar con rigor", ha añadido.
"UNA IA CONFIABLE Y RESPETUOSA CON LA PRIVACIDAD"
El director científico del CiTIUS (Centro Singular de Investigación en Tecnologías Inteligentes de la Universidad de Santiago de Compostela), Senén Barrio Armentero, ha planteado que la confiabilidad de la IA no es necesariamente "un objetivo común", puesto que administraciones políticas o empresas privadas pueden tener otros intereses. Por ello, abogó por que la ciudadanía sea quien exija "una IA confiable, respetuosa con la privacidad y con supervisión, ya que, si no lo hacemos, las empresas no invertirán en ello o lo harán residualmente".
Al margen de la IA y entre otros temas tocados durante la jornada, la investigadora principal del Centro Andaluz de Biología del Desarrollo (CABD), Bárbara Pernaute, ha urgido a "establecer límites de manera transparente y con una base científica sólida" sobre los modelos embrionarios creados a partir de células madre que "justifiquen de forma inequívoca" su beneficio y cuáles son las barreras éticas que no pueden traspasarse.