A Coruña, ante la "oportunidad" de ser "pionera" en la ética de la inteligencia artificial

Archivo - AMAPARO ALONSO BETANZOS PREMIO MARIA WONENBURGER 2020
Archivo - AMAPARO ALONSO BETANZOS PREMIO MARIA WONENBURGER 2020 - XURXO LOBATO - Archivo
Publicado: lunes, 9 enero 2023 14:10

   SANTIAGO DE COMPOSTELA, 9 Ene. (EUROPA PRESS) -

   A Coruña, como sede de la Agencia Española de Supervisión de la Inteligencia Artificial, tiene ante sí la "oportunidad" de ser "pionera" en el campo ético, que es "imprescindible" para la inteligencia artificial.

   Quien lo destaca es Amparo Alonso Betanzos, catedrática en el área de Ciencias da Computación e Intelixencia Artificial en la Universidade da Coruña (UDC).

   Licenciada en Químicas y doctora en Físicas por la Universidade de Santiago de Compostela (USC), Alonso Betanzos pronuncia este lunes una conferencia en el Ateneo de Santiago sobre esta "pareja indisoluble".

    "Tenemos esta oportunidad de ser pioneros en un campo ético que es imprescindible", resalta, en declaraciones a Europa Press, esta experta en la actualidad comisionada de la UDC para el desarrollo del nodo de inteligencia artificial de la Cidade das TIC en A Coruña.

   La inteligencia artificial es la disciplina que intenta desarrollar procesos propios de la inteligencia humana a partir de máquinas y computadoras.

   Presenta una serie de cuestiones éticas como la regulación de los datos recogidos o la privacidad del individuo, aspectos que aborda esta especialista.

UNA IA "MÁS HUMANISTA"

   Al respecto, Amparo Alonso Betanzos destaca que va a ser precisa una visión multidisciplinar en la que entrarán en juego psicólogos, filósofos y lingüistas, entre otros, para "dar un perfil más humanista" a la inteligencia artificial.

   Como ejemplos de cuestiones concretas que habrá que perfilar, apunta a influencias en el comportamiento de personas vulnerables como mayores o niños y al uso de la información e imágenes que se comparten por redes sociales.

   Advierte de que "no hay una definición concreta de la privacidad" y alerta también de "sesgos" que en ocasiones perpetúan los algoritmos. "Hay que revisar las situaciones para hacer las pruebas y ver que utilizas la información y el algoritmo correcto", subraya.

   Para ello, la regulación está en varios niveles: alto, medio y bajo, y "cada uno de esos niveles de riesgos va a tener una serie de restricciones".

Leer más acerca de: