Publicado 21/03/2024 10:50

RRHH debe usar IA si tiene claro el objetivo, sabe depurar los datos y alguien supervisa el resultado, según expertos

Archivo - IA+Igual, una iniciativa presentada por CVA, IN2 y ORH para impulsar una Inteligencia Artificial más ética e igualitaria dentro del ecosistema empresarial
Archivo - IA+Igual, una iniciativa presentada por CVA, IN2 y ORH para impulsar una Inteligencia Artificial más ética e igualitaria dentro del ecosistema empresarial - ORH - Archivo

Las herramientas de IA tienen un "impacto trasversal" que "dejará fuera" a quien no sepa usarlas

MADRID, 21 Mar. (EUROPA PRESS) -

Los ponentes del webinar 'Ejemplos prácticos de cómo y para qué aplicar la IA en Recursos Humanos', organizado por el campus de IA+Igual, han coincidido en señalar que RRHH solo debe usar la IA si tiene claro el objetivo, sabe depurar los datos y cuenta con una persona que supervise el resultado.

Durante la sesión, el Talent & HR Solutions de Aggity, Carlos Cabañas, ha alertado a los profesionales de la tentación de usar la Inteligencia Artificial generativa (IAg) porque "está de moda" y ha señalado que "RRHH solo debe utilizarla si ha identificado un problema y tiene un objetivo claro".

Asimismo, ha enfatizado sobre el valor "crítico" de los datos como "punto de partida", pero ha recordado que hay que tenerlos en cuenta "durante todo el proceso, incluidos los resultados", para evitar posibles anomalías. "La intervención humana disminuye a medida que gana peso la tecnología, pero siempre debemos tenerla en cuenta", ha apostillado.

En esa misma línea, la investigadora en Ética del Aprendizaje Automático de DATAI, Elena Martín, ha puesto en relieve que el funcionamiento predictivo "está más allá de la IAg" y los datos usados y es responsabilidad de las personas que "están detrás de la tecnología". En este sentido, ha destacado la importancia de la "transparencia con los empleados" para que entiendan cómo se interpretan los datos y cómo les afectan.

Con el objetivo de clarificar sus argumentos, ambos expertos han empleado el caso de éxito de una multinacional del sector Farma que, según han explicado, ha desarrollado un algoritmo para evitar la fuga del talento y la rotación no deseada en España.

DEPURAR LA "COCTELERA" DE DATOS Y PARTIR DE UN PLANTEAMIENTO ÉTICO

Según han indicado Cabañas y Martín, a raíz de la pandemia COVID-19 y el posterior crecimiento de Farma, la retención del talento se convirtió en una prioridad para el sector ante la dificultad para reemplazar a los empleados que abandonan la empresa, ya que, como han destacado, "se trata de perfiles con una curva de aprendizaje alta".

Por eso, Aggity --compañía tecnológica especializada en la Transformación Digital de los negocios-- ha desarrollado un algoritmo para la multinacional mencionada que, según han señalado los ponentes, parte de 103 variables, 33 de ellas correlacionadas con riesgo de fuga --rango de edad, número de hijos, antigüedad en la empresa). Otras, como por ejemplo género o performance, fueron descartadas.

En concreto, la compañía ha seguido tres pasos, el primero de ellos la "identificación, análisis e integración de datos". Según ha indicado IA+Igual, Aggity definió el objetivo del proyecto, "partiendo del preprocesamiento de los datos proporcionados por RRHH".

A continuación, realizó un diagnóstico del posible motivo de la rotación no deseada y el diseño de un cuadro de mando de fidelización, un trabajo descriptivo, que permitió, como han especificado los promotores del webinar, dicha "rotación del talento del 30% al 10%".

Para proseguir, la multinacional tecnológica desarrolló un modelo predictivo de desvinculación del empleado, que puso el foco en el análisis predictivo con la información en bruto codificada y homogeneizada para ver qué sucedería en los próximos 12 meses.

En el último paso, "el prescriptivo", Aggity, a través de los resultados y una hoja de ruta, propuso a la empresa iniciativas de vinculación, palancas de mejora del modelo predictivo, un cuadro de mando de seguimiento y la realización de workshops interdepartamentales para identificar la analítica de uso.

En ese contexto, al analizar el caso de la multinacional, Cabañas ha explicado que un algoritmo es "una coctelera de datos que hay que depurar para extraer hipótesis sin caer en el riesgo de dejarse embaucar con los resultados". Por eso la empresa de Farma trabaja con las áreas implicadas --RRHH o tecnología, entre otras-- en el desarrollo de "una cultura que use de forma ética e inteligente la IA". Según el experto, "el impacto trasversal de las herramientas de IA dejará fuera a quien no sepa usarlas".

En ese sentido, Martín ha partido de la definición de IA: "Un campo multidisciplinar en el que históricamente han confluido diferentes áreas como las matemáticas, estadística e informática y, más recientemente, han ganado terreno la ética y las ciencias sociales".

A partir de ahí, para que un aprendizaje automático sea responsable, según la investigadora de DATAI, debe ajustarse a cuatro claves. En primer lugar, la "Equidad", ya que "hay que trabajar en tres grandes vías para mitigar los sesgos históricos (preprocesamiento de datos, modelo que procesa los datos y resultado ofrecido)".

Por otro lado, se debe tener en cuenta la "Robustez" y valorar, por ejemplo, si una herramienta diseñada para España, como la expuesta por Cabañas, es extrapolable a otros países. Asimismo, la investigadora ha puesto el foco en la "Transparencia" o explicabilidadad, para averiguar "por qué el algoritmo llega a una predicción", y la "Confiabilidad", al no centrarse en un número "sino en su nivel de confianza".

"Es muy importante partir de un planteamietno ético por el impacto que puede tener el modelo de aprendizaje automático sobre una población", ha asegurado la experta en Ética, que ha recurrido al ejemplo de 'Ocean model' para explicarlo.

Como ha destacado, se trata un modelo de IA de caja negra que otorga un porcentaje de 0 a 100 a 5 dimensiones de la personalidad después de visionar un vídeo de 1 minuto. Los resultados cambian si el espectador usa gafas o no o pone de fondo del escritorio del ordenador una biblioteca, entre otras variables que "nada tienen que ver con su personalidad".