XIII Cumbre de Mujeres Juristas del Colegio de la Abogacía de Madrid - ICAM
MADRID 6 Mar. (EUROPA PRESS) -
La XIII Cumbre de Mujeres Juristas del Colegio de la Abogacía de Madrid (ICAM) ha concluido este viernes en el Congreso de los Diputados con un llamamiento a reforzar las garantías jurídicas frente a los riesgos que plantea la inteligencia artificial para la igualdad y los derechos fundamentales, desde la discriminación algorítmica hasta la violencia digital amplificada por tecnologías automatizadas, ha informado el ICAM en un comunicado.
Las conclusiones del encuentro, en el que han participado más de 300 juristas, subrayan que el despliegue de estas tecnologías solo será compatible con una democracia avanzada si se somete a mecanismos efectivos de transparencia, rendición de cuentas y supervisión humana, especialmente en aquellos ámbitos donde el impacto social de los sistemas automatizados es mayor.
Una tarea en la que la abogacía está llamada a desempeñar un papel fundamental para asegurar un uso ético, seguro y responsable desde la mirada transversal de la igualdad.
"Estamos a tiempo de controlar los efectos perversos que la IA puede generar", ha reconocido la vicedecana del ICAM, Isabel Winkels, defendiendo la necesidad de reforzar la trazabilidad de los datos, identificar los factores que intervienen en las decisiones automatizadas y auditar los procesos algorítmicos que ya influyen en múltiples ámbitos de la vida social y profesional.
"La Inteligencia Artificial está reconfigurando la forma en que se toman decisiones en ámbitos esenciales: empleo, crédito, seguridad, información, justicia. Y cuando cambian los mecanismos de decisión, cambia también la arquitectura del poder", ha advertido por su parte el decano del ICAM.
Si la abogacía quiere seguir siendo garante de derechos, señala Eugenio Ribón, "debe comprender en profundidad cómo funcionan estos sistemas, cómo se entrenan, qué sesgos pueden incorporar y qué efectos generan". El reto, por tanto, "no es frenar la innovación, sino impedir que avance al margen de los principios que sostienen el Estado de Derecho", concluyó el decano.
Con ese objetivo, el Colegio de la Abogacía de Madrid ha articulado en las conclusiones de la Cumbre una hoja de ruta jurídica orientada a reforzar las garantías frente a los riesgos asociados al uso de sistemas automatizados.
El documento identifica una serie de prioridades inmediatas -desde la prevención de la discriminación algorítmica hasta el refuerzo de las herramientas jurídicas frente a la violencia digital- y sitúa en el centro del debate la necesidad de garantizar la transparencia, la trazabilidad y la supervisión humana de los sistemas de inteligencia artificial.
ALGORITMOS, DISCRIMINACIÓN Y RESPONSABILIDAD JURÍDICA
Presentadas por los diputados de la Junta de Gobierno del ICAM José Ignacio Monedero y Ana Buitrago, una de las principales conclusiones de la Cumbre es que la inteligencia artificial no es neutral.
Los sistemas automatizados pueden incorporar sesgos derivados de los datos con los que se entrenan, de los objetivos para los que se diseñan o del contexto organizativo en el que se utilizan.
Sin mecanismos de transparencia y supervisión, advirtieron los participantes, existe el riesgo de que esas desigualdades se consoliden y resulten más difíciles de detectar o impugnar jurídicamente.
En este sentido, las conclusiones del encuentro subrayan que la responsabilidad jurídica no puede transferirse al algoritmo.
Toda decisión automatizada con efectos relevantes debe contar con un responsable identificable, supervisión humana efectiva y mecanismos reales de revisión e impugnación.
Este principio resulta especialmente relevante en ámbitos sensibles como el empleo, el acceso a servicios esenciales o determinados procesos administrativos, donde el uso de sistemas automatizados puede tener consecuencias directas sobre los derechos de las personas.
Otro de los ejes centrales del debate fue la necesidad de convertir los principios de transparencia y explicabilidad en herramientas operativas de control jurídico.
Las conclusiones destacan que la confianza pública en los sistemas de inteligencia artificial exige documentación verificable sobre su funcionamiento, incluyendo la finalidad del sistema, la lógica general del algoritmo, los datos utilizados, las métricas de evaluación, los mecanismos de control y las incidencias detectadas durante su funcionamiento.
Esta trazabilidad resulta especialmente relevante en contextos de litigio o de investigación administrativa, donde la posibilidad de preservar pruebas, registros y evidencias técnicas puede ser determinante para detectar y acreditar situaciones de discriminación.
Regulación europea y gobernanza tecnológica La Cumbre valoró positivamente el nuevo Reglamento Europeo de Inteligencia Artificial (AI Act), que introduce un marco regulatorio basado en niveles de riesgo y establece restricciones estrictas para aquellos sistemas que puedan afectar a derechos fundamentales.
No obstante, los participantes coincidieron en que la eficacia de este marco normativo dependerá en gran medida de su aplicación práctica y de la existencia de mecanismos complementarios de gobernanza, supervisión y auditoría capaces de adaptarse a la rápida evolución tecnológica.
En esa misma línea, Ribón advirtió de que el desafío que plantea la inteligencia artificial trasciende el plano estrictamente técnico y afecta a la propia arquitectura del poder en las sociedades contemporáneas.
"La Inteligencia Artificial está reconfigurando la forma en que se toman decisiones en ámbitos esenciales: empleo, crédito, seguridad, información, justicia", señaló, recordando que cuando cambian los mecanismos de decisión "cambia también la arquitectura del poder".
En este contexto, se destacó también el papel del Reglamento General de Protección de Datos y de la Ley 15/2022 de igualdad de trato y no discriminación como instrumentos jurídicos ya vigentes para abordar los riesgos de discriminación algorítmica, especialmente en lo relativo a la calidad de los datos, la minimización del tratamiento y la transparencia en la toma de decisiones automatizadas.
VIOLENCIA DIGITAL Y ANONIMATO EN LA RED
Las conclusiones del encuentro alertan igualmente del impacto de la inteligencia artificial en la violencia digital, un fenómeno que afecta de manera desproporcionada a mujeres y niñas y que puede amplificarse mediante tecnologías automatizadas capaces de multiplicar la difusión de contenidos degradantes o humillantes.
En este contexto, la Cumbre abrió también el debate sobre el anonimato en internet y su relación con la impunidad en determinados entornos digitales.
Las conclusiones apuntan a la necesidad de explorar fórmulas que permitan reducir esa impunidad mediante mecanismos de identificación en determinados contextos, siempre con salvaguardas suficientes para garantizar la libertad de expresión, especialmente en aquellos países o situaciones en los que internet constituye el único espacio posible para la crítica pública.