Publicado 12/05/2026 12:52
- Comunicado -

La cláusula que falta en los contratos; quién responde cuando falla la IA

La cláusula que falta en los contratos; quién responde cuando falla la IA
La cláusula que falta en los contratos; quién responde cuando falla la IA - Álvaro Ruipérez Candón
(Información remitida por la empresa firmante)

Madrid, 12 de mayo de 2026.-

La inteligencia artificial ya forma parte de muchos servicios tecnológicos, pero buena parte de los contratos que firman las empresas sigue respondiendo a una lógica anterior: software, licencias, soporte, mantenimiento, alojamiento, confidencialidad y protección de datos. Ese modelo empieza a quedarse corto. Según Álvaro Ruipérez, abogado experto en Derecho Digital y socio de SCANDO UP, el verdadero problema no está en que las compañías incorporen IA a sus procesos, sino en que lo hagan con contratos que no reflejan el riesgo real de la tecnología que están contratando.

“Muchas empresas están contratando inteligencia artificial con contratos diseñados para software tradicional. Y eso genera una brecha jurídica importante”, señala Ruipérez.

La diferencia es relevante. Un proveedor tecnológico ya no se limita necesariamente a alojar datos, desarrollar una aplicación o prestar soporte técnico. En muchos casos, utiliza sistemas de IA para analizar información, automatizar respuestas, generar contenidos, clasificar usuarios, priorizar incidencias, asistir decisiones comerciales o producir recomendaciones que pueden impactar directamente en clientes, empleados, proveedores o procesos internos.

Por eso, el contrato tecnológico ya no puede limitarse a regular disponibilidad del servicio, soporte, confidencialidad o propiedad intelectual. Si la IA interviene en la prestación del servicio, el contrato debe identificar expresamente su uso, su finalidad, los datos tratados, los límites aplicables, la supervisión humana, la trazabilidad y el régimen de responsabilidad.

Uno de los puntos más sensibles es el uso de los datos del cliente. La empresa debe saber si la información que introduce en una herramienta puede ser utilizada para entrenar modelos, mejorar sistemas, alimentar bases de conocimiento o desarrollar productos del proveedor. También debe conocer si esos datos se conservan, se anonimizan, se comparten con terceros, se integran en otros sistemas o se transfieren fuera del Espacio Económico Europeo.

“En IA, la frontera entre prestar un servicio y mejorar un modelo puede ser jurídicamente crítica. Si el contrato no lo regula, la empresa puede estar asumiendo un riesgo que ni siquiera ha identificado”, afirma Ruipérez.

La responsabilidad por los resultados generados es otro de los grandes vacíos contractuales. ¿Qué ocurre si una herramienta genera una respuesta incorrecta a un cliente? ¿Quién responde si una recomendación automatizada produce un perjuicio económico? ¿Qué pasa si un contenido generado vulnera derechos de terceros, contiene información falsa o se utiliza en una decisión empresarial relevante?

Para Ruipérez, estas cuestiones no pueden quedar abiertas hasta que aparece el conflicto. Deben estar previstas desde el inicio mediante cláusulas específicas sobre garantías, límites de uso, régimen de outputs, revisión humana, evidencias, responsabilidad e indemnidad frente a reclamaciones.

La supervisión humana también exige concreción. No basta con afirmar que una persona revisará los resultados. El contrato debe aclarar cuándo se exige esa revisión, quién la realiza, qué decisiones no puede adoptar la IA de forma autónoma, cómo se documenta la intervención humana y qué ocurre si el sistema produce un resultado anómalo.

También la propiedad intelectual requiere una revisión más sofisticada. Muchas empresas no saben si pueden explotar libremente los contenidos generados mediante IA, si el proveedor conserva derechos sobre ellos, si existen garantías frente a reclamaciones de terceros o si los datos y materiales aportados por el cliente pueden reutilizarse para entrenar modelos.

Otro punto crítico es la cadena de proveedores. Detrás de una herramienta de IA puede haber modelos de terceros, APIs externas, proveedores cloud, servicios de automatización, sistemas de analítica o herramientas de procesamiento de datos. El proveedor que firma el contrato no siempre representa toda la cadena tecnológica ni todo el riesgo asociado.

Ruipérez considera que esta evolución obliga a repensar la contratación tecnológica desde una perspectiva más amplia. Ya no basta con revisar cláusulas de protección de datos o confidencialidad. La IA exige conectar contrato, regulación, propiedad intelectual, seguridad, responsabilidad y funcionamiento real del servicio.

En este contexto, algunos despachos especializados en Derecho Digital, como SCANDO UP, están empezando a trabajar esta materia desde una visión integrada, no limitada al cumplimiento formal. El enfoque no consiste únicamente en añadir una cláusula genérica sobre inteligencia artificial, sino en analizar cómo se utiliza la IA dentro del proceso empresarial, qué decisiones afecta, qué datos trata, qué terceros intervienen y qué evidencias puede aportar la empresa si surge un conflicto.

“La IA no elimina la responsabilidad de la empresa. La desplaza, la complejiza y obliga a documentarla mejor. Por eso, los contratos deben dejar de tratar la inteligencia artificial como una funcionalidad accesoria y empezar a regularla como una capa crítica del servicio”, sostiene Ruipérez.

En los próximos años, esta cuestión será especialmente relevante en procesos de inversión, operaciones de compraventa, auditorías, contratación pública, clientes enterprise y procedimientos de compliance. Las compañías no solo tendrán que demostrar que utilizan inteligencia artificial, sino que la utilizan con control contractual, técnico y jurídico.

Ese control no se acreditará únicamente con políticas internas o declaraciones generales de cumplimiento. Se acreditará con contratos, anexos, inventarios, registros, documentación técnica, procedimientos de supervisión, evidencias de trazabilidad y una asignación clara de responsabilidades.

La conclusión, según Ruipérez, es clara: si un contrato tecnológico no regula la inteligencia artificial, probablemente no está regulando el riesgo real del servicio.

 

Contacto
Emisor: Álvaro Ruipérez Candón
Contacto: Álvaro Ruipérez Candón
Número de contacto: 695632141

Contador

Contenido patrocinado

Comunicados

Si quieres mejorar el posicionamiento online de tu marca, ahora puedes publicar tus notas de prensa o comunicados de empresa en la sección de Comunicados de europa press

Si necesitas asesoramiento en comunicación, redacción de tus notas de prensa o ampliar la difusión de tu comunicado más allá de la página web de europa press, ponte en contacto con nosotros en comunicacion@europapress.es o en el teléfono 913592600