La gestión de la IA, un reto importante para los DPO y responsables de privacidad
APEP cierra su 15º aniversario con un evento sobre los desafíos legales de la Inteligencia Artificial
Evento APEP, Javier Torre de Silva y Cecilia Álvarez hablaron sobre los retos para el DPO en materia de IA. (Imagen: APEP)
La gestión de la IA, un reto importante para los DPO y responsables de privacidad
APEP cierra su 15º aniversario con un evento sobre los desafíos legales de la Inteligencia Artificial
Evento APEP, Javier Torre de Silva y Cecilia Álvarez hablaron sobre los retos para el DPO en materia de IA. (Imagen: APEP)
La Asociación Profesional Española de Privacidad (APEP), en colaboración con CMS Suárez & Albiñana de Lezo, celebró el evento ‘Inteligencia Artificial: Datos personales y responsabilidad legal’, una jornada que puso el broche de oro al 15º aniversario de la asociación.
En este encuentro al que acudió Economist & Jurist como medio especializado, se abordaron distintas cuestiones debatidas en torno a la Inteligencia Artificial, por expertos del nivel que intervinieron como Cecilia Álvarez, EMEA Privacy Policy Director en Meta, y Javier Torre de Silva, socio director Área TMC en CMS Albiñana y Suárez de Lezo.
La Asociación Profesional Española de Privacidad (APEP) ha cerrado su 15 aniversario con más de mil asociados expertos de diversas disciplinas que han desempeñado un papel crucial como impulsores de un entorno digital más seguro y ético. Su X Congreso fue un exponente de la reputación y representatividad que tiene esta asociación.
A lo largo de estos años, la asociación se ha consolidado su posición como asociación de referencia en materia de privacidad y protección de datos en España, contribuyendo al desarrollo y aplicación de políticas y normativa clave en la materia a través de su labor formativa, de certificación, y grupos de trabajo que actúan para mejorar las políticas de protección de datos y privacidad y proporcionar una orientación sobre la interpretación e implementación de la normativa.
En esta trayectoria ascendente, APEP se ha convertido en el lugar de encuentro y colaboración de los DPOs y otros profesionales de la privacidad, creando espacios comunes de diálogo en materia de privacidad especialmente necesarios en el contexto actual.
A lo largo de las casi dos horas de debate, tanto las exposiciones de estos juristas como las preguntas de un público especializado entre los que se encontraba José Luis Piñar, counsel de CMS Albiñana & Suárez de Lezo y exdirector de la AEPD o Francisco Javier Sempere, director de Supervisión y Control de Protección de Datos del CGPJ, entre otros invitados abordaron temas como el acceso a datos para entrenar modelos, los marcos regulatorios y la atribución de responsabilidades en un ecosistema cada vez más complejo.
Marcos Judel, presidente de APEP y socio de Audens, fue el encargado de moderar esta sesión en la que destacó los retos a los que deben enfrentarse los profesionales y empresas que trabajan con este tipo de tecnologías, así como la relevancia de los expertos en privacidad para guiar a las organizaciones hacia el cumplimiento.
“En el desarrollo de la inteligencia artificial, contar con especialistas en privacidad es una inversión estratégica y esencial para un crecimiento empresarial sostenible en la era digital”, recordó para luego insistir en la necesidad de que estas herramientas de IA tengan un control humano para preservar los fines éticos de la tecnología.
Los ponentes analizaron los desafíos que plantea la IA, especialmente en relación con la gestión de datos personales, un recurso indispensable para entrenar los modelos. Cecilia Álvarez, EMEA Privacy Policy Director en Meta, destacó la pérdida de competitividad europea frente a otras regiones debido, principalmente, a un marco normativo que requiere ajustes para acelerar la innovación: “Europa necesita certidumbre. No podemos llegar tarde en la creación de motores de innovación que marcarán el futuro”.
También comentó que Europa ha liderado esfuerzos para regular la IA con un enfoque ético, centrado en proteger derechos fundamentales como la privacidad y la seguridad.
El enfoque basado en el riesgo
Esta experta indicó que el Reglamento de Inteligencia Artificial, en concreto, introduce un enfoque basado en el riesgo, clasifica los sistemas de IA en niveles (alto, medio y bajo riesgo) y establece requisitos específicos para cada categoría.
Asimismo, impone obligaciones a desarrolladores de sistemas IA, como garantizar trazabilidad, auditar algoritmos y proporcionar explicaciones claras de cómo funcionan.
A su juicio, este enfoque, que busca un equilibrio entre proteger derechos y fomentar la innovación, no obstante, enfrenta críticas por las barreras que puede suponer para la competitividad de las empresas.
A este respecto, Cecilia Álvarez destacó las restricciones en el acceso a datos: “La IA necesita grandes volúmenes de datos para entrenar modelos. Sin embargo, normativas como el RGPD (Reglamento General de Protección de Datos) limitan el uso de datos personales, lo que obliga a las empresas europeas a buscar bases legales, como el consentimiento, que ralentizan sus avances”.
Además, cumplir con estas normas puede requerir inversiones significativas en auditorías, certificaciones y adaptaciones tecnológicas, algo que las empresas de otras regiones (como EE. UU. o China) no enfrentan al mismo nivel, al adoptar enfoques más flexibles que permiten a sus empresas avanzar más rápidamente en el desarrollo de modelos y motores de IA.
“La normativa europea impone principios como la minimización de datos, que exige usar solo la información estrictamente necesaria, y dificulta el acceso a datos a gran escala. Sin acceso adecuado a datos de entrenamiento, los modelos europeos pueden ser menos precisos o relevantes. Es necesario explorar bases legales alternativas al consentimiento, que permitan entrenar modelos con garantías legales”, destacó Álvarez, para quien no es viable excluir de los modelos todo dato de carácter personal.
“Los sistemas generativos no perfilan a nadie, funcionan con vectores de probabilidad, y el enfoque legal debería adaptarse a esta realidad técnica”, subrayó.
¿Quién es el responsable de los daños causados por una IA?
Por su parte, Javier Torre de Silva, socio director Área TMC en CMS Albiñana y Suárez de Lezo, abordó la complejidad del régimen de responsabilidad, destacando la dificultad de identificar responsables y establecer nexos causales en los daños causados por IA.
“El mapa de responsabilidad es enormemente complejo”. La IA introduce complejidades que no se encuentran en productos o tecnologías tradicionales, lo que dificulta identificar quién es imputable, si el operador, el responsable del despliegue, o el propio usuario.
“Entre los posibles candidatos a ser responsables, está el operador, que según la Ley de IA puede ser un proveedor, fabricante del producto, responsable del despliegue, representante autorizado, importador o distribuidor. En este sentido, el candidato obvio es el responsable del despliegue, que según indica la ley es una persona física o jurídica, o autoridad publica; órgano u organismo que utilice un sistema IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional”, explicó Torre de Silva.
Para establecer la responsabilidad por daños en entornos de Inteligencia Artificial, Europa está actualizando y creando nuevas normativas. Entre ellas, Directiva (UE) 2024/2853, de 23 de octubre de 2024, sobre responsabilidad por daños causados por productos defectuosos, que mantiene varios de los puntos de la Directiva de 1985.
“Solo es para personas físicas, sigue siendo responsabilidad objetiva, sigue siendo responsabilidad por defectos, sigue excluyendo los servicios y sigue excluyéndose lo imprevisible e inevitable según el estado de la técnica”.
No obstante, recordó que introduce algunas novedades como que, a petición del demandante, “se exigirá al demandado que exhiba las pruebas pertinentes de que disponga excepto secreto comercial. Lo mismo para el demandante a petición del demandado. Si el demandado no las aporta, se presume iuris tantum el defecto y el nexo causal”, ha explicado Torre de Silva.
Asimismo, recordó que la Comisión Europea, en 2022, presentó la propuesta de Directiva sobre responsabilidad en materia de IA, con el objetivo de actualizar el régimen de responsabilidad civil para adaptarlo a los desafíos que plantea la IA en el entorno digital.
No obstante, indicó Javier Torre de Silva, “todo el derecho se resume en responsabilidad, en cumplir. De nada sirve hacer un montón de regulaciones si al final nadie responde por los daños, es importante establecer reglas claras sobre la IA, porque a día de hoy son todavía ineficientes”.