Transformación Digital se reúne con las entidades que piden un régimen sancionador para las administraciones en la ley de IA
Las demandantes de ese régimen son las principales asociaciones profesionales de privacidad y Derecho Tecnológico del país, que organizaron un evento en el CGAE sobre este tema

El uso de las herramientas de inteligencia artificial por las administraciones públicas no está sujeto a régimen sancionador. (Imagen: E&J)
Transformación Digital se reúne con las entidades que piden un régimen sancionador para las administraciones en la ley de IA
Las demandantes de ese régimen son las principales asociaciones profesionales de privacidad y Derecho Tecnológico del país, que organizaron un evento en el CGAE sobre este tema

El uso de las herramientas de inteligencia artificial por las administraciones públicas no está sujeto a régimen sancionador. (Imagen: E&J)
El próximo 8 de mayo, en las dependencias del Ministerio de Transformación Digital y de la Función Pública, será cuando tenga lugar el encuentro entre Aleida Alcaide, directora general de Inteligencia Artificial de dicho Ministerio, con algunas de las asociaciones que han denunciado públicamente el problema de que el anteproyecto de la inteligencia artificial (IA) que tramita el Gobierno no tiene régimen sancionador para las administraciones públicas.
Hace algunos días estas asociaciones profesionales, como fueron ENATIC, Asociación Profesional Española de Privacidad (APEP), Asociación de Internautas, Asociación de Usuarios de Internet y España Digital —a las que se unió también Borja Adsuara, jurista digital y firmante de la Carta de Derechos Digitales—, denunciaban en un evento organizado en el Colegio General de la Abogacía Española (CGAE) que el anteproyecto de ley que ha elaborado el Gobierno para trasponer y adaptar el Reglamento de IA excluye a las administraciones públicas del régimen de sanciones por un uso inadecuado o perverso de esa tecnología.
El anteproyecto diferencia tres niveles de infracciones (leves, graves y muy graves) y fija sanciones que oscilan entre los 6.000 euros para casos leves (como no informar a los usuarios de que están interactuando con una inteligencia artificial) y los 35 millones de euros o hasta el 7 por ciento del volumen de negocio de una empresa para los casos más graves (como comercializar un sistema de inteligencia artificial que está prohibido), pero solo para empresas.
Estas y otras asociaciones ahora convocadas por Alcaide, como son OdiseIA, Hay Derecho, Asociación de Internautas, Rooted y Fundación España Digital, presentaron sus alegaciones en el plazo previo de audiencia pública para asegurar un uso “ético, inclusivo y beneficioso” de esta tecnología. Sus quejas van con el artículo 30.4 del citado anteproyecto, que establece que, cuando sea una entidad del sector público la que cometa alguna de las infracciones, las autoridades de vigilancia dictarán una resolución señalando esa infracción, apercibirán a la entidad y establecerán las medidas correctoras que debe tomar, pero “excluyendo la imposición de multas administrativas”.
Sin embargo, estas organizaciones han asegurado que el Reglamento Europeo sí prevé multas administrativas, tanto para empresas como para autoridades y organismos públicos (en el caso de las empresas de hasta el 7 por ciento de su facturación mundial) y permite a los Estados establecer un régimen de sanciones y multas a las administraciones públicas. Es previsible que esa primera reunión entre el Ministerio y estas asociaciones se ponga sobre la mesa ese artículo 30.4 del anteproyecto de cara a incluir el régimen sancionador.

Aleida Alcaide convoca una reunión con aquellas entidades que quieren que se cree un régimen sancionador en la ley española de inteligencia artificial. (Imagen: Digitales)
Para José Leandro Núñez, secretario general de ENATIC y uno de los asistentes a este debate, “la Administración no puede quedar impune ante un uso irresponsable de la IA. En su actividad genera una externalidad porque puede causar un daño a la comunidad. Para evitar ese daño es necesario que se someta al régimen sancionador existente para las empresas privadas que ya conocemos en el anteproyecto. Hay que plantearlo como incentivo para que se hagan bien las cosas y no se perjudique a nadie”.
Aquel debate estuvo organizado en dos paneles. En la primera mesa participó como moderador, Miguel Hermosa, decano del ICA Palencia y responsable de justicia digital del CGAE; y como ponentes participaron en esta primera mesa redonda Idoia Salazar, presidenta de OdiseIA; José Leandro Núñez, secretario general de ENATIC; y Miguel Recio, vicepresidente de Asociación Profesional Española de Privacidad.
En el segundo panel, Borja Adsuara, abogado y experto en Derecho Digital, fue quien hizo de moderador y, en esta segunda mesa redonda intervinieron Miguel Pérez, presidente de la Asociación de Usuarios de Internet; junto a María Luisa García, miembro de la Unidad de Apoyo Técnico de la Asociación de Internautas; y Fernando Davara, presidente de la Fundación España Digital.
Agravio comparativo
Estos expertos que intervinieron mantuvieron en sus alegaciones que esa exclusión supone “un agravio comparativo” respecto de las empresas, a las que ya se fija una serie de prohibiciones y obligaciones. También hablaron de una “falta de ejemplaridad pública” y un “grave riesgo” para los derechos de los ciudadanos al dejar sin sanción a las administraciones públicas que hagan un uso prohibido o de alto riesgo de la inteligencia artificial.
En el evento, Miguel Hermosa, indicó la necesidad de reflexionar sobre esta cuestión para estudiar el establecer ese mecanismo sancionador que disuada a las administraciones de cometer malas prácticas a coste cero. “En este contexto siempre hay que contar con la abogacía como garante del Estado de Derecho y protector de los derechos de los ciudadanos”, señaló el decano del ICA Palencia y responsable de justicia digital del CGAE.
Por su parte, la presidenta de OdiseIA, Idoia Salazar, señaló que hacía falta definir ese régimen sancionador que el anteproyecto pasa por encima: “El uso de la IA que hacen las administraciones ahora debe tener el mismo paraguas que el resto de empresas. Nadie debe estar exento de dicho régimen sancionador y de esa supervisión en IA. Desde nuestra entidad queremos debatir con criterio sin el ánimo de establecer luchas infundadas o críticas sin fundamentos. En ese caso vemos el debate fundamental. Que nos unamos para que se cree una mayor conciencia en las administraciones públicas al respecto”.

Debate en el Colegio General de la Abogacía Española sobre la inteligencia artificial y las sanciones en el sector público. De izda. a derecha: Miguel Recio, de APEP, José Leandro Núñez, de ENATIC; Idoia Salazar, de OdiseIA; y Miguel Hermosa, del CGAE, en el primer panel celebrado en el debate. (Imagen: Abogacía Española)
Las administraciones y su supervisión
El secretario general de ENATIC, José Leandro Núñez, recordó que “esta situación no es nueva. En España ya existe en el ámbito medioambiental donde es posible sancionar a las administraciones públicas cuando incumplen la normativa. Se hizo así porque buscar la responsabilidad patrimonial de la administración es difícil porque los daños no son fácilmente individualizables, un requisito para solicitar esa responsabilidad. En la IA, las políticas públicas pueden afectar a colectivos, por eso el camino debe ser la responsabilidad administrativa”.
Por su parte, Miguel Recio, vicepresidente de APEP, indicó que “las administraciones públicas deberían ser las primeras en dar ejemplo y tener su código de buenas prácticas en estas materias de protección de datos e IA. Parece lógico que estén sujetas a una supervisión y a un régimen sancionador. Deben dar ejemplo, no parece de recibo que las administraciones públicas contraen su servicio de privacidad a muy bajo coste. Ante la IA y los riesgos hay que prevenir cualquier tipo de decisión automatizada que pueda generar un problema o una infracción”.
Afecta a los derechos de los ciudadanos
En el segundo panel, el abogado digital Borja Adsuara recordó que la iniciativa legislativa está en sus inicios y tendrá modificaciones hasta que se apruebe por el Parlamento: “Este debate en el CGAE es el primero sobre esta cuestión. Ahora hay que esperar a ver por dónde va esta reunión con el Ministerio. El RIA contiene varias prohibiciones, el problema es que nadie vigila a las administraciones; no nos enteramos si lo hacen o no. Hay una falta de transparencia importante en dicha cuestión y no se les vigila porque no se les puede sancionar. Es por tanto necesario establecer un sistema de vigilancia a las administraciones que conlleve un régimen sancionador. Si la norma no es coercitiva, no es una norma”.
Para María Luisa García, miembro de la Unidad de Apoyo Técnico de la Asociación de Internautas “se trata evitar impunidad en el uso que las administraciones hagan con la IA. Si le las deja fuera de ese régimen de responsabilidad no va a confiar en el uso de dicha herramienta. Que puedas ser enjuiciado por un algoritmo en la Administración de Justicia es otro problema porque no estará sometido a ningún control o sanción. El Ridley 6/2023 habla de automatización de justicia y podría abrir esa puerta”.
García confesó que les preocupa “el uso de estos algoritmos por parte de las administraciones en servicios públicos. Por ese motivo hay que plantearse que, a mayor riesgo, mayor control y más sanción. Lo que nadie va a entender es que las pymes estén sujetas a este régimen sancionador y las administraciones”.

En el segundo panel del debate que hubo en el CGAE participaron (de izda. a derecha) Borja Adsuara, jurista digital y firmante de la Carta de Derechos Digitales; Fernando Davara, de España Digital; María Luisa García, de la Asociación de Internautas; y Miguel Pérez, presidente Asociación de Usuarios de Internet. (Imagen: Abogacía Española)
Hay que crear un ‘lobby’
El presidente de la Asociación de Usuarios de Internet, Miguel Pérez, indicó en su intervención que “me preocupa sobre todo la transparencia en este tipo de actuaciones con la IA. Si queremos cambiar este contexto normativo que vemos que es perjudicial para los ciudadanos ante la actuación de la administración en sus distintas vertientes, es el momento de ir a la acción. Estar sentados hoy en este debate es una parte de la acción, pero nuestra experiencia en otras acciones es que debemos hacer más cosas. Salir a los medios, a la opinión pública”.
Para Pérez, “es el momento de proponer una línea de acción para seguir adelante. Se trata de ser influyentes para lograr que las administraciones tengan también su régimen sancionador en materia de IA. Ahora con esta primera reunión en el Ministerio se abre una línea de acción”.
Por su parte, Fernando Davara, presidente de la Fundación España Digital, subrayó que “esta IA va a ir evolucionando en los próximos años hasta alcanzar su madurez. Nosotros presentamos alegaciones para animar el debate porque pensamos que una entidad como la nuestra representa a la sociedad civil. A partir de ahí hay que darse cuenta la pluralidad de sujetos que son las administraciones públicas, estatal, autonómica o local, pero no podemos olvidarnos del Banco de España, las universidades o la AESIA, controlador de temas de IA, o nuestros organismos de defensa que por su concepto de soberanía nacional están al margen de la norma”.
“Han creado un ChatGPT específico y algún otro de reconocimiento facial o drones. Estamos a tiempo de revertir la situación y crear ese régimen sancionador”, finalizó señalando Davara.
