Claves para entender la propuesta de reglamento de Inteligencia Artificial
“La Propuesta de Reglamento de IA es pertinente y absolutamente necesaria”
(Foto: E&J)
Claves para entender la propuesta de reglamento de Inteligencia Artificial
“La Propuesta de Reglamento de IA es pertinente y absolutamente necesaria”
(Foto: E&J)
Dicen que los sistemas de inteligencia artificial van a reformularlo todo: nuestro modelo productivo, nuestro modelo social, nuestra manera de relacionarnos, la forma en que accedemos al conocimiento y hasta nuestra propia individualidad. Proponen que será un fenómeno de una magnitud similar a Internet, pero con un período de adopción muy inferior, de unos pocos años.
Pero, empecemos por lo más básico, ¿qué se considera IA?
La Propuesta de Reglamento de IA (PRIA), cuya tramitación en el Parlamento Europeo está ya muy avanzada, nos ofrece la siguiente definición de “Sistema de IA”: el software que se desarrolla para un conjunto determinado de objetivos definidos por seres humanos y que puede generar información de salida, como contenidos, predicciones, recomendaciones o decisiones que influyan en los entornos con los que interactúa, empleando una o varias de las siguientes técnicas/ estrategias:
- Estrategias de aprendizaje automático, incluidos el aprendizaje supervisado, el no supervisado y el realizado por refuerzo, que emplean una amplia variedad de métodos, entre ellos el aprendizaje profundo.
- Estrategias basadas en la lógica y el conocimiento, especialmente la representación del conocimiento, la programación (lógica) inductiva, las bases de conocimiento, los motores de inferencia y deducción, los sistemas expertos y de razonamiento (simbólico).
- Estrategias estadísticas, estimación bayesiana, métodos de búsqueda y optimización.
Se trata de una definición muy amplia que deja clara, no obstante, su naturaleza jurídica de programas de ordenador.
Los programas de ordenador han sido objeto de regulación como como objeto de propiedad intelectual desde finales de los años 80 en su condición de creaciones del intelecto humano (expresadas a través de código). Sin embargo, se trata de regulación que se centra en los aspectos morales y los derechos de explotación del software y que, además de necesitar de un rediseño urgente que permita hacer frente a los desafíos que plantean los llamados sistemas de IA generativa (que, en pocos años, ‘generarán’ la inmensa mayoría del contenido disponible en Internet), no contempla su potencial para amenazar muchos de nuestros derechos fundamentales, incluidos los más básicos, como el derecho a la libertad individual o a la integridad física.
Así, la PRIA es, a nuestro juicio, una propuesta pertinente y absolutamente necesaria, como lo son las deliberaciones que se están produciendo en estos días en el Parlamento Europeo acerca de la suficiencia del alcance de sus requerimientos, que reflejan la honda preocupación de algunos sus miembros (que compartimos) por el uso impropio o inadecuado de esta tecnología.
La PRIA establece cuatro categorías de sistemas de IA: (i) de riesgo mínimo, (ii) de riesgo limitado, (iii) de alto riesgo y (iv) los que suponen un riesgo inaceptable.
Se considera que plantean un riesgo inaceptable y quedan terminantemente prohibidos (a) aquellos sistemas dirigidos a implantar ideas en los seres humanos, de forma subliminal o aprovechándose de condiciones de especial vulnerabilidad, y que alteren de forma sustancial su comportamiento o sean susceptibles de provocarles perjuicios físicos o psicológicos, (b) aquellos que pudieran ser empleados por las autoridades (o en su representación) con el fin de perfilar a los seres humanos atendiendo a su conducta social o a características personales o de su personalidad (conocidas o predichas) cuando ello cause un trato perjudicial o desfavorable a determinados grupos de personas o colectivos y (c) el uso de sistemas de identificación biométrica remota «en tiempo real» en espacios de acceso público, salvo en situaciones excepcionales relacionadas con la prevención o persecución de actividades delictivas.
El mero hecho de que se prevea la existencia, aunque sólo sea hipotética, de sistemas de software capaces de trascender la conciencia de una persona para alterar de manera sustancial su comportamiento pone de manifiesto la necesidad y pertinencia de esta norma, siendo a nuestro juicio innecesario establecer requisito adicional alguno para su prohibición (es decir, con independencia de alteren nuestro comportamiento o nos causen daños).
Por su parte, son sistemas de IA de alto riesgo aquellos que sirven como componentes de seguridad de una gran variedad de máquinas o dispositivos (desde juguetes a ascensores, según se recoge en el Anexo II de la norma) y aquellos que se identifican en su Anexo III, que incluye sistemas de toma de decisiones individuales automatizadas en diferentes ámbitos: el educativo, la selección de personal, de acceso a servicios públicos y privados, entre otros (en línea con lo dispuesto en el artículo 22 del Reglamento General de Protección de Datos, sistemas que tengan efectos jurídicos en el individuo o le afecten significativamente).
Las obligaciones que se establecen en la PRIA para los Proveedores de estos sistemas de alto riesgo (definidos como cualesquiera personas físicas o jurídicas, autoridades públicas, agencias u organismos de otra índole que desarrollen un sistema de IA o para los que se haya desarrollado un sistema de IA con vistas a introducirlo en el mercado o ponerlo en servicio con su propio nombre o marca comercial, ya sea de manera remunerada o gratuita) son de distinta naturaleza y alcanzan la implantación de sistemas de gestión de riesgos durante todo el ciclo de vida del sistema, requerimientos relativos a la calidad y naturaleza de los datos de los que se servirán para llevar a cabo sus procesos, en materia de instrucciones y documentación técnica, relativos a la trazabilidad de los eventos que se produzcan durante su funcionamiento y dirigidos a garantizar su transparencia, la posibilidad de que sean supervisados por seres humanos y su precisión, solidez y ciber resiliencia.
Los riesgos a los que nos enfrentamos son tan relevantes como las oportunidades que se abren para todos
Sin embargo, para los “Usuarios” de estos sistemas de alto riesgo (toda persona física o jurídica, autoridad pública, agencia u organismo de otra índole que utilice un sistema de IA bajo su propia autoridad, salvo cuando su uso se enmarque en una actividad personal de carácter no profesional) establece tan sólo responsabilidades secundarias y muy limitadas, esencialmente, de vigilancia y cumplimiento de las instrucciones de uso de dichos sistemas, que se nos antojan manifiestamente insuficientes.
Y se están alzando voces que demandan la creación de, al menos, un registro de estos sistemas de alto riesgo y la introducción de requerimientos adicionales para sus Usuarios en forma de evaluación de impacto en los derechos fundamentales del uso que se pretenda dar a los mismos, pero todo apunta a que el temor a establecer controles que desincentiven el uso de la tecnología y, por tanto, ralenticen su adopción, por un parte, la imperiosa necesidad de espolear nuestro crecimiento económico, en un entorno como el actual, por otra, y, finalmente, la enorme influencia de los grandes operadores del mercado, los llamados a liderar la introducción e implantación de esta tecnología, serán un obstáculo difícil de salvar para que dichas obligaciones lleguen a formar parte de este cuerpo normativo en su versión final.
Los riesgos a los que nos enfrentamos son tan relevantes como las oportunidades que se abren para todos, por lo que nuestros representantes políticos tienen la enorme responsabilidad de lograr un texto equilibrado que ofrezca certidumbre jurídica y un terreno de juego apto para el desarrollo de esta tecnología y que, a la vez, garantice que el mundo seguirá siendo un lugar razonablemente libre y seguro.
Habrá que esperar y ver.
1 Comentario