Connect with us
Actualidad

IA generativa responsable: de poner el cascabel al gato a la mejora continua

Las organizaciones deben tener una política de Inteligencia Artificial que establezca pautas y fomente buenas prácticas

(Imagen: E&J)

Marta Tardío

Abogada de IT Legal Advisory en SIA




Tiempo de lectura: 4 min

Publicado




Actualidad

IA generativa responsable: de poner el cascabel al gato a la mejora continua

Las organizaciones deben tener una política de Inteligencia Artificial que establezca pautas y fomente buenas prácticas

(Imagen: E&J)



Los sistemas de Inteligencia Artificial generativa han supuesto tal revolución que ya no se entiende la transformación digital de las compañías sin las ventajas que esta tecnología aporta. Claro que estos sistemas avanzados se nutren de grandes volúmenes de datos para su aprendizaje continuo, lo que pone sobre la mesa un nuevo reto: seguir alimentando los modelos de IA generativa requiere implantar políticas que atiendan a la legalidad (privacidad, propiedad intelectual…), así como otras directrices que garanticen el uso ético y fiable de la información.

A nivel legal, los sistemas de IA generativa pueden considerarse como aliados o como un potencial caballo de Troya para la organización. Por ello, es necesario conocer su funcionamiento y utilizarlos teniendo siempre en cuenta los riesgos que conllevan en cuanto al cumplimiento en los ámbitos de confidencialidad, privacidad y de secretos empresariales.



Esta advertencia no es mera teoría, sino que un uso temerario o inconsciente de los sistemas de IA puede acarrear incidentes o consecuencias graves. Por ejemplo, en 2023 un empleado de Samsung filtró por accidente el código fuente de un software que identificaba chips defectuosos tras solicitar a ChatGPT que lo optimizara.

Ante esta situación de luces y sombras, las organizaciones responden de manera diferente. Algunas, la minoría, optan por vetar el uso de la Inteligencia Artificial a sus empleados con el objetivo de preservar la confidencialidad de la información y la protección de activos; pero la prohibición absoluta de una tecnología avanzada que, aplicada de forma cibersegura, contribuye al crecimiento y a la productividad, no parece el camino correcto. En contraposición, otras compañías deciden desarrollar procedimientos en cada una de las fases del ciclo de vida de los sistemas de IA para lidiar y afrontar los riesgos y, así, sacar el máximo partido a las ventajas de la Inteligencia Artificial en su negocio.



Sistemas de IA generativa responsables, en tres pasos

Es precisa en las organizaciones una política de Inteligencia Artificial que establezca pautas y fomente buenas prácticas para el uso transparente, seguro, fiable, ético y responsable de los sistemas de IA. En este viaje, primero, en la fase de planificación, se evalúa el modelo a implementar y la estrategia. Después, en la fase de operación, se realiza un inventariado y se redacta el marco normativo, entre otros detalles. Y, como los sistemas de IA generativa no son estáticos, la tercera fase comprende el seguimiento y verificación del cumplimiento.



Planificación y análisis

En esta fase, para crear un sistema de IA responsable, se evalúan las condiciones de este para comprender sus capacidades y limitaciones (arquitectura, fuentes de datos de las que se nutre y si usa estos para el entrenamiento de modelos o fines comerciales, capacidad de adaptación a las necesidades de la compañía, etc.).

Igualmente, se revisa la reputación y fiabilidad del proveedor, así como el adecuado cumplimiento de normativas y estándares de protección de datos y seguridad. El objetivo es conocer en profundidad cómo funciona el modelo de IA para identificar y mitigar posibles vulnerabilidades, y establecer los términos y condiciones a seguir. Así, se crea un marco sólido para el uso responsable de la IA generativa.

(Imagen: E&J)

Operación

Entre la implantación y el primer uso efectivo del sistema de IA, existe esta segunda fase, en la que se realiza el inventario de sistemas y aplicaciones, se desarrollan políticas internas y mecanismos de control, y se comparten buenas prácticas con los empleados. En concreto, se valora y trabajan los siguientes ámbitos:

Para garantizar un uso responsable se verifica que el sistema sea transparente, seguro y no discriminatorio; y que los datos de los que se nutre sean pertinentes y representativos para su fin, que aporten un valor real al aprendizaje del modelo, y que no estén limitados por protección de datos ni restringidos por secretos empresariales o propiedad intelectual.

En este punto se verifica la transparencia y el cumplimiento legal en todo el proceso, observando cómo actúa la IA, con qué sistemas se relaciona y qué implicaciones jurídicas pueden darse.

De igual modo, se implantan medidas concretas para detectar, prevenir y reducir los sesgos que puedan distorsionar el algoritmo.

En cuanto a gobierno y responsabilidad, se despliega un modelo de gobernanza que evalúa el rendimiento y los resultados de la IA y, en base a estos, se realizan ajustes con el apoyo de la política de IA que haya aprobado la Dirección y se vigila en todo momento.

Por último, se comprueban las medidas de seguridad desplegadas acorde al análisis de riesgos, se adoptan las actuaciones necesarias contra ciberataques y se revisa que los datos que se usan son de calidad y legítimos.

Los ciberataques repuntan y nadie parece estar a salvo de estos ciberincidentes tan graves. (Imagen: E&J)

Seguimiento y mejora continua

Como se ha mencionado anteriormente, si todo este trabajo fuera estático, no serviría de nada. Como cualquier tecnología, el sistema de IA generativa requiere de un seguimiento y aprendizaje continuo. Siempre debe estar actualizado y, para ello, existe esta tercera fase de seguimiento. Aquí, se inicia un proceso de control riguroso sobre cualquier cambio en el uso y en los datos, detección de nuevas vulnerabilidades, cumplimiento y cualquier otra cuestión que ataña a la transparencia y responsabilidad en el uso de la IA.

Además, se deben establecer mecanismos de monitorización, auditoría y reporte para evaluar la efectividad de las políticas implementadas y realizar ajustes según sea necesario.

Es fundamental recordar la importancia de la ley de Inteligencia Artificial europea (IA Act) y el impacto de este marco legal en la implementación y uso de sistemas de IA. Además, cada sistema de Inteligencia Artificial puede estar sujeto a normas sectoriales específicas según su aplicación, lo que significa que no solo se debe cumplir con la legislación general, sino también con la particular de cada sector. Por ejemplo, Sanidad, Banca o Transporte pueden imponer requisitos adicionales en cuanto a seguridad, privacidad y ética en su uso.

En definitiva, para garantizar una transición exitosa hacia la Inteligencia Artificial e implementar sistemas como la IA generativa, las organizaciones deben adoptar una visión clara y comprender el panorama legal vigente y cambiante. Para lograrlo, es imprescindible contar con el acompañamiento de expertos en regulación tecnológica y de privacidad, cumplimiento normativo y riesgos legales, que proporcionen un asesoramiento diferencial con un enfoque de transparencia, agilidad, efectividad y seguridad.

Última hora jurídica



Recibe nuestra newsletter de forma gratuita