IA generativa responsable: de poner el cascabel al gato a la mejora continua
Las organizaciones deben tener una política de Inteligencia Artificial que establezca pautas y fomente buenas prácticas
(Imagen: E&J)
IA generativa responsable: de poner el cascabel al gato a la mejora continua
Las organizaciones deben tener una política de Inteligencia Artificial que establezca pautas y fomente buenas prácticas
(Imagen: E&J)
Los sistemas de Inteligencia Artificial generativa han supuesto tal revolución que ya no se entiende la transformación digital de las compañías sin las ventajas que esta tecnología aporta. Claro que estos sistemas avanzados se nutren de grandes volúmenes de datos para su aprendizaje continuo, lo que pone sobre la mesa un nuevo reto: seguir alimentando los modelos de IA generativa requiere implantar políticas que atiendan a la legalidad (privacidad, propiedad intelectual…), así como otras directrices que garanticen el uso ético y fiable de la información.
A nivel legal, los sistemas de IA generativa pueden considerarse como aliados o como un potencial caballo de Troya para la organización. Por ello, es necesario conocer su funcionamiento y utilizarlos teniendo siempre en cuenta los riesgos que conllevan en cuanto al cumplimiento en los ámbitos de confidencialidad, privacidad y de secretos empresariales.
Esta advertencia no es mera teoría, sino que un uso temerario o inconsciente de los sistemas de IA puede acarrear incidentes o consecuencias graves. Por ejemplo, en 2023 un empleado de Samsung filtró por accidente el código fuente de un software que identificaba chips defectuosos tras solicitar a ChatGPT que lo optimizara.
...