Herramientas de IA y Protección de Datos: qué debe tener en cuenta el sector legal en España
La adopción de herramientas de inteligencia artificial en el sector jurídico está transformando la profesión
(Imagen: Archivo)
Herramientas de IA y Protección de Datos: qué debe tener en cuenta el sector legal en España
La adopción de herramientas de inteligencia artificial en el sector jurídico está transformando la profesión
(Imagen: Archivo)
Cuando se trata de empleados que utilizan activamente la inteligencia artificial (IA), España está a la cabeza en Europa, según el primer Barómetro Europeo de IA de EY. El 84,4% de los empleados españoles ha experimentado con esta tecnología, más que en Suiza (82%) e Italia (76,7%), y mucho más que en los Países Bajos (66%) y Alemania (67%), países que muestran un ritmo más moderado.
Esta adopción es especialmente elevada en el sector jurídico. Solo seis meses después del lanzamiento de ChatGPT, uno de cada tres abogados admitió que ya había utilizado herramientas de inteligencia artificial (IA) generativa (36%, cuatro puntos más que el público en general, con un 32%).
Las razones: muchas tareas repetitivas pueden automatizarse. Pero no solo eso. Según estudios, el principal uso que los abogados están dando a las herramientas de IA son:
- La investigación y documentación
- La redacción de documentos
- La comprensión de conceptos jurídicos
Las herramientas de IA están empoderando a los profesionales del derecho al encargarse de las tareas más repetitivas y que consumen más tiempo, lo que les permite centrarse en asuntos más complejos y perfeccionar sus habilidades de pensamiento crítico, algo que los abogados solo pueden conseguir con años de experiencia.
Al mismo tiempo, los clientes que comparten información sensible tienen grandes expectativas sobre la forma en la que los bufetes de abogados que utilizan IA manejan sus datos. El nivel de preocupación por la privacidad y la aparición de la inteligencia artificial en España ha crecido hasta el 75% en los últimos cinco años, según la encuesta perspectiva del ciudadano europeo sobre privacidad elaborada por KPMG. Por si fuera poco, el 90% de los abogados tiene dudas sobre las alucinaciones de la IA, la seguridad y la falta de confianza en la tecnología.
No es de extrañar que haya ciertas dudas en el uso de las herramientas de IA. Dada la adopción masiva de estas herramientas en el sector jurídico, la cautela está justificada cuando se trata de proteger datos sensibles.
Si bien tareas valiosas como la creación y el análisis de documentos, la comunicación fácil de contenidos jurídicos y la ayuda en la investigación jurídica pueden superarse con la IA, también es cierto que cada dato (incluso los confidenciales) introducido en la mayoría de los modelos generalizados de IA podría utilizarse para entrenar más sus conocimientos y, en última instancia, regurgitarse en las búsquedas o preguntas de otros usuarios.
Por lo tanto, es importante que los bufetes de abogados sepan que hay algunas medidas sencillas que pueden y deben tomar para minimizar los riesgos de protección de datos al utilizar la IA. Si se tienen en cuenta, los bufetes de abogados pueden convertirse en early adopters seguros y beneficiarse de las ventajas de la tecnología de IA en la actualidad.
¿Qué hay que tener en cuenta para utilizar la IA de forma segura en las empresas?
- Lugar de almacenamiento: el primer criterio de calidad para los socios de IA es la ubicación de almacenamiento de los datos. Los proveedores deben tener soberanía -y, por tanto, también responsabilidad- sobre los datos. Hay que asegurarse de que los datos no se subcontratan a terceros, como proveedores de alojamiento en la nube. DeepL, por ejemplo, tiene sus propias granjas de servidores en Suecia e Islandia, por lo que dispone tanto de inmensas capacidades como de control sobre los datos utilizados.
- Puerto seguro para los datos: el origen de los socios de IA o la ubicación geográfica de la infraestructura de servidores también entran dentro de la palabra clave ‘ubicación’. Solo las empresas con sede en el Espacio Económico Europeo están obligadas a cumplir el Reglamento General de Protección de Datos (RGPD). Por lo tanto, las empresas que trabajan con datos sensibles deben esforzarse por encontrar un proveedor europeo que también opere sus infraestructuras de servidores en el continente.
- Cifrado: el tratamiento seguro de los datos debe considerarse siempre de forma holística. No se trata solo de dónde se almacenan los datos, sino también de cómo llegan hasta allí. Por eso, los proveedores reputados deben garantizar una transmisión eficaz de los datos: el cifrado de extremo a extremo es imprescindible en este caso; certificaciones como ISO27001 y SOC2 así lo indican. Las empresas que deseen saber más sobre encriptación también pueden solicitar y analizar libros blancos especiales sobre el tema a los proveedores.
- Borrado: «Los datos son el nuevo petróleo». Este credo es más pertinente que nunca en la era de la inteligencia artificial. Los proveedores no solo podrían utilizar los datos sensibles para realizar sus servicios anunciados, sino también utilizarlos como base para el entrenamiento y la reventa de IA y, en el peor de los casos, incluso venderlos. Por lo tanto, es aconsejable recurrir a socios de IA que se comprometan expresamente a eliminar de forma irreversible los datos de la empresa inmediatamente después de su uso. Por ejemplo, DeepL borra los datos de sus clientes Pro inmediatamente después de la traducción.
Si los responsables de las empresas siguen estas directrices a la hora de seleccionar a los socios de IA, se sientan las bases para una colaboración responsable, segura y conforme con la protección de datos.
En última instancia, la selección de socios de IA es la misma que con otros proveedores de servicios: la transparencia y la proactividad son criterios de calidad. Trabajar con proveedores que también cumplan los criterios enumerados anteriormente permite a las empresas explotar con seguridad el inmenso potencial de la IA.