Inteligencia artificial y su impacto en el ámbito laboral y de RRHH: seis claves en 2025
El impacto de la inteligencia artificial en el empleo requiere un marco regulador claro para garantizar un uso ético y evitar discriminaciones
(Imagen: E&J)
Inteligencia artificial y su impacto en el ámbito laboral y de RRHH: seis claves en 2025
El impacto de la inteligencia artificial en el empleo requiere un marco regulador claro para garantizar un uso ético y evitar discriminaciones
(Imagen: E&J)
El impacto de la inteligencia artificial es y va a ser enorme en el ámbito laboral y es fundamental analizar su aterrizaje en las empresas y el papel crucial que debe tener la negociación colectiva y otros instrumentos como es el caso de los Planes de Igualdad.
Un uso ético y responsable de la IA en el ámbito laboral y de dirección estratégica de personal, desde la óptica del buen gobierno corporativo, la igualdad y las políticas de Responsabilidad Social Corporativa, es fundamental más allá de las cuestiones de complimiento normativo.
De hecho, no podemos olvidar que en España, la Ley 15/2022 de igualdad de trato y no discriminación, establece expresamente que “las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales”.
Impacto de la IA en el ámbito laboral en 2025
-
La IA empieza a aterrizar en la negociación colectiva (aunque todavía de manera minoritaria)
En primer lugar, cabe resaltar que la IA ya se menciona expresamente en el V Acuerdo para el Empleo y la Negociación Colectiva (AENC) (Resolución de 19 de mayo de 2023, de la Dirección General de Trabajo, por la que se registra y publica el V Acuerdo para el Empleo y la Negociación Colectiva).
Entre otras cuestiones, se dispone expresamente que «la negociación colectiva debe desempeñar un papel fundamental, estableciendo criterios que garanticen un uso adecuado de la IA y sobre el desarrollo del deber de información periódica a la representación de los trabajadores».
Asimismo, el AENC remarca que “la IA de manera progresiva tendrá un impacto significativo en el mundo laboral y, si no se hace un uso correcto y transparente, podría llevar a adoptar decisiones sesgadas o discriminatorias relativas a las relaciones laborales”.
A partir de aquí, y aunque de forma lenta, empezamos a tener convenios colectivos que regulan ya expresamente el uso de inteligencia artificial.
Uno de los ejemplos más recientes es el XXV Convenio Colectivo de Banca (Resolución de 20 de diciembre de 2024, de la Dirección General de Trabajo, por la que se registra y publica el XXV Convenio colectivo del sector de la banca, aunque en el anterior convenio también estaba ya regulada la IA).
Entre otros aspectos, regula el uso de la inteligencia artificial, estableciendo limitaciones expresas, y otras cuestiones como el derecho a la educación digital (competencias digitales).
En concreto, se establece expresamente lo siguiente:
«Las personas trabajadoras tienen derecho a no ser objeto de decisiones basadas única y exclusivamente en variables automatizadas, salvo en aquellos supuestos previstos por la ley, así como derecho a la no discriminación en relación con las decisiones y procesos, cuando ambos estén basados únicamente en algoritmos, pudiendo solicitar, en estos supuestos, el concurso e intervención de las personas designadas a tal efecto por la Empresa, en caso de discrepancia.
Además, las Empresas informarán a la RLPT sobre el uso de la analítica de datos o los sistemas de inteligencia artificial cuando los procesos de toma de decisiones en materia de recursos humanos y relaciones laborales se basen, exclusivamente, en modelos digitales sin intervención humana. Dicha información, como mínimo, abarcará los datos que nutren los algoritmos, la lógica de funcionamiento y la evaluación de los resultados»
Asimismo, el convenio también contempla la denominada “educación digital”. Se establece que las Empresas se comprometen a formar su personal, en las competencias necesarias para afrontar la transformación digital y facilitar así su reconversión digital.
En una línea muy similar tenemos también la regulación que hace de la IA el Convenio colectivo para los establecimientos financieros de crédito (Resolución de 3 de julio de 2024, de la Dirección General de Trabajo; BOE de 17 de julio de 2024).
En todo caso, en 2025 veremos probablemente más convenios regulando tanto el uso de la IA como cuestiones afines relativas a la educación digital o competencias digitales.
Pero además, en mi opinión sería necesario llevar también la IA a las mesas de negociación de los Planes de Igualdad y no solo para evitar discriminación por razón de género, sino también de edad, máxime teniendo en cuenta que el edadismo (discriminación por razón de edad) es uno de los grandes problemas del mercado laboral español.
-
Empresas que no usan IA vs. personas trabajadoras que sí la utilizan
Hay una realidad que muchas empresas ignoran o quieren ignorar y es que se está utilizando mucha más IA (en especial por parte de los trabajadores más jóvenes) en las organizaciones de lo que las propias organizaciones piensan o sospechan. Y esto puede traducirse, si no se gestiona bien, en problemas para las compañías (p.ej. de seguridad de la información, confidencialidad, propiedad intelectual…).
-
El DAFO de la IA
Es fundamental que las empresas analicen y midan los riesgos, amenazas, fortalezas y debilidades (realizar un DAFO de la IA a nivel laboral y a nivel empresa) y, en función de ello, adoptar medidas concretas y diseñar un plan de acción y seguimiento.
En todo caso, es indudable que la IA presenta amenazas y riesgos en el plano laboral (impacto en el empleo, sesgos discriminatorios…) pero también puede tener un impacto positivo si se utiliza de manera adecuada.
En el ámbito de dirección estratégica de personas (RRHH) un buen uso de la IA puede impactar positivamente en la gestión del talento (automatización de procesos rutinarios y eliminación de tareas repetitivas y concentrarse en aportar valor añadido, seguridad y salud en el trabajo, formación…).
De la misma forma, si finalmente sale adelante la jornada de 37,5 horas, la aplicación de la IA podría ayudar a mitigar el impacto de la reducción de jornada en las empresas afectadas.
Asimismo, también puede utilizarse en el ámbito de la prevención de riesgos laborales. A modo de ejemplo, un informe de la Agencia Europea para la Seguridad y Salud en el Trabajo analiza el impacto de la IA y señala, entre otros aspectos, que las organizaciones podrían utilizar la información para detectar problemas de Seguridad y Salud en el Trabajo (SST), incluidos riesgos psicosociales, y casos en que se requieren intervenciones en materia de SST a escala organizativa.
Finalmente, las empresas deberían ser conscientes de que la IA está aquí para quedarse y es fundamental apostar por la formación y capacitación de las personas trabajadoras en competencias digitales, en el uso de la IA y trazar un mapa de puestos y de posibles usos e impacto de la IA a nivel global, por departamentos y por puestos. Hay que analizar qué puestos pueden ser susceptibles de ser eliminados por la aplicación e integración de la IA y/o cuáles podrán realizarse en menos tiempo y revisar los planes de formación para ir introduciendo formación sobre el manejo y uso de la IA.
-
Los límites legales
A la hora de abordar la utilización de IA en el ámbito laboral, hay que tener en cuenta los límites establecidos por la normativa tanto española (en materia de igualdad y no discriminación) como europea (aparte de lo que pueda disponer el convenio colectivo de aplicación en la empresa).
A nivel europeo, cabe recordar que el Reglamento de Inteligencia Artificial (RIA), publicado en el Diario Oficial de la Unión Europea (DOUE) el 12 de julio de 2024 (será aplicable desde el 2 de agosto de 2026), prohíbe el uso de sistemas de IA para inferir las emociones de una persona física en el lugar de trabajo, excepto por motivos médicos o de seguridad.
Además, clasifica como de alto riesgo aquellos sistemas de IA destinados a:
- La contratación o la selección de personal. En concreto, sistemas de IA destinados a ser utilizados para la contratación o la selección de personas físicas, en particular para publicar anuncios de empleo específicos, analizar y filtrar las solicitudes de empleo y evaluar a los candidatos.
- Sistemas de IA destinados a ser utilizados para tomar decisiones que afecten a las condiciones de las relaciones de índole laboral o a la promoción o rescisión de relaciones contractuales de índole laboral, para la asignación de tareas a partir de comportamientos individuales o rasgos o características personales o para supervisar y evaluar el rendimiento y el comportamiento de las personas en el marco de dichas relaciones.
Asimismo, el RIA también establece que antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los responsables del despliegue que sean empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. Esta información se facilitará, cuando proceda, con arreglo a las normas y procedimientos establecidos en el Derecho de la Unión y nacional y conforme a las prácticas en materia de información a los trabajadores y sus representantes.
-
El peligro de los sesgos de la IA
Es crucial analizar cuidadosamente los sesgos en torno a la IA y evitar que se produzcan discriminaciones de cualquier tipo (y no solo por razón de género, sino también de edad, por razones de salud…).
En este sentido, hay que recordar que la Ley 15/2022 de igualdad de trato y no discriminación establece expresamente (entre otras cuestiones) que “nadie podrá ser discriminado por razón de edad, enfermedad o condición de salud (…)”.
Esto es fundamental tenerlo en cuenta, por ejemplo, en los procesos de selección.
Por su parte, el art. 23 de la Ley 15/2022 establece que “las administraciones públicas y las empresas promoverán el uso de una Inteligencia Artificial ética, confiable y respetuosa con los derechos fundamentales, siguiendo especialmente las recomendaciones de la Unión Europea en este sentido”.
Respecto a los riesgos de la IA, la UNESCO ha alertado de que la inteligencia artificial puede suponer el riesgo de tener un impacto negativo en el empoderamiento económico de la mujer y en las oportunidades que da a esta el mercado de trabajo.
Por su parte, la Confederación Europea de Sindicatos (CES) considera que las aplicaciones de IA en el lugar de trabajo deben clasificarse como de alto riesgo. Asimismo, el CES entiende que a pesar de los avances positivos, la Ley de IA de la UE no logra abordar la realidad que enfrentan los trabajadores y las medidas específicas que necesitan.
En una línea similar, un informe elaborado por la Organización Internacional del Trabajo advierte que es probable que los efectos potenciales de la IA Generativa difieran significativamente entre hombres y mujeres, ya que más del doble del empleo femenino podría verse afectado por la automatización. Esto se debe a la sobrerrepresentación de las mujeres en el trabajo administrativo, especialmente en los países de renta alta y media.
Finalmente, quiero hacer mención especial al proyecto IA + Igual en España, cuyo objetivo es analizar y verificar los algoritmos de Inteligencia Artificial aplicados en el mercado laboral.
Es un proyecto pionero impulsado por la Comunidad de Madrid a través de la Dirección General de Evaluación, Calidad e Innovación de la Consejería de Familia, Juventud y Política Social, y financiado con fondos Next Generation.
-
La IA en las políticas de RSC y códigos de buen gobierno
Finalmente, las empresas deberían revisar sus Códigos Éticos o Códigos de Conducta y sus políticas de RSC para ir analizando el impacto que va a suponer la IA a corto, medio y largo plazo en todos sus stakeholders. Igualmente, las empresas que están trabajando para alinearse con los ODS de la Agenda 2030 deberían tener muy presente el ODS 5 (igualdad de género) y el ODS 8 (Trabajo decente) y cómo puede impactar la inteligencia artificial.
A nivel de la Unión Europea, la Comisión Europea presentó el 14 de noviembre de 2024 el primer borrador del Código de Buenas Prácticas para la Inteligencia Artificial (IA) de Propósito General.
Este código tiene como objetivo proporcionar directrices claras para que los proveedores de modelos de IA de uso general cumplan con las normativas establecidas en la Ley de IA. La iniciativa busca garantizar que el desarrollo y la implementación de estos modelos se realicen de manera segura y confiable dentro de la Unión Europea.
Las normas que rigen los modelos de IA de uso general en virtud de la Ley de IA entrarán en vigor en agosto de 2025. El Código de buenas prácticas tiene por objeto facilitar la correcta aplicación de estas normas y desempeñará un papel crucial a la hora de orientar el futuro desarrollo y despliegue de modelos de IA de uso general, fiables y seguros en la UE.
Los aspectos clave del Código incluyen detalles sobre la transparencia y la aplicación de las normas relacionadas con los derechos de autor para los proveedores de modelos de IA de uso general, así como una taxonomía de riesgos sistémicos, metodologías de evaluación de riesgos y medidas de mitigación para los proveedores de modelos avanzados de IA de uso general que puedan plantear riesgos sistémicos.
Finalmente, las empresas deberían ser conscientes de que la IA va a suponer una de las mayores revoluciones en al ámbito de las relaciones laborales y, por ello, es fundamental apostar por un uso ético y responsable desde la visión del liderazgo humanista y la salvaguarda de los derechos fundamentales.