Reglamento europeo de Inteligencia Artificial y relaciones laborales
El Reglamento UE 2024/1689, del Parlamento Europeo y del Consejo regula las implicaciones del uso de la inteligencia artificial también en el marco de las relaciones laborales, tanto a nivel individual como colectivo.
Aunque en una aproximación superficial pueda parecer que el Reglamento UE 2024/1689, del Parlamento Europeo y del Consejo, de 13 de junio de 2024 (que entró en vigor el 2 de agosto de ese año, siendo aplicable, como regla general, y salvo algunas materias que ya lo son, a partir del 2 de agosto de 2026), apenas presta atención al uso de la inteligencia artificial (IA) en el ámbito de las relaciones laborales, dedicándoles una atención marginal, en absoluto es así.
Ante todo, hay que tener en cuenta que la práctica totalidad de los sistemas de IA que puedan ser utilizados en el ámbito laboral vienen calificados como sistemas de IA de alto riego. El anexo III punto 4 del reglamento incluye entre los sistemas de IA de alto riesgo a los que se refiere el artículo 6, apartado 2, los relacionados con los aspectos centrales de las relaciones laborales: los sistemas de IA utilizados para la selección y contratación de personas, incluyendo la evaluación de los candidatos, y los utilizados para tomar decisiones que afecten a las condiciones de trabajo, al establecimiento o extinción de relaciones contractuales, a la asignación de tareas, a la evaluación y supervisión del rendimiento y al comportamiento de los trabajadores. Ello supone que para prácticamente todos los aspectos de las relaciones laborales (selección y contratación, condiciones de trabajo, asignación de tareas, supervisión y control de la actividad laboral, promoción de los trabajadores y despido) el uso de sistemas de IA supone su calificación como de alto riesgo y, por tanto, la aplicación de la detallada y exigente normativa prevista para ellos: en la gobernanza de datos hay que atender a los posibles sesgos que puedan afectar a la salud y seguridad de las personas y a sus derechos fundamentales, o que puedan dar lugar a algún tipo de discriminación (artículo 10.2.f), lo cual es especialmente significativo en el ámbito laboral. Además, los sistemas de IA de alto riesgo se diseñarán y desarrollarán de forma tal que puedan ser vigilados de manera efectiva por personas físicas (artículo 14.1). Y esta supervisión humana tendrá como objetivo prevenir o reducir al mínimo los riesgos para la salud, la seguridad o los derechos fundamentales, lo cual, nuevamente, es particularmente relevante en el ámbito laboral.
Junto a todo lo anterior, hay que tener en cuenta la prohibición expresa de prácticas de IA que podrían tener particular incidencia en el ámbito de las relaciones laborales. Así, se prohíben las prácticas dirigidas a inferir las emociones de una persona física (¿tienen emociones las personas jurídicas o las máquinas?) en los lugares de trabajo, salvo que el uso del sistema de IA esté motivado por razones médicas o de seguridad (artículo 5.1.f). Asimismo, está prohibido el uso de sistemas de caracterización biométrica que clasifiquen individualmente a las personas físicas sobre la base de datos biométricos para deducir, entre otras cuestiones, su afiliación sindical (artículo 5.1.g). Esta protección del dato de la afiliación sindical (situado junto a la raza, las opiniones políticas, las convicciones religiosas o filosóficas, la vida y la orientación sexual) es sin duda importante por la relevancia que se le concede, aunque realmente no acierto a comprender cómo de los datos biométricos pueda deducirse (salvo exageraciones lombrosianas) la afiliación sindical de una persona. En todo caso, estas normas ponen de manifiesto la preocupación por el uso de sistemas de IA en el ámbito laboral y la intención de proteger determinados aspectos de la esfera privada de los trabajadores.
El reglamento se ocupa también de regular los derechos de información de los trabajadores, y de sus representantes, en caso de utilización de sistemas de IA en el ámbito laboral. Así, el artículo 26.7 dispone que antes de poner en servicio o utilizar un sistema de IA de alto riesgo en el lugar de trabajo, los empleadores informarán a los representantes de los trabajadores y a los trabajadores afectados de que estarán expuestos a la utilización del sistema de IA de alto riesgo. En caso de ausencia de representación, la información debe facilitarse en todo caso a los trabajadores afectados. Por otra parte, la información alcanza solo al hecho de que estarán expuestos a un sistema de IA, no debiendo extenderse a sus características o pormenores. Ello permite, por una parte, salvaguardar el secreto empresarial y, por otra, advertir a los representantes de los trabajadores, y a estos individualmente, de la utilización del sistema de IA al objeto de que puedan ejercer sus labores de vigilancia y control, cuidando del respeto de los derechos fundamentales y reaccionando frente a sesgos discriminatorios. Hay que tener en cuenta la obligación de los responsables del despliegue de sistemas de IA de alto riesgo de aportar “un resumen de las conclusiones de la evaluación de impacto relativa a los derechos fundamentales” (Anexo VIII, Sección C, punto 4). Y también, y esto es muy importante, que el artículo 86.1 del reglamento consagra el derecho de toda persona que se vea afectada por una decisión que el responsable del despliegue adopte basándose en los resultados de salida de un sistema de IA de alto riesgo que figure en el Anexo III y que produzca efectos jurídicos o le afecte considerablemente, de manera que considere que tiene un efecto perjudicial para su salud, seguridad o derechos fundamentales, a obtener del responsable del despliegue explicaciones claras y significativas acerca del papel que el sistema de IA ha tenido en el proceso de toma de decisiones y los principales elementos de la decisión adoptada.
Por otra parte, el apartado 11 del mismo artículo 26 del reglamento, prevé que los responsables del despliegue de sistemas de alto riesgo que tomen decisiones o ayuden a tomar decisiones relacionadas con personas físicas informarán a estas de que están expuestas a la utilización de sistemas de IA de alto riesgo. Esto, en lo que se refiere a las cuestiones laborales, implica un deber de información, en el sentido indicado, a los candidatos en un proceso de selección de personal en el que vaya a utilizarse un sistema de IA.
Estamos pues en presencia de una normativa completa y directamente aplicable, que no precisa de ningún desarrollo por el ordenamiento interno. Es cierto que el artículo 2.11 del reglamento proclama que su regulación “no impedirá que la Unión o los Estados miembros mantengan o introduzcan disposiciones legales, reglamentarias o administrativas que sean más favorables a los trabajadores en lo que atañe a la protección de sus derechos respecto al uso de sistemas de IA por parte de los empleadores ni que fomenten o permitan la aplicación de convenios colectivos que sean más favorables a los trabajadores”.
Así se establece en lo “que atañe a la protección de sus derechos (de los trabajadores) respecto al uso de los sistemas de IA por parte de los empleadores”, lo que deja fuera cuestiones relativas a los propios sistemas de IA, así como a los aspectos procedimentales de su aplicación (derechos de información del artículo 26.7) y a eventuales derechos colectivos o sindicales.
La ampliación o mejora de los derechos de los trabajadores que permite el reglamento debe centrarse, pues, en las posibilidades de control y reacción frente a las consecuencias de la aplicación de sistemas de IA. Su implantación queda en el ámbito de las facultades empresariales, quedando además tales sistemas protegidos por el secreto empresarial, por lo que el refuerzo de los derechos laborales debe venir por las posibilidades de reacción frente a eventuales usos irregulares o resultados discriminatorios de su aplicación. Y ello es más apropiado para la negociación colectiva que para la intervención legal. Son los convenios colectivos los que, frente a dichas situaciones, deben establecer las medidas correctoras que resulten precisas, sin que parezcan adecuados los controles preventivos que la norma legal podría intentar introducir. Este es un desafío al que, sin duda, debería ya comenzar a enfrentarse nuestra negociación colectiva.
Profesional de contacto
