Resumen
La irrupción de la IA en el mercado de trabajo plantea desafíos sin precedentes: automatización de tareas, algoritmos de selección de personal, sistemas de evaluación del rendimiento... España, como Estado miembro de la Unión Europea, se enfrenta a la necesidad de armonizar su legislación con el Reglamento Europeo de IA (UE) 2024/1689, mientras adapta su normativa laboral para garantizar la protección de los derechos fundamentales.
Introducción
La Inteligencia Artificial (IA) está transformando aceleradamente todos los ámbitos de nuestra sociedad y el mercado de trabajo no se escapa a esta tendencia. Un estudio difundido por la Comisión Europea revela que una de cada cuatro empresas en Europa, principalmente grandes compañías, ya emplean algoritmos o inteligencia artificial para automatizar decisiones laborales.
Esa irrupción masiva de la IA ha supuesto una verdadera transformación del mercado laboral español. Según el INE el 21,1 % de las empresas de más de 10 trabajadores ya trabajan con IA1. Su uso está mucho más extendido en las grandes compañías, pero se espera que en los próximos años se vaya extendiendo exponencialmente a todas las demás.
Los algoritmos se están utilizando ya para seleccionar personal, gestionar tareas, y realizar evaluaciones de productividad y desempeño. Los usos más frecuentes actualmente son el monitoreo y la evaluación de los trabajadores, mientras que se utilizan menos para decisiones como los despidos o las retribuciones.
Indudablemente estas herramientas, bien empleadas, pueden mejorar la velocidad, la eficiencia y productividad de los trabajadores, así como mejorar la toma de decisiones y ofrecer nuevas oportunidades laborales. Sin embargo, también pueden dar lugar a sesgos y discriminaciones de todo tipo, a la pérdida de privacidad y a una mayor precarización de las condiciones laborales, de ahí la importancia de su regulación.
Según la normativa vigente, las empresas deben informar a sus trabajadores de los aspectos de su relación laboral (como la contratación, el control de la productividad, las condiciones laborales o los despidos) que estén condicionados por un algoritmo. Pero esto no siempre ocurre.
Y no son pocas las ocasiones en las que las empresas o bien hacen un uso inadecuado de los algoritmos o bien no informan sobre el contenido y la finalidad de sus herramientas de IA. Esto ha hecho que la Inspección de Trabajo haya puesto el foco recientemente en este tema. El Ministerio de Trabajo lanzó a principios de noviembre una campaña de inspecciones para investigar cómo están usando las grandes empresas los algoritmos para organizar a sus empleados. Y anunció que los infractores serían sancionados.
Hay varios tipos de herramientas de IA usadas actualmente en el ámbito laboral:
• Algoritmos de contratación y selección: Se usan para filtrar CVs, evaluar perfiles, realizar pruebas psicométricas o técnicas, o valorar candidatos para optimizar la selección de personal. Estos sistemas pueden identificar patrones, acelerar procesos y reducir costes, pero también pueden reproducir o amplificar sesgos si no se controlan adecuadamente. Por ejemplo, se han dado casos en los que en un proceso de selección no se ha incluido a ninguna mujer en edad fértil y al abrirse una inspección los inspectores descubren que es debido al sesgo de la herramienta de IA. Esto podría dar lugar a una sanción por discriminación, según lo establecido en el artículo 4.2.c. del Estatuto de los Trabajadores.
• Sistemas de vigilancia y monitorización: Analizan y organizan la productividad, las actividades y los horarios de los empleados, con el objetivo de mejorar la eficiencia o detectar incidencias. Sin embargo, su uso masivo y sin límites claros puede vulnerar el derecho a la intimidad y la desconexión digital. Por ello, las empresas deben informar sobre el uso que hacen de estas herramientas; la negativa a revelarlo, o la opacidad sobre su uso está dando ya lugar a sanciones.
• Automatización de tareas: Implementación de robots software o hardware para realizar tareas repetitivas o mecánicas, liberando a los trabajadores para actividades de mayor valor añadido o creatividad. Esto transforma los perfiles profesionales y exige reciclaje constante.
• Gestión algorítmica: Aplicación de algoritmos para asignar tareas, evaluar rendimiento, establecer rutas o turnos, y tomar decisiones sobre promoción o despido. Esta forma de administración digital puede optimizar recursos, pero genera riesgo de opacidad, sesgos y falta de control humano. También puede dar lugar, como ha sido denunciado en varias ocasiones en nuestro país, a discriminación en las retribuciones porque, por ejemplo, sucede que el algoritmo envía una menor carga de trabajo a los empleados con jornada parcial para que no lleguen a cobrar el complemento de productividad.
En este escenario de transformación continua el mercado laboral está marcado por una dinámica dual: muchos empleos se transforman y requieren habilidades digitales, mientras que otros desaparecerán o cambiarán radicalmente. La formación continua se perfila como la herramienta esencial para adaptarse a estas mutaciones y prosperar en un mercado en rápida evolución.
Mientras la IA automatiza tareas rutinarias y repetitivas —particularmente en administración, logística, transporte, banca y retail—, crece la necesidad de formación y actualización constante de los trabajadores. Cerca de dos millones de empleos están en riesgo de automatización en España para el año 2030, lo que representa casi un 10 % de la fuerza laboral. Sin embargo, la IA también aumenta la productividad y abre oportunidades para tareas más estratégicas y creativas.
Las proyecciones nos indican que casi el 40 % de los trabajadores tendrá que actualizar sus habilidades en una década para mantener su empleabilidad, y más de un 20 % deberá reubicarse en nuevas funciones. La colaboración entre empresas, universidades, centros de formación profesional, sindicatos y administraciones públicas es crucial para facilitar esta inevitable transición, evitando la exclusión o precarización de los colectivos más vulnerables.
Por otra parte, el uso generalizado de todas estas herramientas está dando lugar a nuevos perfiles especializados para la gestión de estos algoritmos, entre los que destacan:
- AI Risk Manager: Responsable de evaluar y mitigar los riesgos éticos, legales y operativos vinculados al uso de sistemas de IA en las organizaciones.
- AI Legal Advisor: Asesor jurídico especializado en la regulación y cumplimiento normativo de las herramientas y modelos de inteligencia artificial, fundamental para garantizar la implementación ética y legal de estas tecnologías.
- Auditores Algorítmicos: Profesionales encargados de revisar periódicamente los algoritmos para detectar sesgos, errores y asegurar su transparencia y equidad.
- Especialistas en ética de IA: Consultores que desarrollan políticas éticas y supervisan el impacto social de la IA en el trabajo.
Desafíos jurídicos y éticos Clave
Esta creciente implantación de la inteligencia artificial (IA) en los procesos laborales presenta una serie de retos jurídicos y éticos que exigen atención y acción tanto por parte de los legisladores como de las empresas y los propios trabajadores. Entre los principales se pueden destacar:
- Discriminación y Sesgos Algorítmicos
Uno de los problemas más visibles y preocupantes es la presencia de sesgos en los algoritmos que afectan a procesos de selección, promoción o evaluación del desempeño. Sesgos que pueden reproducir o amplificar disparidades históricas de género, edad, origen étnico u otras condiciones protegidas por ley, generando situaciones de discriminación disfrazada de objetividad. La opacidad algorítmica dificulta la detección y corrección de estos sesgos, lo que deja desprotegidos a los trabajadores afectados y plantea serios dilemas legales relacionados con la igualdad efectiva y la justicia en el empleo. Esta discriminación suele ser sutil y de carácter indirecto, lo que hace difícil encuadrarla en el derecho antidiscriminatorio tradicional al que estamos habituados.
En este caso el desafío probatorio es inmenso: la persona afectada carece de acceso a los datos de entrenamiento o al código fuente debido a la invocación del secreto empresarial, haciendo casi imposible contrarrestar los argumentos de la empresa o demostrar la vulneración de derechos fundamentales.
- Falta de transparencia
La opacidad de muchos sistemas de IA también puede limitar el derecho de los empleados a entender cómo y por qué se toman ciertas decisiones automatizadas que les afectan directamente, lo cual puede llevar a reducir la confianza y dificultar la impugnación de decisiones injustas o erróneas.
Uno de los mayores desafíos técnicos y jurídicos es el efecto conocido como la "caja negra" (black box effect). Los sistemas de IA modernos, particularmente aquellos basados en machine learning o deep learning, tienen una capacidad demostrada de autoaprendizaje. Esto implica que la información sobre los "parámetros, reglas e instrucciones" puede ser incomprensible, no solo para la persona afectada, sino incluso para el propio empleador o programador.
Esta opacidad algorítmica dificulta sobremanera la identificación de los factores que determinan, por ejemplo, la preferencia o exclusión de perfiles, socavando el derecho a la explicabilidad garantizado por el RGPD (Art. 22) y el Estatuto de los Trabajadores (Art. 64.4.d).
- Vigilancia y Privacidad
El uso cada vez más extendido de sistemas de vigilancia automatizados para monitorizar la actividad, la productividad o la ubicación de los trabajadores plantea un desafío ético y jurídico fundamental. La excesiva intrusión en la privacidad, el control remoto y la presión constante pueden afectar gravemente la dignidad y la salud psicosocial de los empleados. Este uso masivo de tecnologías de vigilancia debe ser estrictamente regulado para evitar abusos y respetar el derecho constitucional a la intimidad, derecho reconocido expresamente en el Estatuto de los Trabajadores y la legislación de protección de datos.
La capacidad de estos sistemas para tratar bases de datos masivas puede incluir información sumamente privada del trabajador (como el círculo de amigos, redes sociales, orientación sexual o hábitos saludable o no) sin el conocimiento o consentimiento explícito. Esto eleva el riesgo de instrumentalización de la persona y hace imperativo un marco que asegure el respeto a la dignidad humana.
- Responsabilidad
Los sistemas de IA pueden cometer errores o producir efectos negativos en el empleo, afectando a los derechos de los trabajadores. La atribución de responsabilidad ante tales situaciones sigue siendo un reto, especialmente cuando intervienen terceros proveedores de software o cuando la toma final de decisiones es compleja y combinada entre humanos y máquinas. Es necesario clarificar los marcos de responsabilidad civil y penal que aseguren la reparación y prevención de daños, garantizando que las empresas mantengan un control efectivo y que los trabajadores puedan acceder a vías legales para defender sus derechos.
La dificultad para imputar responsabilidad se agrava en casos donde el resultado sesgado del algoritmo no implica una intención directa de discriminar. Algunos modelos de responsabilidad emergentes fundamentan la responsabilidad del empleador en la conducta imprudente o negligente si adoptan decisiones basadas en sistemas algorítmicos con sesgos conocidos, dada la posibilidad de prevenir, auditar y rectificar esos estereotipos.
Normativa existente
Más allá de los marcos legales nacionales y regionales, el desarrollo de la IA ha de configurarse en el marco de un consenso internacional sobre los principios éticos que deben guiar su despliegue, uso y desarrollo, especialmente para salvaguardar los derechos humanos y la dignidad.
La Organización para la Cooperación y el Desarrollo Económicos (OCDE) ha establecido una serie de principios clave que buscan orientar la gobernanza de la IA a nivel global, enfatizando una aproximación centrada en el ser humano, a través de la Alianza Mundial sobre Inteligencia Artificial, Global Partnership on Artificial Intelligence, en sus siglas en inglés (GPAI)2.
Configura como base el respeto al estado de derecho, los derechos humanos y los valores democráticos, incluyendo la equidad y la privacidad.
Aboga por la necesidad de que los sistemas deben ser comprensibles y trazables. Este principio es fundamental para combatir la "caja negra" en el empleo.
Además, afianza la idea de la necesidad de obtener una Rendición de Cuentas (Accountability): Las organizaciones y los individuos que despliegan u operan sistemas de IA deben ser responsables de su correcto funcionamiento.
Todo ello como base de un crecimiento inclusivo y una transición justa, tiendo como eje la capacitación de las personas con las habilidades necesarias para convivir con la Inteligencia Artificial y siendo necesario formar a los trabajadores para una transición justa.
En noviembre de 2021, la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) adoptó la "Recomendación sobre la ética de la inteligencia artificial"3, el primer marco normativo universal sobre la materia, adoptado por sus 193 Estados miembros.
Esta recomendación establece una base dinámica para la evaluación normativa de la IA, tomando como referencias primarias la dignidad humana, el bienestar y la prevención de daños.
Estos marcos globales éticos actúan como la fuente de la que beben las regulaciones prescriptivas como la AI Act, al obligar a integrar los derechos fundamentales (no discriminación, privacidad y dignidad) en cada fase del ciclo de vida del sistema de IA.
La regulación del uso la IA en este ámbito laboral, como en tantos otros, es crucial para evitar su uso inapropiado y la vulneración de los derechos de los trabajadores.
Ya son varios los países del mundo que están desarrollando normativa al respecto.
La regulación de la IA en el empleo fuera de la UE se caracteriza por un mosaico de enfoques, que varían entre la dependencia de leyes existentes (EE. UU., Reino Unido) y la introducción de nuevos marcos basados en principios o en el impacto.
Contrastes de Enfoque Regulatorio: Riesgo versus Principios
Se observan tres modelos regulatorios principales a nivel global:
Modelo UE (Basado en Riesgo, Integral): Prescriptivo y vertical. Impone obligaciones estrictas al producto de IA.
Modelo EE. UU. (Sectorial, Ex Post): Horizontal. Aplica vigorosamente las leyes existentes (antidiscriminación, privacidad) a nivel federal, complementado por regulaciones locales específicas.
Modelo Reino Unido (Basado en Principios, Voluntario): Enfoque flexible, basado en la autorregulación y los principios éticos, sin legislación específica de IA por el momento.
La Unión Europea: La Ley de IA (AI Act) como Eje de la Gobernanza Algorítmica Laboral
El Reglamento Europeo de Inteligencia Artificial (AI Act)4, aprobado recientemente y en fase de implementación por fases, constituye el pilar fundamental del control algorítmico en Europa. Este Reglamento se distingue por su enfoque basado en el riesgo, imponiendo las obligaciones más estrictas a los sistemas con mayor potencial de daño.
El Empleo como categoría de Alto Riesgo
El Reglamento Europeo de Inteligencia Artificial, como todos conocemos, clasifica los sistemas de IA según su potencial de riesgo en cuatro niveles: inaceptable, alto, limitado y mínimo. El ámbito laboral está catalogado de manera explícita dentro de la categoría de Alto Riesgo (Art. 6.2 y Anexo III), reconociendo su potencial impacto negativo en los derechos fundamentales de las personas.
La clasificación de Alto Riesgo incluye, como hemos anticipado:
Reclutamiento y Selección: Sistemas utilizados para el filtrado, evaluación de candidatos y admisión a procesos de empleo o de formación profesional.
Gestión Laboral: Sistemas que evalúan el rendimiento, planifican la demanda, asignan tareas o se utilizan para decidir sobre la promoción, la terminación del contrato o la elaboración de perfiles que evalúan aspectos de la vida de una persona, como el rendimiento laboral, las preferencias o la fiabilidad.
Vigilancia en el puesto de trabajo: Uso de IA para la monitorización del comportamiento de los trabajadores.
Además de la categoría de Alto Riesgo, el Reglamento de Inteligencia Artificial prohíbe los sistemas que presenten un riesgo inaceptable, como el social scoring gubernamental o las técnicas manipuladoras. En el contexto laboral, esto podría incluir el uso indiscriminado de tecnologías de reconocimiento de emociones o ciertos usos de la biometría no prohibida, dependiendo de si estos usos se consideran desproporcionados o manipuladores.
La aplicación total de las normas relativas a los sistemas de IA de alto riesgo está prevista para el 2 de agosto de 2027, tras un período transitorio ampliado.
La normativa en Estados Unidos (EE. UU.): Aplicación de Normas Antidiscriminatorias y Regulación Local
A nivel federal, la regulación se basa en la aplicación de la legislación antidiscriminatoria existente. La Comisión para la Igualdad de Oportunidades en el Empleo, U.S. Equal Employment Opportunity Commission (EEOC)5, bajo su Iniciativa de Equidad Algorítmica, aplica las leyes federales que prohíben la discriminación en el empleo.
Para determinar si una herramienta de selección de personal basada en IA genera un impacto adverso, la EEOC utiliza la Regla de los Cuatro Quintos (Four-Fifths Rule of Thumb). Si la tasa de selección para un grupo protegido es sustancialmente inferior (menos del 80 %) a la del grupo más seleccionado, es probable que exista un hallazgo preliminar de impacto adverso. Es importante destacar que la responsabilidad por la discriminación recae en el empleador, incluso si el sistema de IA fue desarrollado por un proveedor externo.
A nivel local, Nueva York ha sido pionera con la Local Law 144 de 20216. Esta ley prohíbe a empleadores y agencias de empleo usar Herramientas de Decisión Automatizada en el Empleo (AEDT) a menos que la herramienta haya sido sometida a una Auditoría de Sesgo (Bias Audit) externa dentro del año anterior a su uso. La ley exige notificar a los empleados o candidatos sobre el uso de la herramienta y hacer públicos los resultados de la auditoría. Las multas por incumplimiento en el ámbito civil son pecuniarias y se acumulan por día y por violación.
Reino Unido (UK): El Enfoque Basado en Principios y Propuestas Sindicales
El gobierno del Reino Unido mantiene una postura de no introducir legislación específica sobre IA, prefiriendo basarse en los marcos legales existentes, como la Equality Act de 20107 y el UK GDPR (que incluye la prohibición de decisiones basadas únicamente en tratamiento automatizado).
Sin embargo, esta postura ha generado un vacío legal, que ha impulsado un movimiento sindical. El Congreso de Sindicatos (Trades Union Congress, TUC) ha propuesto un borrador de ley (Draft AI Bill)8 que busca introducir regulaciones detalladas para la IA en el lugar de trabajo. Las propuestas del TUC incluyen:
• Evaluaciones de Riesgo: Obligación de los empleadores de realizar evaluaciones de riesgo de IA antes de implementar sistemas para la toma de decisiones de alto riesgo.
• Registro de Sistemas: Creación de un registro obligatorio de todos los sistemas de IA de alto riesgo utilizados, identificando su propósito.
• Derechos del Trabajador: Derecho a la explicación y a la reconsideración humana de las decisiones automatizadas.
• Defensa Empresarial: Una normativa y protocolos establecidos que permita a los empleadores acusados de discriminación poder demostrar que auditaron cuidadosamente el sistema de IA y establecieron salvaguardas procedimentales oportunas.
Canadá: La Ley de Inteligencia Artificial y Datos (AIDA)
Canadá, a través del Proyecto de Ley C-27, ha introducido la Ley de Inteligencia Artificial y Datos, The Artificial Intelligence and Data Act (AIDA)9, que busca establecer un marco claro y seguro para el diseño y despliegue responsable de la IA, centrándose en los "sistemas de alto impacto".
The Artificial Intelligence and Data Act no adopta un enfoque sectorial estricto, sino que impone obligaciones a lo largo de la cadena de valor (desarrolladores, distribuidores y gestores) de los sistemas de alto impacto. Estos sistemas incluyen usos en el empleo y el comercio. Las empresas que ponen a disposición sistemas de alto impacto deben evaluar los usos potenciales, mitigar los riesgos y asegurar que los usuarios sean conscientes de las limitaciones del sistema.
A pesar de las diferencias entre los modelos (regulación exhaustiva vs. enfoque ligero basado en principios), el análisis comparativo revela una convergencia significativa en los requisitos procedimentales que están emergiendo como estándares globales de gobernanza algorítmica en el empleo.
Independientemente de la existencia de una ley integral de IA, las principales jurisdicciones están adoptando soluciones prácticas que giran en torno a tres ejes: Evaluación de Riesgo (Auditoría de Sesgo en NYC, Sistema de Gestión de Riesgos en la AI Act), Transparencia/Notificación (NYC LL 144, Art. 64.4.d ET) y Supervisión/Recurso Humano (AI Act Art. 14, propuestas del TUC Bill) [31]. Esto implica que las empresas multinacionales que operan en múltiples jurisdicciones deben adoptar un marco de cumplimiento integral que satisfaga estos requisitos procedimentales mínimos en toda su operación global, independientemente de si la normativa local se centra en el producto (UE) o en el impacto discriminatorio (EE. UU.).
España. Un ecosistema normativo en necesaria evolución.
El entramado normativo actual en España es muy variado, ya que combina leyes de protección de datos, disposiciones laborales nacionales y un marco europeo innovador que categoriza y limita el uso de sistemas algorítmicos en función del riesgo que implican para los derechos fundamentales.
- Reglamento General de Protección de Datos (RGPD) y Ley Orgánica de Protección de Datos y Garantía de Derechos Digitales (LOPDGDD)
El RGPD, vigente desde 2018, junto con la LOPDGDD española, establecen un marco primordial para controlar la utilización de datos personales dentro de los sistemas de IA aplicados al empleo. El artículo 22 del RGPD protege a los trabajadores frente a decisiones individuales automatizadas que tengan efectos jurídicos o les afecten significativamente, como podrían ser los despidos o evaluaciones automatizadas, garantizando el derecho a una intervención humana y a impugnar tales decisiones.
Ambas normativas imponen obligaciones de transparencia y explicabilidad: es decir, los empleadores deben informar en todo momento a los trabajadores sobre los algoritmos utilizados, la lógica aplicada y las consecuencias de su uso, permitiendo así un control efectivo y la protección del derecho a la intimidad y la autodeterminación informativa.
- Reglamento de Inteligencia Artificial de la Unión Europea (AI Act)
El AI Act, aprobado en 2024 y en proceso de implementación gradual que debería culminar en agosto de 2026 con su aplicación efectiva, ha sido el primer marco legal en el mundo que regula integralmente la inteligencia artificial basándose en un enfoque de gestión del riesgo. Esta norma busca garantizar un uso de la IA ético, inclusivo y beneficioso para las personas.
En lo que respecta al empleo, el AI Act clasifica como sistemas de "alto riesgo" aquellos que se emplean para la gestión de recursos humanos, incluyendo selección, evaluación y despido de personal. Estos sistemas deben cumplir exhaustivos requisitos de calidad, transparencia, trazabilidad y supervisión humana.
Este pionero reglamento prohíbe expresamente prácticas abusivas como la manipulación subliminal de personas o la clasificación social discriminatoria mediante IA, y establece la obligación para los proveedores y responsables del despliegue de realizar evaluaciones previas de impacto y auditorías periódicas para garantizar la no discriminación y la equidad.
La transposición de la AI Act en España se ha hecho mediante el Anteproyecto de Ley para el Buen Uso y Gobernanza de la IA, que fue aprobado por el Gobierno en marzo de 2025.
El reglamento europeo prohíbe determinados usos maliciosos de la IA, introduce obligaciones más rigurosas para sistemas considerados de alto riesgo y establece unos requisitos mínimos de transparencia para el resto.
Las prácticas prohibidas por el Reglamento de Inteligencia Artificial de la Unión Europea entraron en vigor el 2 de febrero de 2025 y desde el 2 de agosto de 2025 se puede sancionar mediante multas u otras medidas adicionales (requerir su adaptación al sistema para que sea conforme, impedir que se comercialice…) aplicando el régimen sancionador que incorpora el anteproyecto de ley, dentro de las horquillas que fija el reglamento europeo.
Entre las prácticas prohibidas están la clasificación biométrica de las personas por raza u orientación política, religiosa o sexual, la puntuación de individuos o grupos basándose en comportamientos sociales o rasgos personales como método de selección, o inferir emociones en centros de trabajo o educativos como método de evaluación para promoción o despido laboral, salvo por razones médicas o de seguridad.
Las sanciones que se pondrán para este tipo de sistemas oscilan entre los 7,5 y los 35 millones de euros, o entre el 2 % y el 7 % del volumen de negocio mundial del ejercicio anterior, si esta última cifra es superior, salvo en el caso de pymes, que podrá ser la menor de las dos cuantías.
Las autoridades encargadas de vigilar los sistemas prohibidos serán la Agencia Española de Protección de Datos (para sistemas biométricos y gestión de fronteras); el Consejo General del Poder Judicial (para sistemas de IA en el ámbito de la justicia), la Junta Electoral Central (para sistemas de IA que afecten a procesos democráticos) y la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA).
La AEISA es el organismo público encargado de garantizar el uso ético y seguro de la inteligencia artificial en España. Su principal misión es asegurar que tanto entidades públicas como privadas cumplan con la normativa vigente, protegiendo la privacidad, igualdad de trato y derechos fundamentales.
Estatuto de los Trabajadores y Normas complementarias
En España, el Estatuto de los Trabajadores protege específicamente derechos relacionados con la IA en el ámbito laboral, tales como el derecho a la intimidad y a la desconexión digital. La Ley 12/2021, que modificó el Estatuto de los Trabajadores (ET) y fue conocida como la "Ley Rider" por su enfoque inicial en las plataformas de reparto introdujo un elemento fundamental en el artículo 64.4.d: el derecho de la Representación Legal de los Trabajadores, incluido el comité de empresa, a ser informado sobre "los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones" que incidan en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles”.
Esta modificación fue más allá de la mera notificación de la existencia de un algoritmo (ya requerida por el RGPD) al exigir una explicabilidad interna dirigida al Comité de Empresa o a los Representantes Legales de los Trabajadores. La precisión en la redacción ("parámetros, reglas e instrucciones") convierte al Art. 64.4.d ET en una suerte de "mini reglamento de IA" laboral que ofrece a los representantes de los trabajadores un resorte y mecanismo de cumplimiento coercitivo frente al empleador que se puede activar de forma inmediata a través del derecho sindical.
Además, la Ley de Protección de Datos Personales y Garantía de Derechos Digitales (LOPDGDD) amplía estas protecciones incorporando criterios específicos para el tratamiento de datos en entornos laborales digitales, complementando el RGPD y reforzando exigencias de transparencia y participación sindical.
Si bien el RGPD se centra en el derecho individual a la explicación y el recurso, el Reglamento de IA se enfoca en la conformidad sistémica del producto. Ambos son complementarios: el Reglamento de IA impone la calidad de diseño y los procesos (ex ante), mientras que el RGPD ofrece el derecho de recurso en caso de afectación individual (ex post).
También existen normativas específicas para trabajos en plataformas digitales, que prohíben decisiones automatizadas no supervisadas sobre asignación de tareas y condiciones de empleo, reflejando la creciente importancia de esta modalidad de trabajo en la economía digital.
Por tanto, la apuesta de nuestro legislador va más allá, enfatizado la obligación de realizar una Evaluación de Impacto sobre la protección de datos y, en términos más amplios, una auditoría algorítmica. Si la evaluación de impacto advierte un riesgo de vulneración de derechos fundamentales (como el riesgo de discriminación), el diseño del algoritmo debe ser modificado.
La Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), creada en 2023, ha sido designada como un actor clave en la tarea de garantizar el crear sinergias necesarias para el cumplimiento de la normativa, definir las buenas prácticas y garantizar la evaluación de los modelos de IA en España.
En resumen, observamos los siguientes modelos regulatorios de IA en el Empleo:
| Espacio | Modelo Regulatorio Principal | Enfoque en Empleo | Mecanismos Específicos Clave |
|---|---|---|---|
| Unión Europea (UE) | Basado en Riesgo (Integral, Ex Ante) | Alto Riesgo (Clasificación obligatoria en Anexo III) | Sistema de Gestión de Riesgos, Supervisión Humana, Sanciones de hasta el 7 % de ingresos. |
| España | Multinivel (Refuerzo Laboral/Datos) | Refuerzo del derecho a la información sindical y aplicación estricta del RGPD Art. 22 y LOPDD | Derecho de información Art. 64.4.d ET, Obligación de Evaluación de Impacto (EIPD). |
| Estados Unidos (EE. UU.) | Sectorial/Cumplimiento (Ex Post). Por Estados | Enfoque antidiscriminación (EEOC). | NYC Local Law 144: Auditoría de Sesgo obligatoria (Bias Audit) y notificación a candidatos. |
| Reino Unido (UK) | Basado en Principios/Voluntario | Confianza en la Equality Act 2010; resistencia a legislación específica de IA. | Propuestas sindicales para Registro de IA y Derecho de Explicación. |
| Canadá | Basado en Riesgo (Alto Impacto) | The Artificial Intelligence and Data Act regula sistemas de "Alto Impacto" en el ámbito interprovincial, incluyendo empleo. | Obligaciones de evaluación y mitigación de riesgos a lo largo del ciclo de vida del sistema de IA. |
2https://oecd.ai/en/about/about-gpai
3https://unesdoc.unesco.org/ark:/48223/pf0000381137_spa
4https://www.consilium.europa.eu/es/policies/artificial-intelligence/
5https://www.eeoc.gov/
6https://www.nyc.gov/site/dca/about/automated-employment-decision-tools.page
7https://www.legislation.gov.uk/ukpga/2010/15/contents
8https://www.tuc.org.uk/research-analysis/reports/artificial-intelligence-regulation-and-employment-rights-bill
9https://ised-isde.canada.ca/site/innovation-better-canada/en/artificial-intelligence-and-data-act-aida-companion-document
Conclusión
A pesar de todo este ambicioso entramado normativo, en España aún existe una brecha normativa y práctica importante que dificulta el asegurar que el uso generalizado de la IA se lleve a cabo dentro de un marco de garantías y respeto de los derechos. De esta manera nos encontramos con que la transparencia algorítmica efectiva, el derecho a una revisión humana efectiva o la protección real contra sesgos y discriminación, que son garantías establecidas en el RGPD y el AI Act, no siempre se cumplen o aplican plenamente, como han denunciado numerosos expertos.
La Unión Europea y España han reconocido que la normativa técnica de Reglamento de Inteligencia Artificial debe ser complementada y aterrizada mediante la acción sindical. La Unión General de Trabajadoras y Trabajadores (UGT) ha instado a las empresas a utilizar los dos años de margen transitorio que ofrece este Reglamento para negociar colectivamente la introducción y el desarrollo de la IA.
El Acuerdo para el Empleo y la Negociación Colectiva, que engloba los grandes sindicatos y la patronal, se ha identificado como el vehículo normativo ideal para este propósito, con objetivos claros: garantizar el principio de control humano de la IA, asegurar un uso seguro y transparente, y conformar una IA sin discriminaciones, repartiendo justamente sus beneficios productivos. Por ello la negociación colectiva puede convertirse en un eslabón fundamental en la cadena de cumplimiento del Reglamento de Inteligencia Artificial de la Unión Europea, determinando el cómo, quién y cuándo se ejerce ese control efectivo. Además, la representación legal de los trabajadores, incluidos los Comités de Empresa Europeos, tiene derecho a recibir formación especializada e invitar a expertos para facilitar los debates con la dirección sobre estrategias de Inteligencia Artificial.
Además, la adaptación de las normas laborales para cubrir integradamente los nuevos escenarios digitales va por detrás de la extensión de las prácticas algorítmicas. Esto pone de manifiesto, una vez más, la necesidad de actualizar constantemente el marco jurídico para responder a la imparable evolución tecnológica.
Por ello para fomentar un uso ético, legal y responsable de la IA en el empleo, sería recomendable:
- Fomentar la negociación colectiva: involucrar a sindicatos y representantes de trabajadores para acordar el uso de sistemas de IA en convenios sectoriales y acuerdos laborales, garantizando que las tecnologías se implementen con el consentimiento y supervisión adecuadas.
- Implementar Auditorías Algorítmicas Periódicas: realizar evaluaciones técnicas y éticas continuas para detectar y corregir sesgos, errores y prácticas discriminatorias, asegurando la conformidad con la normativa vigente y promoviendo la confianza en la tecnología.
- Garantizar la intervención humana: establecer mecanismos claros para que cualquier decisión relevante tomada por sistemas automatizados pueda ser revisada y validada por un responsable, fortaleciendo derechos de contradicción y defensa de los trabajadores.
- Mejorar la formación y la alfabetización digital en las empresas: capacitar a empleadores, trabajadores y órganos de control en los fundamentos técnicos, legales y éticos de la IA es clave para prevenir el mal uso de estas herramientas.
- Disponer de mecanismos de trazabilidad y documentación: mantener registros detallados (Art. 12 del Reglamento de Inteligencia Artificial) de cómo se utiliza el sistema, los datos de entrada y las decisiones generadas, con el fin de poder cumplir con el derecho a la explicación en caso de impugnación de una decisión automatizada.
- Reforzar la supervisión y la aplicación efectiva de las sanciones: potenciar las autoridades nacionales de supervisión, como la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), dotándolas de recursos y competencias para vigilar eficazmente el cumplimiento y sancionar incumplimientos graves.
Estas medidas contribuirán, sin lugar a dudas, a consolidar un equilibrio entre innovación tecnológica y respeto por los derechos laborales, favoreciendo un mercado de trabajo justo, inclusivo y preparado para el futuro digital.