En este post intentamos resumir los aspectos fundamentales de la Guía de España sobre algoritmos en el ámbito laboral. Cada vez es más habitual que las empresas usen algoritmos o sistemas de inteligencia artificial (IA) para la toma de decisiones automatizada en el ámbito laboral. Por ejemplo, en materia de contrataciones, determinación de horarios, evaluación de rendimiento, control de productividad, ascensos o despidos. En muchas ocasiones, los trabajadores o los candidatos a un puesto de empleo desconocen el uso de algoritmos y creen que las decisiones son tomadas por humanos.
La proliferación del uso de tecnologías inteligentes y sistemas de decisión automatizada puede provocar riesgos para los derechos fundamentales de las personas trabajadoras. Entre ellos, los que tienen que ver con la privacidad, la protección de datos personales, la igualdad o la seguridad y salud laboral. En España, la normativa vigente establece obligaciones empresariales de información. El objetivo es que las personas afectadas sepan que sus datos están siendo tratados de forma automatizada y que ciertos elementos de su relación laboral, como contratación, condiciones laborales o despidos, dependen de un algoritmo.
Guía de España y algoritmos en el ámbito laboral
Por ello, en mayo de este año el Ministerio de Trabajo y Economía Social aprobó una “Guía práctica y herramienta sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral”. El objetivo de la guía es reunir en un único documento las obligaciones y derechos existentes en materia de información algorítmica en el ordenamiento jurídico-laboral español. La Guía incluye una herramienta que pretende concretar y sistematizar las obligaciones de información ante el uso de algoritmos y sistemas de decisión automatizada en el ámbito laboral.
Integración de Blockchain e Inteligencia Artificial desde la perspectiva de la ética
Un algoritmo puede definirse como un conjunto ordenado y finito de operaciones o reglas que permite hallar la solución de un problema, que puede implementarse o no a través de programas informáticos. A su vez, un sistema de decisión automatizada es un proceso automatizado mediante el uso de datos y algoritmos para optimizar la toma de una decisión. Un sistema de decisión automatizada puede estar compuesto de uno o varios algoritmos.
Resumida y simplificadamente, existen dos modalidades de sistemas de decisión automatizada. Los que han sido programados de forma más o menos explícita, en la que la persona programadora escribe una serie de reglas explícitas que el sistema seguirá para tomar decisiones. Los segundos son los sistemas de decisión automatizada que aprenden estas reglas de forma implícita a partir del análisis de datos, para identificar patrones estadísticos y tomar decisiones automatizadas en atención a dichos patrones.
Presentes en muchos ámbitos
Algunas técnicas estadísticas o de IA producen modelos denominados de caja negra, que generan algoritmos o modelos cuyos procedimientos, lógicas y variables no son inmediatamente evidentes o conocibles.
La IA, algoritmos y sistemas de decisión automatizada se encuentran presentes en muchos ámbitos y etapas de la gestión de personas:
– Selección y contratación de personas, mediante productos que integran todo el proceso en una única herramienta o en alguna de sus fases:
(i) Fase de selección, por ejemplo, publicación segmentada de la oferta de empleo en redes sociales o plataformas o procesamiento de currículums vitae
(ii) Fase de preselección u ordenación de personas candidatas
(iii) Fase de la entrevista de trabajo: chatbots para ampliar información o sistemas de reconocimiento facial o test psicotécnicos para generar más indicadores de la persona
(iv) Fase de contratación. Por ejemplo, modelos predictivos para personalizar la oferta salarial
– Monitorización y vigilancia en el ámbito laboral, mediante sistemas de reconocimiento facial, tecnologías wearables, teléfonos inteligentes o el tratamiento de datos disponibles en redes sociales.
– Dirección y gestión del trabajo, mediante el uso de sistemas de decisión automatizada para la asignación de tareas, fijación de horarios, determinación del salario, control de la productividad, evaluación de rendimiento, promociones, despidos, etc
Posteriormente, la Guía presenta cómo se diseña y construye un sistema de decisión automatizada.
Obligación empresarial de información algorítmica
En la actualidad, la normativa vigente en España incluye dos planes de derechos de información en materia del uso de algoritmos o sistemas de decisión automatizada en la relación laboral.
Resumidamente:
1) Un plano individual amparado en el artículo 22 del Reglamento General de Protección de Datos (RGPD). Incluye la obligación de información en favor de las personas trabajadoras sujetas a decisiones íntegramente automatizadas, incorporando la elaboración de perfiles, sin intervención humana.
Inteligencia artificial y blockchain, el duo que cambiará el consumo, la salud y el 5G
2) Un plano colectivo regulado por el artículo 64 ET. Incorpora obligaciones de información en favor de la representación legal de la plantilla en materia del uso de «algoritmos o sistemas de IA que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles».
Todas las empresas que tengan personas asalariadas a su cargo y utilicen algoritmos o sistemas de decisión automatizada para la gestión de personas tienen obligación de información algorítmica. Aquí se incluyen las decisiones de selección, contratación, asignación de horarios, tareas, medición de productividad, promociones, fijación de salarios o despidos.
Obligación de negociar el algoritmo
En la Guía también se precisan los distintos tipos de información algorítmica que deben suministrar las empresas. Asimismo, se detalla qué algoritmos y decisiones deben suministrarse. Finalmente, a quién y cuándo debe facilitarse la información.
Como norma general, no existe la obligación de negociar el algoritmo con la representación legal de la plantilla. Sin embargo, es posible que el Estatuto de los Trabajadores sea objeto de mejoras por la negociación colectiva. Por ejemplo, introduciendo la obligación de la empresa de no solo informar, también negociar con la representación legal de la plantilla las variables, parámetros u otras características del algoritmo o sistema de decisión automatizada.
Por una tecnología blockchain cívica y comprometida con la sociedad
También el convenio colectivo podría introducir el test del uso responsable, en el caso de que el uso de algoritmos pueda afectar al empleo. Por ejemplo, con el empleo progresivo de robótica. Sin perjuicio de la ausencia de una obligación general de negociar el algoritmo, es importante precisar que sí existe tal obligación de negociación cuando el algoritmo es utilizado en el marco de un despido colectivo para, por ejemplo, determinar las personas afectadas por el despido.
Evaluación de impacto y auditoría algorítmica
La empresa tiene la obligación de realizar una evaluación de impacto. Existen, al menos, dos supuestos donde el uso de algoritmos en la empresa encaja en la obligación de evaluar el impacto:
1) Tratamientos que impliquen la toma de decisiones automatizadas o que contribuyan en gran medida a la toma de tales decisiones. Se incluye cualquier tipo de decisión que impida a una persona el ejercicio de un derecho o el acceso a un bien o un servicio o formar parte de un contrato.
2) Tratamientos que impliquen la utilización de nuevas tecnologías o un uso innovador de tecnologías consolidadas. Se incluye la utilización de tecnologías a una nueva escala, con un nuevo objetivo o combinadas con otras. De forma que suponga nuevas formas de recogida y utilización de datos con riesgo para los derechos y libertades de las personas.
La evaluación de impacto es obligatoria en la medida que el tratamiento de datos de la empresa suponga un alto riesgo debido al uso de nuevas tecnologías para los derechos de la persona trabajadora (artículo 35 RGPD). Como norma general, no es obligatorio realizar una auditoría algorítmica. Sin embargo, en la medida que el empleo de algoritmos pueda afectar a la seguridad y a la salud de las personas trabajadoras, dicha tecnología podría formar parte de la auditoría en materia de riesgos laborales.
Plan de Igualdad
En el contexto de un diagnóstico para la elaboración de un Plan de Igualdad, la empresa debe incluir en el diagnóstico el impacto o los efectos en materia de igualdad entre mujeres y hombres de los algoritmos y sistemas de decisión automatizada utilizados en la empresa. La empresa podría demostrar una mayor diligencia para proteger los derechos fundamentales de las personas trabajadoras, introduciendo la metodología de auditoría o compliance en la gestión algorítmica de las relaciones laborales.
La guía incluye una herramienta para cumplir con la obligación de información algorítmica. La cual, siguiendo el análisis de la regulación incluido en la misma, pretende concretar y sistematizar las obligaciones empresariales de información a las personas trabajadoras y a la representación legal de la plantilla. El objetivo es conocer las características y detalles técnicos más relevantes para entender la lógica y funcionamiento del algoritmo.
La herramienta trata temas de información general sobre el uso de algoritmos o sistemas de IA para tomar decisiones automatizadas. La información sobre la lógica y funcionamiento de cada algoritmo usado, la información sobre las consecuencias que pueden derivarse de la decisión automatizada o del uso del algoritmo. Así como cualquier otra información relevante para la representación legal de la plantilla.
Tribunal de Bolonia
La nueva guía de España sobre la obligación empresarial de información sobre el uso de algoritmos en el ámbito laboral pretende ofrecer a trabajadores y empresas una herramienta para medir el origen, procedencia, posibles sesgos y grado de impacto de una solución tecnológica automatizada en la organización del trabajo.
El documento incide en la importancia de que la intervención humana sea constante en cada una de las decisiones. No solamente en alguna parte o en el final del proceso. Para evitar que en ningún momento de la cadena se produzca un sesgo o discriminación involuntario.
Además de una herramienta para ayudar a los trabajadores a defender sus derechos, puede servir de referencia para las compañías que compran algoritmos diseñados por otras. El uso de algoritmos e IA continuará potenciándose no sólo en el ámbito laboral, también en muchos otros.
De hecho, tal y como quedó plasmado en una sentencia del Tribunal de Bolonia ya se están dando discriminaciones y sesgos en la utilización de esta nueva tecnología. El Tribunal dictaminó como discriminatorio el algoritmo que utiliza la aplicación europea de entrega de alimentos Deliveroo para ofrecer turnos a los trabajadores (riders).
Derechos de los ciudadanos
Por ello, resulta vital que en el diseño, desarrollo, aplicación y auditoría de los algoritmos siempre se respeten los derechos fundamentales de los ciudadanos. Los algoritmos se basan en modelos de IA de aprendizaje automático y requieren una evaluación periódica. Solo así podrá garantizarse que no hayan introducido sesgos nuevos e inesperados en su propia toma de decisiones durante el autoaprendizaje.
Es importante destacar que los algoritmos siempre están sujetos a revisión judicial, pero muchos países aún no cuentan con una legislación que proteja debidamente los derechos y garantías de los ciudadanos. Por ello, iniciativas como la de España son un gran comienzo para asuntos complejos, pero reales. Puedes encontrar información aquí.
También puedes seguirnos en nuestros canales de Telegram y Twitter
- La UE busca un marco legal para la responsabilidad civil de la IA - 25 noviembre, 2024
- Kit de herramientas del G7 para la IA en sector público - 25 octubre, 2024
- Lo que deben hacer los contribuyentes con sus criptoactivos, según OCDE - 14 octubre, 2024