Silvia Arribas, abogada del Gabinete Jurídico Confederal de CGT
Todavía cuesta entender qué son los sistemas de inteligencia artificial o cómo funcionan, y ya son muchas empresas las que están introduciendo modelos que afectan a las condiciones de las trabajadoras. Apenas tenemos regulación en esta materia, y mucho menos tenemos un gran compendio de decisiones judiciales que se metan en harina, así que en este terreno debemos desarrollar nuestra actividad como abogadas y sindicalistas.
Pero empecemos por el principio: ¿qué es la inteligencia artificial (IA) y dónde se regula en España? El Reglamento de Inteligencia Artificial de la UE -RIA en adelante-, nos propone esta definición: la inteligencia artificial es aquel sistema basado en una máquina diseñado para funcionar con distintos niveles de autonomía, que puede mostrar capacidad de adaptación tras el despliegue y que, para objetivos explícitos o implícitos, infiere de la información de entrada que recibe, la manera de generar información de salida, como predicciones, contenidos, recomendaciones o decisiones, que puede influir en entornos físicos o virtuales. No obstante, si bien no podemos asimilar los conceptos de “inteligencia artificial” con “sistemas algorítmicos” o actuación automatizada, lo cierto es que sí existe una vinculación entre todos ellos en tanto que la primera se basa siempre en sistemas algorítmicos que almacenan e interpretan datos, y que además tiene capacidad de “aprendizaje” o de “autodesarrollo” que le permite funcionar con relativa autonomía (en lenguaje anglosajón, machine learning). Es decir, que mientras que todo sistema de inteligencia artificial se rige por sistemas algorítmicos, no todo sistema algorítmico se configura como inteligencia artificial en tanto que éste se conformaría como un conjunto de instrucciones o patrones dirigidos a realizar una determinada función previamente establecida.
La regulación legal de la inteligencia artificial y del uso de algoritmos
En el Estado español ya empiezan a asomar distintas normas que buscan la transparencia del funcionamiento de este sistema para proteger a los “usuarios” y a los “trabajadores” que están expuestos a este funcionamiento automatizado. Por un lado, tenemos el Reglamento General de Protección de Datos de la UE de 2016, que ha sido transpuesto por la Ley Orgánica de Protección de Datos del año 2018, el cual establece que todo interesado tendrá derecho a no ser objeto de una decisión basada únicamente en el tratamiento automatizado, incluida la elaboración de perfiles, que produzca efectos jurídicos en él o le afecte significativamente y que el interesado tendrá derecho a obtener del responsable del tratamiento, confirmación de si se están tratando o no datos personales que le conciernan y en tal caso, el derecho de acceso a los datos personales, lo que incluirá la información sobre la existencia de decisiones automatizadas, incluida la elaboración de perfiles. Asimismo, también establece que el afectado por estas decisiones tendrá el derecho a impugnar las decisiones.
Por otro lado, nos encontramos con la llamada “Ley Rider” del año 2021, que además de establecer una presunción de laboralidad para los repartidores de plataformas digitales también regula un derecho de información de la representación legal de las trabajadoras a ser informada por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y el mantenimiento del empleo, incluida la elaboración de perfiles.
Y ya por último y no menos importante, estamos pendientes de la publicación del Reglamento de Inteligencia Artificial de la Unión Europea, que con bastante seguridad ya se habrá producido cuando se publique este artículo. Esta normativa, que es de aplicación directa por los Estados miembros, impone algunas obligaciones de transparencia, seguridad y registro a quienes fabriquen, comercien o implanten sistemas de inteligencia artificial, especialmente aquellos considerados de “alto riesgo”.
Se considerarán sistemas de alto riesgo los que generen un posible riesgo sobre la salud, la seguridad o los derechos fundamentales, los sistemas de identificación biométrica (los que identifiquen personas sin su participación activa, recordando la prohibición existente para las fuerzas y cuerpos de seguridad mencionada antes), los empleados en gestión de infraestructuras críticas (como el tráfico, la electricidad o el agua), en educación y formación profesional (como gestión del acceso a la educación o planificación del desarrollo académico), en la selección de personal y gestión de las relaciones laborales, en la gestión del acceso de las personas a servicios esenciales públicos y privados (como beneficios sociales, servicios de emergencia, crédito o seguros), en actividades de fuerzas y cuerpos de seguridad (como valoración de pruebas o de sospechosos), en materia de migración, asilo y control de fronteras (como polígrafos, o valoración de solicitudes) así como en la administración de justicia y procesos democráticos.
En cuanto a la afectación para las trabajadoras, el reglamento recoge la obligación de los empresarios, antes de utilizar un sistema de IA, de informar a la representación de las trabajadoras afectadas de que estarán expuestas a la utilización del sistema de IA de alto riesgo.
La acción sindical ante la inteligencia artificial y los algoritmos
Planteadas estas cuestiones normativas quiero exponer algunas valoraciones e implicaciones políticas que podemos tener en cuenta para la actividad sindical y militante. En primer lugar, quiero señalar que la normativa española, a través del artículo 64.4 del Estatuto de los Trabajadores, impone a las empresas un deber de información a la representación de las trabajadoras sobre las reglas que rigen el funcionamiento de los distintos sistemas de inteligencia artificial que puedan afectar a las condiciones de la plantilla, pero sin embargo no se establece dicho derecho para aquellas trabajadoras que carezcan de representación en la empresa. Más pobre es la redacción del propio reglamento en cuanto a derechos de transparencia para las trabajadoras, pues lejos de recoger el derecho de la plantilla o de la representación legal de las trabajadoras de conocer cuáles son los parámetros y criterios con los que funciona el sistema de inteligencia artificial, se limita a recoger el derecho a ser informados por la empresa de que van a estar afectados por aquél. Y es que la competencia de la representación de las trabajadoras para conocer el código fuente, o los datos con los que se alimenta el sistema de inteligencia artificial es fundamental para poder fiscalizar el funcionamiento discriminatorio, que se presenta como neutral y objetivo.
En segundo lugar, me quiero centrar en los primeros artículos del Reglamento de Inteligencia Artificial de la Unión Europea que prohíben determinados usos de los sistemas de inteligencia artificial y detallan el ámbito de aplicación. Así, esta norma veta la introducción en el mercado o el uso de sistemas de inteligencia artificial para inferir las emociones de una persona en los lugares de trabajo y centros educativos (¡lógico!) para al mismo tiempo permitir que se use con esta finalidad por motivos médicos o de seguridad, amparándose en términos excesivamente vagos e indeterminados que van a afectar de forma muy intensa a los derechos fundamentales de pacientes, estudiantes, o personas investigadas o perseguidas por las fuerzas de seguridad o por instituciones judiciales.
El Reglamento también prohíbe el uso de sistemas de inteligencia artificial para la identificación biométrica en tiempo real en espacios de acceso público pero los permite para la “prevención de una amenaza específica, importante o inminente para la vida o la seguridad física de las personas o de una amenaza real y actual o real y previsible de un atentado terrorista”, así como también permitirá estos sistemas para la “localización o identificación de una persona sospechosa de haber cometido una infracción penal a fin de llevar a cabo una investigación penal”. Un inciso en este punto: si en general se prohíben los sistemas de categorización biométrica en tiempo real, pero se permiten con estas excepciones, ¿será que va a existir siempre la posibilidad práctica de que estos sistemas de reconocimiento biométrico estén funcionando en todo momento?
En tercer lugar, es necesario mencionar que el Reglamento, junto con sus garantías de transparencia y registro, no se aplicará a los sistemas de inteligencia artificial que se utilicen con fines militares y en defensa de la seguridad nacional, tanto si se han introducido en el mercado como si no, así como tampoco se aplicará en el marco de investigación y desarrollo científicos. Y es legítimo intuir que estas excepciones van a ser un verdadero riesgo para los derechos fundamentales de la militancia organizada, de las compañeras sindicalistas y antifascistas, de las estudiantes por Palestina o de los jóvenes que se organizan contra el cambio climático, porque no es infrecuente que el Ministerio Fiscal las categorice como amenazas para la seguridad nacional.
En cuarto lugar, quiero señalar el régimen sancionador que regula la norma europea donde se prevén multas para quienes usen sistemas de inteligencia artificial prohibidas de hasta 35 millones de euros, multas de 15 millones de euros para los operadores que incumplan el Reglamento y multas de 7,5 millones de euros para los operadores que proporcionen información falsa o inexacta sobre sus sistemas de inteligencia artificial.
Sin embargo, este régimen sancionador no contempla la posibilidad de que las infracciones puedan ocasionar la paralización del funcionamiento del sistema de inteligencia artificial, lo que a todas luces es una gran falla del Reglamento. Tan sólo nos encontramos con la obligación del responsable del despliegue (en este caso sería la propia empleadora) de paralizar el uso del sistema si considera que su uso supone un riesgo para la seguridad o para los derechos fundamentales.
En quinto y último lugar, hay que mencionar que este Reglamento, que no aventura grandes conquistas para las trabajadoras ni para las organizaciones sindicales, ni siquiera entra en vigor este 2024. Y matizo: la prohibición de uso de determinados sistemas de inteligencia artificial no entra en vigor hasta pasados seis meses de la publicación del Reglamento; las obligaciones para los operadores de sistemas de inteligencia artificial de alto riesgo no les vinculan hasta el transcurso de dos años. Por no hablar del vacío legal (vacatio legis) de los sistemas de inteligencia artificial ya implantados, que sólo se verán afectados por el Reglamento únicamente si, a partir de su publicación, dichos sistemas se ven sometidos a cambios significativos en su diseño.
En tal caso, los operadores adoptarán las medidas necesarias para cumplir los requisitos del Reglamento en el plazo de seis años desde la entrada en vigor. Por su parte, para los sistemas de inteligencia artificial de uso general (o los llamados “no de riesgo”), el Reglamento surtirá efectos transcurridos tres años, lo que evidencia que la Unión Europea quiere que las empresas tecnológicas cuenten con abultado margen para implantar sus sistemas sin control reglamentario.
Y es que no podemos obviar que el propio Reglamento reconoce que se ha promovido fundamentalmente para fomentar la implantación y desarrollo de sistemas de inteligencia artificial, por lo que se trata de una norma “mercantil” que busca dar salida a las demandas del sector tecnológico para que pueda operar en el mercado, asegurar el control patronal sobre sus trabajadores y el control de los Estados miembros sobre la seguridad nacional y, dicho sea de paso, el control fronterizo y la migración.
Pero no nos llevemos a engaño; la actividad sindical siempre se ha desarrollado en un marco legal desfavorable. Ni qué decir tiene que el Estatuto de los Trabajadores, como bien señala una gran compañera del Gabinete Jurídico de CGT, es en realidad el Estatuto del Empresario, en tanto que su finalidad es regularizar la explotación asalariada y las prácticas empresariales y dar una imagen de situación neutral o igualitaria entre el trabajador y el empresario.
También conocemos de cerca la Ley Orgánica de Libertad Sindical (LOLS) que recoge garantías y derechos fundamentalmente para los sindicatos mayoritarios a nivel estatal y autonómico, orillando los derechos de las fuerzas sindicales minoritarias en las empresas. Este es el tablero de juego que se nos ofrece desde las instituciones europeas y estatales y debemos conocer las reglas del juego muy de cerca y explorar las estrechas rendijas que presenta para poder exprimir la actividad sindical.
Así pues, según las previsiones del Reglamento de Inteligencia Artificial, el Reglamento General de Protección de Datos y el Estatuto de los Trabajadores, como representación de las personas trabajadoras podemos exigir que la empresa realice pruebas o ensayos antes de implantar definitivamente un sistema de IA, solicitar instrucciones de uso del sistema, comprobar la formación de la persona responsable del sistema, exigir la vigilancia humana para prevenir los riesgos de afectación a los derechos fundamentales, vigilar que las decisiones que afectan a la plantilla no están únicamente basadas en tratamientos automatizados, solicitar a la empresa los criterios por los que se rige el sistema de IA y en qué ámbitos concretos se aplica por la empresa, exigir protocolos y procedimientos claros para que cada trabajador pueda acceder a una explicación sobre una decisión por un algoritmo para impugnarla, exigir las previsiones de productividad y aumento de la productividad generada por la IA, conocer el nombre del importador, del proveedor, del comerciante y del responsable de desarrollo del sistema de IA, conocer qué datos está usando la IA y si son de carácter personal para fiscalizar si son adecuados y proporcionales para la finalidad que persigue la empresa. Igualmente podríamos solicitar información sobre el nombre del importador, el fabricante y distribuidor del sistema, así como la información depositada por éstos ante la autoridad laboral. Contamos también con la posibilidad de formular denuncias a la Inspección de Trabajo y también a la Agencia Española de Protección de Datos, así como a los futuros organismos con competencia en materia de inteligencia artificial.
Pero las organizaciones sindicales y la representación de las trabajadoras no debemos contentarnos con el marco jurídico que se nos impone, sino que debemos de ampliar nuestra actividad sindical e intensificar la vigilancia frente a las empresas, forzándolas a entregar información más vasta y detallada que la prevista legalmente, formando a la plantilla para defenderse y no esperar concesiones del Estado ni del empleador. Porque no se trata simplemente de ser competentes en materias como protección de datos o inteligencia artificial, sino de organizarnos frente al poder patronal que ahora toma formas más oscuras y opacas.
Este artículo se publicó en Libre Pensamiento nº 118. Verano 2024.