Generalitat sanciona Amazon per ocultar com funciona la IA de control laboral

La Generalitat de Catalunya ha sancionat Amazon per manca de transparència en el funcionament de l’algoritme que controla la productivitat dels treballadors al seu centre logístic del Prat de Llobregat. Es tracta de la primera sanció d’aquest tipus a Espanya i marca un precedent en el control dels sistemes automatitzats de gestió laboral en el context de l’economia digital.
La inspecció de treball es va dur a terme a finals de 2024, arran d’una denúncia dels delegats sindicals en matèria de prevenció de riscos laborals. Aquests representants van reclamar accés a la informació sobre els criteris amb què l’algoritme avaluava la rendibilitat i eficiència dels més de 2.000 empleats del centre, una de les instal·lacions més grans de la multinacional al país. Amazon, però, va rebutjar facilitar aquesta informació, vulnerant segons l’Administració autonòmica els drets reconeguts en el marc legal actual.
Durant la macroinspecció, en la qual van participar els experts en informàtica de la Generalitat, es van detectar diverses infraccions vinculades a la gestió automatitzada de la jornada laboral. L’algoritme objecte de la investigació regula no només els ritmes de treball, sinó també aspectes tan concrets com la distribució dels descansos, la durada i freqüència de les pauses per anar al bany i la fixació dels horaris. Aquest control automatitzat s’aplica sense que els representants dels treballadors hagin pogut conèixer amb claredat els criteris ni els pesos que el sistema assigna a cada tasca o interrupció. Les sancions derivades de la inspecció podrien ascendir a prop de 100.000 euros, una xifra simbòlica per a una empresa de l’envergadura d’Amazon, però amb un pes jurídic i social significatiu.
La base legal d’aquesta actuació es troba en la reforma de l’Estatut dels Treballadors derivada de la coneguda com a Llei Rider, aprovada el 2021 per regular l’impacte de les plataformes digitals en el mercat laboral. En concret, l’article 64.4 incorpora el dret dels comitès d’empresa a rebre informació sobre els algoritmes o sistemes d’intel·ligència artificial que intervenen en la presa de decisions amb conseqüències laborals. Aquesta obligació inclou l’explicació dels paràmetres, normes i instruccions que condicionen l’accés a la feina, la seva continuïtat i les condicions en què es desenvolupa.
L’incompliment d’aquest requeriment per part d’Amazon ha estat determinat per la Inspecció de Treball com una vulneració dels drets d’informació dels representants laborals. El cas del Prat de Llobregat podria convertir-se en un referent per a futures accions sobre l’ús d’algoritmes en la gestió de recursos humans, un àmbit que encara presenta grans zones d’ombra i planteja nous desafiaments legals i ètics en el marc laboral contemporani.
La Generalitat com a autoritat de control necessari
La Generalitat de Catalunya exerceix un paper fonamental com a autoritat de control en l’ús ètic i responsable de la intel·ligència artificial (IA) dins el seu àmbit de competències. Aquesta funció, que esdevé cada cop més rellevant davant l’expansió de sistemes automatitzats en l’àmbit laboral, administratiu i econòmic, posiciona la institució com un actor clau per garantir que l’aplicació de la tecnologia respecti els drets fonamentals, la transparència i la protecció de dades.
Disposa de mecanismes legals, tècnics i humans per supervisar l’ús que persones, empreses i institucions públiques fan dels sistemes intel·ligents. La sanció imposada recentment a Amazon per la manca de transparència en el funcionament de l’algoritme que mesura la productivitat dels treballadors del seu centre logístic al Prat de Llobregat evidencia com la Generalitat està preparada per actuar davant vulneracions que impliquin tecnologies avançades.
Els riscos derivats d’un ús indegut o opac de la IA poden ser múltiples. En l’àmbit laboral, per exemple, els algoritmes poden prendre decisions que afectin la jornada, els descansos o fins i tot l’accés i la continuïtat d’un lloc de treball, sense cap supervisió humana clara ni explicació sobre els criteris emprats. Aquesta situació pot derivar en vulneracions dels drets dels treballadors, com ha quedat evidenciat en casos d’empreses que assignen tasques, controlen ritmes de producció o valoren rendiment mitjançant sistemes automatitzats que els comitès d’empresa no poden auditar.
En el sector públic també es poden produir disfuncions si s’automatitzen processos d’adjudicació d’ajuts, valoracions mèdiques o assignació de recursos sense la deguda supervisió. Una IA aplicada en la gestió de serveis socials, per exemple, pot generar biaixos si es basa en dades incompletes, entrenaments fraudulents o criteris mal definits. En aquests casos, la intervenció de la Generalitat és clau per revisar l’impacte real dels sistemes i garantir que compleixin amb els principis de no discriminació, proporcionalitat i justícia.
Les sancions poden variar en funció de la gravetat i la naturalesa de les infraccions. A més de multes econòmiques, la Generalitat pot dictar requeriments d’ajustament o iniciar processos legals en col·laboració amb altres institucions com l’Autoritat Catalana de Protecció de Dades. Aquesta capacitat d’actuació no només protegeix les persones, sinó que també ofereix un marc clar per a les empreses que volen desenvolupar tecnologia amb seguretat jurídica i confiança ciutadana.
No tot s’hi val
El Reglament Europeu d’Intel·ligència Artificial (IA Act), defineix amb claredat les obligacions en l’ús d’aquestes noves tecnologies. En aquest escenari, la Generalitat és l’autoritat competent en determinats àmbits, com a garant de l’equilibri entre innovació tecnològica i respecte als drets. La societat digital del present i del futur exigeix institucions capaces d’entendre la complexitat de l’univers de la intel·ligència artificial i actuar amb criteri, autonomia i coneixement. En aquest context, la Generalitat de Catalunya exerceix un control necessari per respondre als reptes des d’una perspectiva de justícia, ètica i interès públic.
Més informació:
Estratègia d’Intel·ligència Artificial de Catalunya