Comment les syndicats préparent les premières règles pour encadrer l’utilisation de l’IA

Comment les syndicats préparent les premières règles pour encadrer l’utilisation de l’IA

Dans de nombreuses entreprises, l’IA s’installe dans les outils RH, la relation client, la production et même l’évaluation des performances. Face à cette accélération, les syndicats cherchent à faire émerger des règles communes d’encadrement pour protéger le travail, sécuriser les décisions et éviter que la technologie ne contourne le dialogue social.

La multiplication des contentieux liés à l’absence de consultation des CSE rappelle que la question n’est plus théorique. Les annonces de réorganisations et de suppressions de postes attribuées à l’essor de l’intelligence artificielle ont replacé le sujet au centre des négociations collectives.

Syndicats et IA au travail : pourquoi les premières règles deviennent urgentes

Le déploiement d’outils d’intelligence artificielle touche désormais des actes concrets : tri de CV, scoring de performance, planification automatisée, surveillance des flux, ou assistance à la vente. Quand l’algorithme influence une promotion, une prime ou une sanction, la question du contrôle et de la preuve devient immédiate.

Dans une entreprise fictive mais réaliste, « Illogic Services », un module d’IA a réduit de moitié le temps de traitement des tickets support. En quelques mois, l’encadrement a proposé une baisse d’effectifs au motif d’un gain de productivité, sans expliciter les hypothèses du modèle ni les impacts sur la charge restante, déclenchant une contestation interne. L’insight est simple : sans règles, l’IA crée des décisions rapides, mais aussi des conflits rapides.

découvrez comment les syndicats élaborent les premières règles pour encadrer l'utilisation de l'intelligence artificielle au travail, assurant protection et équilibre pour les salariés.

Cette montée en tension se lit aussi dans le droit : l’obligation de consultation des représentants du personnel lors de l’introduction de nouveaux outils affectant l’organisation et les conditions de travail est régulièrement rappelée, et les litiges progressent quand les directions déploient des systèmes sans information suffisante. Pour situer le contexte, un état des lieux utile est accessible via un point sur le défi syndical face à l’IA.

Dialogue social et CSE : la consultation redevient un point de bascule

Sur le terrain, les élus CSE demandent moins des débats abstraits que des éléments vérifiables : finalité du dispositif, données utilisées, indicateurs surveillés, marges de manœuvre humaines. Sans ces informations, impossible d’évaluer les risques psychosociaux, les biais ou l’intensification du travail.

Un cas fréquent en 2025-2026 : des outils « d’aide à la décision » sont présentés comme non contraignants, puis deviennent de facto prescriptifs parce que les managers se reposent sur la recommandation. La phrase-clé qui s’impose dans les réunions est : qui porte la responsabilité quand l’outil « conseille » ?

Pour cadrer cette exigence, plusieurs analyses juridiques détaillent les obligations de transparence, de conformité et de documentation ; une synthèse sur l’encadrement en entreprise figure dans un éclairage sur l’encadrement juridique de l’IA en entreprise.

Accords collectifs sur l’IA : vers un cadre commun pour éviter l’hétérogénéité

Les confédérations constatent qu’il existe déjà quelques accords, souvent signés dans de grands groupes, mais que l’ensemble reste fragmenté. Des acteurs comme AXA, BPCE ou MetLife ont ouvert la voie en 2025 avec des textes cherchant un équilibre entre innovation et protection, sans pour autant harmoniser les pratiques du tissu de PME.

Dans cette logique, des organisations syndicales travaillent sur un « accord type » visant à réduire la dispersion des règles selon les entreprises. L’idée est de poser un socle national interprofessionnel, puis de laisser les branches et les établissements décliner en fonction des métiers, de l’exposition au risque et du niveau d’automatisation.

Ce que les syndicats veulent voir écrit : traçabilité, contrôle humain, et éthique opérationnelle

Dans les projets discutés, l’éthique n’est pas un slogan : elle se traduit par des engagements opposables. Par exemple, un droit de regard sur les critères de scoring, un audit des biais avant mise en production, et une procédure d’alerte lorsqu’un outil dégrade la qualité du travail ou la relation client.

Dans « Illogic Services », les représentants du personnel ont exigé qu’aucune décision individuelle (embauche, sanction, licenciement) ne soit prise sur la seule base d’un système automatisé. La direction a accepté, mais a dû préciser les modalités : qui valide, sur quels éléments, et avec quelle traçabilité ; c’est cette écriture concrète qui fait la différence.

Sur la place de l’IA générative dans les usages quotidiens (compte rendus, tracts, synthèses de réunions, préparation des négociations), les débats portent aussi sur la confidentialité et la propriété intellectuelle. Un cadrage pragmatique est détaillé dans des repères pour encadrer l’IA générative en entreprise.

Les discussions se déplacent alors vers un point sensible : comment articuler les règles internes et la conformité externe. C’est ici que la réglementation européenne sert de boussole, mais impose aussi des efforts de documentation nouveaux.

Réglementation et AI Act : comment les règles européennes pèsent sur le travail

Avec l’entrée en application progressive de l’AI Act, les entreprises doivent classer certains systèmes, documenter leur fonctionnement et gérer des exigences renforcées lorsqu’il s’agit d’usages à haut risque, notamment ceux touchant à l’emploi et à la gestion des personnes. Pour les syndicats, cela crée un levier : demander les éléments de conformité plutôt que de s’en tenir à des promesses.

Dans les négociations, un argument revient : si l’entreprise peut présenter un dossier complet à un régulateur ou à un client, elle doit pouvoir fournir un niveau d’information comparable aux représentants du personnel. Cette symétrie d’exigence devient un accélérateur de transparence.

Tableau de pilotage social : relier conformité, conditions de travail et négociations

Pour transformer la réglementation en pratiques de terrain, plusieurs équipes syndicales promeuvent des indicateurs simples, suivis en comité dédié. L’enjeu n’est pas de « tout mesurer », mais de suivre ce qui change réellement la vie au travail, et de l’inscrire dans les négociations.

Thème de règlesExigence attendue en entrepriseRisque si absentPreuve / document utile en CSE
TransparenceFinalité, périmètre, limites du système, critères utilisésDécisions incomprises, soupçons de discriminationNote de cadrage, documentation du modèle, description des variables
Contrôle humainValidation managériale tracée, droit de contestationAutomatisation de fait, responsabilité diluéeProcédure de validation, logs de décisions, circuit d’escalade
Données et confidentialitéMinimisation, durée de conservation, interdits d’usageFuite d’informations, surveillance excessiveRegistre des traitements, analyse d’impact, clauses fournisseurs
Santé au travailÉvaluation charge, intensification, qualité, RPSBurn-out, dégradation de service, turnoverIndicateurs QVCT, retours terrain, plan de prévention
CompétencesPlan de formation, temps dédié, évolution métiersDéclassement, fractures internes, erreurs opérationnellesPlan compétences, cartographie métiers, budget formation

Ce type de grille permet de relier l’encadrement à des pièces tangibles, ce qui limite les discussions stériles. Pour comprendre les catégories de risques et l’esprit du texte européen, un décryptage de l’AI Act sert souvent de référence partagée entre directions et élus.

À mesure que ces exigences se clarifient, un autre sujet devient central : la chaîne de sous-traitance et les fournisseurs, car beaucoup d’outils d’IA sont achetés « sur étagère ». La qualité des règles dépend alors autant du contrat que de la bonne volonté interne.

Encadrement de l’IA via les fournisseurs : contrats, audits et souveraineté des données

Dans les entreprises, l’IA arrive souvent par une suite logicielle RH, un outil de CRM ou un assistant de productivité hébergé dans le cloud. Les syndicats demandent donc que les règles s’appliquent aussi aux prestataires : droits d’audit, exigences de sécurité, localisation et accès aux données, modalités de mise à jour des modèles.

Dans « Illogic Services », un incident a joué un rôle déclencheur : une mise à jour du fournisseur a modifié la manière de prioriser les demandes clients, augmentant les conflits avec les équipes terrain. La direction a dû admettre qu’elle ne maîtrisait pas les paramètres fins ; l’insight final est direct : sans clause contractuelle, l’entreprise négocie après coup, quand le dommage est déjà là.

Pour élargir le cadre à des enjeux proches, y compris dans la sphère publique où la normalisation progresse, un rapport sur la réglementation de l’IA dans la fonction publique illustre la même recherche de règles applicables, documentées et contrôlables.

Franck Pélissier

En tant qu’analyste économique et financier, je décrypte les mécanismes profonds qui gouvernent nos économies, des politiques budgétaires aux structures des marchés. Mon parcours m’a conduit à travers l’enseignement, la finance institutionnelle et la réflexion macroéconomique, avec pour ambition de relier connaissances historiques et défis contemporains.