• FR
  • NL
  • EN

Comment l’IA impacte les relations de travail et quelles sont les obligations de l’employeur y afférentes ?

Depuis déjà 2014-2025 aux Etats-Unis, l’intelligence artificielle (IA) est rentrée dans les us et coutumes au sein des entreprises (Google, Amazon, etc). Si aujourd’hui, l’IA Act fait beaucoup de bruits, il s’avère en réalité que l’usage de l’IA est déjà sur le marché depuis 10 ans.

Légiférer sur cette matière est devenu essentiel suite à l’accessibilité croissante de toute sorte de logiciels d’IA sur le marché européen, tels que ChatGPT, Perplexity, les chatbots, etc.

L’intelligence artificielle (IA) s’invite désormais dans la gestion des ressources humaines : du recrutement à la fin de la relation de travail, elle promet efficacité et objectivité… mais soulève aussi d’importantes questions juridiques.

L’IA Act, le RGPD, les CCT n° 9 et n° 39 imposent un cadre légal que tout employeur doit désormais maitriser.


Cet article est rédigé dans le cadre de la diffusion du Tax TV show du mois d'octobre 2025, disponible sur offfcourse.be.



1. Dans quelles situations l’employeur peut-il utiliser l’IA ?

Concrètement, les employeurs peuvent aujourd’hui utiliser les outils d’IA à toutes les étapes de la relation de travail :

  • Dans la phase du recrutement : sur le marché, il apparait que l’IA peut être utilisée de deux manières différentes :
    • L’analyse des candidats : certaines IA permettent le tri automatisé des CV, l’analyse de vidéos d’entretien (expressions faciales, discours), chatbot d’accueil ou de présélection ;
    • L’analyse prédictive : certaines IA permettent de générer des données sur base des données confiées par les candidats sur leur éducation, leur situation familiale, afin d’établir un profil type de travailleur qui convient le mieux à l’employeur ;
  • Durant l’exécution du contrat de travail : les employeurs peuvent être amené à utiliser l’IA dans la gestion du personnel, ce qui se fait à deux niveaux :
    • L’évaluation et la surveillance de la performance du travailleur : certaines IA permettent l’attribution automatique des tâches, évaluation de la performance et des heures effectuées par le travailleur, le contrôle du télétravail, etc ;
    • L’impact sur le bien-être au travail : certaines IA permettent aux employeurs d’être plus actifs quant à la prévention des risques psychosociaux, en rendant certains process plus efficaces mais également en effectuant certaines tâches plus stressantes, ou en détectant des anomalies, réduisant ainsi le risque d’accident du travail, etc.
  • Fin de la relation de travail : les employeurs peuvent être amené à utiliser l’IA afin de gérer la rupture de la relation de travail, ce qui peut se faire à deux niveaux :
    • La génération des documents de rupture : certaines IA permettent de générer automatiquement des lettres de licenciement, etc ;
    • L’aide à la prise de décision : certaines IA permettent de prendre des décisions sur base de rapports de performance générés sur le travail exécuté par le travailleur, etc ;

Les usages de l’IA sont désormais multiples et peuvent faire partie des pratiques des entreprises dans la gestion de son personnel à de multiples égards et de manière répétées.


2. Définition et classification des systèmes d’IA selon le risque

A. Définition

Le Règlement UE 2024/1689 établissant des règles harmonisées concernant l’intelligence artificielle (dénommé « IA Act »), est entrée en vigueur le 1er août 2024 et a établi une entrée en vigueur des obligations de manière granulaire à partir de l’année 2025.

L’IA Act définit un système d’IA comme : « un système automatisé conçu pour fonctionner à différents niveaux d’autonomie et faire preuve d’une capacité d’adaptation après son déploiement, qui génère des prédictions, des recommandations ou des décisions influençant des environnements physiques ou virtuels ».

De manière inhabituelle, la définition de l’IA n’est pas si importante en ce que le champ d’application du Règlement ne vise pas tant à définir les systèmes mais plutôt à encadrer les résultats qui émanent de logiciels ayant les caractéristiques visées par la définition.

B. Les niveaux de risques définis

Les systèmes d’IA sont classés en fonction le niveau de risque qu’ils représentent. L’IA Act définit quatre niveaux de risque, entraînant des obligations croissantes :

Catégorie d’IA

Exemples d’IA en droit du travail

Régime juridique

Risque inacceptable

Notation sociale, manipulation subliminale, reconnaissance d’émotions sur le lieu de travail, catégorisation biométrique liée à la religion, à l’orientation sexuelle ou aux opinions politiques.

Interdiction totale

depuis le 2 février 2025

Haut risque

Recrutement, évaluation, attribution de tâches, promotion, licenciement, surveillance des performances.

Encadrement strict : évaluation de conformité, transparence, contrôle humain, formation du personnel.

Risque limité

Chatbots RH, assistants virtuels.

Obligation de transparence : informer l’utilisateur qu’il interagit avec une IA et offrir une alternative humaine.

Risque minimal

Filtres anti-spam, outils bureautiques d’assistance.

Pas d’obligation spécifique.


3. L’appartenance des pratiques RH au regard des niveaux de risques

A. La vision de l’IA Act

L’IA Act a bien compris l’impact que ces usages peuvent avoir sur les relations professionnelles et c’est la raison pour laquelle le considérant 57 prévoit que :

« Les systèmes d’IA utilisés pour des questions liées à l’emploi, à la gestion de la main-d’œuvre et à l’accès à l’emploi indépendant, en particulier pour le recrutement et la sélection de personnes, pour la prise de décisions affectant les conditions des relations professionnelles, ainsi que la promotion et la résiliation des relations professionnelles contractuelles, pour l’attribution de tâches fondée sur le comportement individuel, les traits de personnalité ou les caractéristiques personnelles et pour le suivi ou l’évaluation des personnes dans le cadre de relations professionnelles contractuelles, devraient également être classés comme étant à haut risque car ces systèmes peuvent avoir une incidence considérable sur les perspectives de carrière et les moyens de subsistance de ces personnes ainsi que sur les droits des travailleurs. (…) » (je souligne).

B. La correspondance des pratiques au regard du niveau de risque

Les pratiques RH peuvent être classées selon les catégories de risque suivantes :

Pratique RH fondée sur l’IA

Catégorie de risque

Raison

Tri automatisé des candidatures, scoring de CV

Haut risque

Impact sur l’accès à l’emploi et risque de discrimination.

Reconnaissance faciale ou émotionnelle pendant les entretiens

Risque inacceptable

Atteinte à la vie privée et dignité humaine.

Attribution de tâches via un algorithme d’évaluation comportementale

Haut risque

Décision affectant les conditions de travail.

Chatbot RH informatif

Risque limité

Obligation d’informer l’utilisateur qu’il parle à une machine.

Outil de génération automatique de documents internes

Risque minimal

Usage administratif sans impact direct sur les droits.

C. La possibilité de limiter les risques

Les IA influençant la gestion RH appartiennent généralement à la catégorie “haut risque” car ils influencent directement la carrière et les droits fondamentaux des travailleurs, sauf si l’IA répond aux conditions suivantes :

Il n’y a pas de haut risque lorsque le système d’IA « ne présente pas de risque important de préjudice pour la santé, la sécurité ou les droits fondamentaux des personnes physiques, y compris en n’ayant pas d’incidence significative sur le résultat de la prise de décision.

Le premier alinéa s’applique lorsqu’une des conditions suivantes est remplie :

  • a) le système d’IA est destiné à accomplir un tâche procédurale étroite ;
  • b) le système d’IA est destiné à améliorer le résultat d’une activité humaine préalablement réalisée ;
  • c) le système d’IA est destiné à détecter les constantes en matière de prise de décision ou les écarts par rapport aux constantes habituelles antérieures et n’est pas destiné à se substituer à l’évaluation humaine préalablement réalisée, ni à influencer celle-ci, sans examen humain approprié ; ou
  • d) le système d’IA est destiné à exécuter une tâche préparatoire en vue d’une évaluation pertinente aux fins des cas d’utilisation visés à l’annexe III.

Nonobstant le premier alinéa, un système d’IA visé à l’annexe III est toujours considéré comme étant à haut risque lorsqu’il effectue un profilage de personnes physiques. »

C’est donc en fonction de l’usage qui est fait de l’IA et du résultat qu’il en ressort que les obligations sont déterminées.

Il est par ailleurs aisé de ne plus tomber dans la catégorie de « haut risque », notamment dès qu’il y a un examen humain approprié.


4. Quelles obligations pour l’employeur ?

Une fois que l’employeur détecte le risque attaché aux systèmes d’IA utilisés, il est soumis à plusieurs obligations en vertu de différentes réglementations :

A. En vertu de l’IA Act

L’employeur, en tant qu’utilisateur d’un système d’IA, doit :

Depuis le 2 février 2025 :

  1. Identifier le type de risque du système utilisé et interdire tout usage inacceptable ;

2. Former le personnel à la compréhension et à l’usage de l’IA pour qu’ils soient capables de comprendre l’impact de l’usage de l’IA, les risques y afférents et prendre des décisions en connaissance de cause ;

Depuis le 2 août 2025 : des obligations s’appliquent aux modèles d’IA à usage général (comme ChatGPT) en matière de transparence. Ceci étant, ces obligations ne s’appliquent pas de manière directe aux employeurs vis-à-vis de leur personnel.

A partir du 2 août 2026 : toutes les obligations pour les systèmes à haut risque seront pleinement applicables. Les employeurs qui utilisent des systèmes IA à haut risques devront notamment :

  1. Assurer un contrôle humain effectif et désigner les personnes formées et compétentes ;
  2. Prévoir une traçabilité et une documentation complète : journalisation, qualité des données, procédures de correction ;
  3. Soumettre le système à évaluation de conformité avant mise en service, si classé “haut risque” ;

B. En vertu du RGPD

L’IA traite souvent des données à caractère personnel, voire sensibles (opinions, santé, biométrie). L’employeur doit donc :

  1. Déterminer une base légale licite selon le RGPD (contrat, obligation légale ou intérêt légitime) ;
  2. Garantir la transparence (information claire sur les données collectées et leur finalité) ;
  3. Respecter la minimisation et la limitation des finalités (ne pas collecter plus que nécessaire) ;
  4. Garantir la sécurité et la confidentialité des données (chiffrement, contrôle d’accès, audit) ;
  5. Prévoir une intervention humaine dans toute décision automatisée ayant un effet juridique (article 22 RGPD) ;
  6. Réaliser une analyse d’impact (AIPD) pour tout traitement à haut risque ;

L’Autorité de protection des données recommande en outre de documenter la conformité et de tester régulièrement la loyauté et l’absence de biais.

C. C. En vertu de la CCT n° 9 et de la CCT n° 39 en droit belge

Selon la CCT n° 9, le conseil d’entreprise, des entreprises qui occupent en moyenne au moins 100 travailleurs, doit être informé des projets susceptibles de modifier la politique du personnel, y compris l’introduction d’un système d’IA pour le recrutement, la promotion ou l’évaluation.

Selon la CCT n° 39, si l’IA constitue une nouvelle technologie ayant des conséquences collectives importantes sur l’emploi ou les conditions de travail, l’employeur occupant habituellement en moyenne au moins 50 travailleurs doit :

    • fournir une information écrite préalable (nature, justification et conséquences sociales) ;
    • organiser une concertation avec les représentants du personnel ;
    • respecter un délai de trois mois avant la mise en œuvre.

Le non-respect de cette procédure empêche l’employeur de licencier les travailleurs concernés pour des motifs liés à l’introduction de la technologie.


5. En pratique : comment concilier innovation et conformité ?

Avant d’implanter un outil d’IA, l’employeur est invité à :

  1. Cartographier les usages de l’IA dans son organisation ;
  2. Évaluer le niveau de risque de chaque système ;
  3. Associer les organes de concertation (CE, CPPT, délégation syndicale) ;
  4. Informer et former les travailleurs concernés ;
  5. Rédiger une documentation de conformité (RGPD + IA Act) ;
  6. Prévoir un contrôle humain et des audits réguliers ;


6. Conclusion

L’intelligence artificielle peut être un puissant levier d’efficacité, mais elle ne peut remplacer ni la responsabilité ni le discernement humain.

L’IA Act, le RGPD et les CCT n° 9 et 39 forment un triptyque de régulation : sécurité, transparence et dialogue social.

L’employeur qui souhaite innover de manière durable devra donc conjuguer performance technologique et respect des droits fondamentaux.

Mots clés