À partir du 2 février 2025, tout employeur européen devra prendre des mesures pour garantir que son personnel, ainsi que toute personne exploitant ou utilisant des systèmes d’intelligence artificielle (IA) en son nom, possède des connaissances suffisantes sur l’IA. De plus, les systèmes d’IA interdits devront être retirés du marché et/ou leur utilisation devra être stoppée avant cette même date. Bien que le cadre national d’application des amendes ne soit prévu que pour le 2 août 2025, il est préférable de ne pas attendre.
SD Worx vous donne des explications et des conseils.
Valérie t’Serstevens, experte juridique chez SD Worx : « D’ici le dimanche 2 février, toutes les organisations belges devront également avoir une politique en matière d’IA et sensibiliser leurs collaborateurs aux possibilités (autorisées) et aux dangers pour l’organisation. Peu de gens sont conscients qu’une directive européenne entrera progressivement en vigueur pour tous les employeurs à partir du 2 février. Dans ce cadre, chaque régulateur national doit veiller à l’application de ces règles, y compris par le biais d’amende, dont le montant précis sera connu à partir du 2 août 2025. Nous ne conseillons pas d’attendre jusque-là, car les amendes peuvent s’appliquer rétroactivement. »
L’intelligence artificielle (IA) évolue à un rythme effréné. Bien qu’elle apporte de nombreux avantages économiques et sociaux, elle implique également des risques. Avec le règlement sur l’intelligence artificielle (AI Act), l’Europe veut créer un cadre juridique uniforme pour :
Une maîtrise suffisante de l’IA concerne les aptitudes, les connaissances et la compréhension nécessaire à toute personne de l’organisation impliquée dans les systèmes d’IA, pour les utiliser de manière informée et être conscient des opportunités, risques et éventuels préjudices liés à l’IA.
« La maîtrise de l’IA ne signifie donc pas que chaque travailleur doit tout savoir sur l’IA. Il s’agit de veiller à ce que toute personne impliquée dans les systèmes d’IA au sein de l’organisation dispose des connaissances et des aptitudes nécessaires pour prendre des décisions éclairées et reconnaître les risques et dommages potentiels », explique Valérie t’Serstevens.
Tous les employeurs doivent prendre des mesures pour assurer un niveau suffisant de maîtrise de l’IA parmi leur personnel et toute autre personne exploitant ou utilisant des systèmes d’IA en leur nom. Cela concerne tous les collaborateurs impliqués dans les systèmes d’IA, des fournisseurs aux utilisateurs finaux : ils doivent développer ces aptitudes, connaissances et compréhension. Il ne s’agit donc pas uniquement des équipes IT.
La législation concernant l'IA n’impose pas de mesures spécifiques pour assurer la montée en compétence en matière d’IA. Les employeurs doivent tenir compte des connaissances techniques, de l’expérience, de l’éducation, de la formation de ces personnes, du contexte dans lequel les systèmes d’IA seront utilisés et des personnes ou groupes de personnes ciblés par ces systèmes d’IA.
« L’employeur peut définir lui-même les connaissances et aptitudes dont les personnes concernées ont besoin et la manière dont elles acquièrent ces connaissances. Par exemple : une formation générale sur l’IA avec des connaissances de base, adaptée à différentes cibles (qu’est-ce que l’IA, ses limites, comment reconnaître et prévenir les risques, etc.). Il peut s’agir aussi de cours spécifiques axés sur des outils et des applications spécifiques. Une collaboration entre les équipes juridiques et techniques peut également être utile. »
L’employeur doit établir des directives claires en ce qui concerne l’utilisation de l’IA au sein de son organisation. Dans une politique d’IA, un employeur peut notamment indiquer quelles applications peuvent être utilisées par qui et de quelle manière.
« Cette politique, peut également inclure des procédures pour garantir une culture continue de l’IA chez les travailleurs et sous-traitants. Par exemple, que faire en cas de changements dans l’organisation ou dans les outils. En effet, la maîtrise de l’IA n’est pas une donnée statique : lorsqu’un collaborateur change de fonction ou utilise de nouveaux outils, vous devez, en tant qu’employeur, veiller à ce que le collaborateur reste suffisamment formé en matière d’IA. », prévient Valérie t’Serstevens.
À partir du 2 février 2025, l’AI Act interdira une série d’applications d’IA qui sont contraires aux normes et valeurs européennes fondamentales, par exemple en raison d’une violation des droits fondamentaux. Les systèmes d’IA suivants sont notamment interdits :
Les employeurs doivent identifier les systèmes d’IA interdits qu’ils utilisent afin de pouvoir y mettre un terme avant le 2 février 2025. À partir du 2 août 2025, les organisations qui développent ou utilisent de l’IA interdite risquent des amendes élevées, pouvant grimper jusqu’à 35 millions d’euros ou, si le contrevenant est une entreprise, 7 % de son chiffre d’affaires annuel mondial total, selon le montant le plus élevé.
Les entreprises ne veulent pas risquer de recevoir des plaintes concernant l’utilisation de l’IA par leurs collaborateurs, car les amendes ne sont pas modérées en cas d’infractions graves : jusqu’à 35 millions d’euros, voire jusqu’à 7 % du chiffre d’affaires mondial d’un employeur.Valérie t’Serstevens, Consultante, SD Worx