
L’intelligence artificielle n’est plus un sujet de laboratoire : elle est déjà dans les cabinets, les secrétariats sociaux, les services RH, les départements finance, les outils de facturation, les plateformes de support client, voire dans la production de documents et d’analyses. Le nouveau règlement européen sur l’IA (souvent appelé « AI Act ») vise précisément ces usages “quotidiens” : non seulement les entreprises qui développent des systèmes d’IA, mais aussi celles qui les déploient (utilisent) dans leurs processus.
Pour les experts-comptables et conseillers fiscaux, l’enjeu est double : (1) sécuriser l’usage de l’IA dans leurs propres organisations (outils internes, RH, relation client, production de livrables) ; (2) aider leurs clients à poser un cadre clair, proportionné et documenté, sans freiner l’innovation.
Très souvent, oui. Le champ couvert est large : un outil est concerné dès lors qu’il produit, à partir de données, des résultats “autonomes” (prévisions, recommandations, classements, décisions assistées). Le règlement ne vise pas seulement l’IA “générative” (texte, image), mais aussi les systèmes qui scorent, filtrent, trient, détectent, évaluent ou recommandent.
Exemples courants dans les PME et cabinets :
Que retenir ? Si un outil “conclut” ou “recommande” à partir de données, il mérite un examen AI Act, même s’il est vendu comme une simple fonctionnalité logicielle.
Le règlement organise l’essentiel des obligations autour du niveau de risque. La logique est simple : plus l’impact potentiel sur les personnes est élevé, plus les exigences sont strictes.
On retrouve classiquement :
Que retenir ? La première question n’est pas “quel outil IA ?”, mais “quel effet concret sur les personnes (travailleurs, candidats, clients) ?”.
Dans la plupart des cas, l’employeur (ou le cabinet) est déployeur : il utilise un système fourni par un éditeur (outil RH, IA générative en entreprise, automatisation comptable, etc.).
Vous devenez plus proche d’un rôle de “fournisseur” si, par exemple, vous :
Que retenir ? Être “déployeur” n’exonère pas : le règlement vous impose un cadre de déploiement responsable, proportionné au risque.
Sans prétendre à l’exhaustivité, un indicateur simple est le suivant : l’IA est “haut risque” lorsqu’elle influence une décision ayant un impact significatif sur une personne.
Exemples fréquents :
Que retenir ? Dès que l’outil aide à décider “qui est retenu / exclu / promu / refusé / surveillé”, il faut présumer un niveau de vigilance élevé.
Ces outils sont généralement traités comme risque limité (avec exigences de transparence), mais cela ne signifie pas “zéro risque”. Deux sujets dominent, très concrets en entreprise :
Si un collaborateur ou un client interagit avec un chatbot/assistant, il doit être clair qu’il s’agit d’un système d’IA (mention, information appropriée).
Même si l’AI Act vise d’abord la sécurité et les droits, la pratique impose de cadrer :
Que retenir ? L’IA générative n’est pas “hors AI Act”. Elle implique au minimum transparence + politique interne de bon usage.
Le règlement attend du déployeur une utilisation sûre, transparente et contrôlée, en fonction du risque. Dans un langage opérationnel, cela se traduit typiquement par :
Que retenir ? La conformité AI Act est d’abord une discipline de gouvernance (inventaire, règles, formation, contrôle), plus qu’un “dossier juridique” figé.
Parce que le cabinet est souvent :
Concrètement, vos clients vous demanderont :
Que retenir ? L’AI Act va créer une demande forte de “mise en ordre” pragmatique, comparable à ce que GDPR a déclenché : cartographie, procédures, preuves, réflexes.
Une approche réaliste en 30 jours (cabinet ou PME) :
Listez les outils (et modules) qui “décident/recommandent/filtrent”, y compris dans la suite Office, les CRM, ATS (recrutement), helpdesk, outils comptables.
Recrutement, évaluation, surveillance : ce sont les usages où le risque AI Act est le plus évident.
Ce que l’on peut / ne peut pas introduire ; quand un contrôle humain est obligatoire ; comment citer/justifier une source ; interdiction d’utiliser l’IA pour “inventer” un élément factuel.
Une session + une note interne + un quiz léger (preuve de sensibilisation).
Une adresse interne, un circuit de remontée, et un “stop button” (qui peut désactiver l’outil ou suspendre un usage).
Que retenir ? Le risque n’est pas de ne pas être parfait ; le risque est de ne pas être capable de montrer une démarche structurée et proportionnée.
Le règlement européen sur l’IA installe un principe clair : utiliser l’IA n’est pas interdit — mais c’est encadré, surtout quand cela touche aux personnes. Pour les employeurs, l’urgence n’est pas de “tout revoir”, mais de savoir où l’IA se trouve, à quel risque cela correspond, et quelles garanties humaines et organisationnelles sont en place.
Pour la profession, c’est aussi une opportunité : celle d’aider les entreprises à rester performantes sans perdre le contrôle, en transformant une contrainte réglementaire en amélioration concrète des processus.