L’usage de plus en plus généralisé de formes d’intelligence artificielle générative peut-il donner lieu à une sanction disciplinaire ou même à un licenciement?
La tentation peut être grande pour des employés d’utiliser une IA générative telle que ChatGPT pour s’aider dans leur travail, par exemple, pour explorer le code source d’une base de données en vue de déceler des erreurs, vérifier les lignes de codes d’un programme ou, plus simplement, préparer des documents de présentation ou d’explication à usage interne ou externe, voire pour résumer une réunion.
Ce faisant, l’employé peut cependant commettre une faute qui pourrait donner lieu à une sanction disciplinaire, voire à un licenciement pour motif grave, et cela, à plusieurs niveaux.
Premier problème, de loin le plus grave, l’usage de ChatGPT peut gravement porter atteinte à la confidentialité de données de l’employeur.
Les informations pourraient être réutilisées pour d’autres usages de ChatGPT éventuellement au profit de concurrents ou d’utilisateurs malveillants.
En effet, pour que l’IA puisse réaliser ses tâches, il faut l’alimenter en informations et lui donner accès à des documents, un programme ou des informations qui peuvent être de nature strictement confidentielle, voire constituer un secret d’affaires ou un secret de fabrication.
Non seulement ces informations vont transiter sur les serveurs d’OpenAI, la société qui a développé ChatGPT, mais, pire encore, ces informations seront réutilisées pour d’autres usages de ChatGPT éventuellement au profit de concurrents ou d’utilisateurs malveillants. En effet, OpenAI utilise toutes les requêtes des utilisateurs pour améliorer son programme et ses algorithmes.
Certes, il semble que l’une des versions futures de ChatGPT intègrera un espace personnel où ChatGPT ne conserverait pas la trace des informations collectées, mais ceci restera entièrement sous le contrôle de son développeur, ce que l’employeur n’acceptera sans doute pas.
Pour cette raison, de nombreuses entreprises telles que les banques JP Morgan et Barclays ou des entreprises IT telles que Samsung ont déjà interdit à leurs employés d’utiliser ChatGPT sur leur outil informatique et/ou avec leurs données.
Second problème, un employé est engagé pour accomplir une tâche déterminée en un temps déterminé.
Ce faisant, il démontre en quelque sorte à son employeur qu’il peut se passer de lui…
S’il délègue l’accomplissement de cette tâche à ChatGPT - par exemple pour la rédaction d’un communiqué de presse, la vérification d’un mémorandum, ou l’élaboration d’un contrat – l’employé manque à ses obligations sous le contrat de travail en ne fournissant pas "son" travail et à mon sens "trompe" l’employeur en lui délivrant ce qui n’est en réalité pas le fruit de son travail.
Sans compter qu’il n’accomplira éventuellement pas les heures de travail pour lesquelles il est payé… On passera aussi sur le fait que ce faisant, il démontre en quelque sorte à son employeur qu’il peut se passer de lui…
Troisième problème, la communication de données personnelles à ChatGPT peut violer les dispositions applicables en matière de vie privée et éventuellement justifier des plaintes de personnes tierces – par exemple, rédaction de courrier de licenciement reprenant des données personnelles des travailleurs concernés.
Ces manquements pourraient, à mon sens, justifier a minima une sanction disciplinaire, voire un licenciement pour motif grave selon les circonstances.
Évidemment, un employeur averti prendra soin de détailler dans ses politiques internes les règles applicables à l’usage d’une IA Générativeet tout particulièrement de prévoir dans le règlement de travail que la violation de ces règles pourrait justifier une sanction disciplinaire, voire un licenciement pour motif grave.
Par Christophe Delmarcelle, associé fondateur du cabinet DEL-Law et juge suppléant au tribunal du travail.
Article publié en tribune dans l'Echo du 7 juillet 2023