Sanctionné ou licencié pour avoir utilisé ChatGPT ?

L’usage de plus en plus généralisé de ChatGPT ou d’autres formes d’intelligence artificielle générative telles que Bing ou Bard peut-il donner lieu à une sanction disciplinaire ou même à un licenciement avec ou sans motif grave par un employeur ?


C’est que la tentation peut être grande pour des employés d’utiliser une IA générative telle que ChatGPT pour s’aider dans leur travail par exemple pour explorer le code source d’une base de données en vue de déceler des erreurs, vérifier les lignes de codes d’un programme ou plus simplement préparer des documents de présentation ou d’explication à usage interne ou externe voire pour résumer une réunion.

Ce faisant, l’employé peut cependant commettre une faute qui pourrait donner lieu à une sanction disciplinaire voire même à un licenciement pour motif grave et cela à plusieurs niveaux.

Premier problème, de loin le plus grave, l’usage de ChatGPT peut gravement porter atteinte à la confidentialité de données de l’employeur. En effet, pour que l’IA puisse réaliser ses tâches il faut l’alimenter en informations et lui donner accès à des documents, un programme ou des informations qui peuvent être de nature strictement confidentielles voire constituer un secret d’affaire ou un secret de fabrication. Non seulement ces informations vont transiter sur les serveurs d’OpenAI la société qui a développé ChatGPT mais, pire encore, ces informations seront réutilisées pour d’autres usages de ChatGPT éventuellement au profit de concurrents ou d’utilisateurs malveillants. En effet, OpenAI utilise toutes les requêtes des utilisateurs pour améliorer son programme et ses algorithmes. Certes il semble que l’une des versions futures de ChatGPT intègrera un espace personnel où ChatGPT ne conserverait pas la trace des informations collectées mais ceci restera entièrement sous le contrôle de son développeur ce que l’employeur n’acceptera sans doute pas.

Pour cette raison, de nombreuses entreprises telles que les banques JP Morgan et Barclays ou des entreprises IT telles que Samsung ont déjà interdits à leurs employés d’utiliser ChatGPT sur leur outil informatique et / ou avec leurs données

Second problème, un employé est engagé pour accomplir une tâche déterminée en un temps déterminé. S’il délègue l’accomplissement de cette tâche à ChatGPT - par exemple pour la rédaction d’une déclaration à la presse, la vérification d’un mémorandum, ou l’élaboration d’un contrat – l’employé manque à ses obligations sous le contrat de travail en ne fournissant pas « son » travail et à mon sens « trompe » l’employeur en lui délivrant ce qui n’est en réalité pas le fruit de son travail. Sans compter qu’il n’accomplira éventuellement pas les heures de travail pour lesquelles il est payé … On passera aussi sur le fait que ce faisant il démontre en quelque sorte à son employeur qu’il peut se passer de lui…

Troisième problème, la communication de données personnelles à ChatGPT peut violer les dispositions applicables en matière de vie privée et éventuellement justifier des plaintes de personnes tierces – par exemple rédaction de courrier de licenciement reprenant des données personnelles des travailleurs concernés.

Ces manquements pourraient à mon sens justifier a minima une sanction disciplinaire voire un licenciement pour motif grave selon les circonstances.

Evidemment un employeur averti prendra soin de détailler dans ses politiques internes les règles applicables à l’usage d’une IA Générative et tout particulièrement de prévoir dans le règlement de travail que la violation de ces règles pourrait justifier une sanction disciplinaire voire un licenciement pour motif grave.

Mots clés

Articles recommandés

Mise à la pension : que doit faire l'employeur pour ses employés sous contrat?

Transparence en matière de primes pour accidents du travail