CFE-CGC - Confédération française de l'encadrement - Confédération générale des cadres

12/16/2024 | News release | Distributed by Public on 12/16/2024 07:39

« encadrer l’utilisation de l’ia générative en entreprise »NumériqueL’intelligence artificielle

Retour aux actualités précédentes
Publié le 16 - 12 - 2024

« Encadrer l'utilisation de l'IA générative en entreprise »

Deux ans après la création de ChatGPT, Nicolas Blanc, secrétaire national CFE-CGC à la transition économique, analyse les pratiques de la technologie dans les entreprises et son utilisation par les salariés et les représentants du personnel.

Créé en novembre 2022, l'outil d'intelligence artificielle ChatGPT a fêté ses deux ans. Quel bilan peut-on en tirer de son déploiement ?

ChatGPT a rapidement dépassé son objectif initial de simple projet de démonstration. On ne peut plus l'ignorer. Conçu par l'entreprise américaine OpenAI pour explorer comment les utilisateurs interagiraient avec un outil basé sur le modèle de langage GPT 3.5, ChatGPT a connu une adoption massive, surprenant même ses créateurs. En seulement deux mois, il a rassemblé une base de 100 millions d'utilisateurs ! Ce succès témoigne du potentiel des grands modèles de langage (LLM), qui s'appuient sur l'architecture « transformer » introduite par Google en 2017. Grâce à des mécanismes d'auto-attention, ces modèles traitent et génèrent du texte à la manière humaine et excellent dans des tâches telles que la compréhension du langage naturel.

Et dans l'univers professionnel ?

On voit déjà émerger plein d'usages au travail mais il faut aujourd'hui encadrer ces pratiques qui vont encore se développer avec l'arrivée de Microsoft Copilot, un outil de type ChatGPT qui va être intégré dans sa suite bureautique et de logiciel.

Le "Shadow AI" soulève de sérieuses préoccupations concernant la sécurité et la confidentialité des données en entreprise »

De plus en plus de salariés utiliseraient « discrètement » ChatGPT pour leur travail. Qu'en pensez-vous ?

Ce phénomène de « Shadow AI » (IA clandestine) désigne l'utilisation de solutions d'IA générative telles que ChatGPT ou Google Gemini sans l'approbation de l'entreprise. Par exemple l'utilisation d'une IA sur les appareils personnels du salarié pour corriger du texte, générer du contenu ou rédiger un e-mail à un client. Les cas d'utilisation de l'IA en dépit des politiques mises en place par les organisations se multiplient. Malgré des avantages indéniables, cette utilisation « clandestine » soulève de sérieuses préoccupations concernant la sécurité et la confidentialité des données. Certains GAFAM (Microsoft, Apple, Amazon) ont d'ailleurs interdit à leurs salariés d'utiliser ChatGPT pour un usage professionnel (1). Cela n'est pas anodin !

En quoi cela constitue un risque pour les entreprises ?

Indépendamment des règles mises en place, le Shadow AI se traduit par des risques bien réels dans la mesure où les solutions d'IA aspirent une grande quantité de données pour fonctionner. Sans contrôle ni supervision, il est possible que des données sensibles de l'entreprise soient exposées ou utilisées de manière inappropriée. Le Shadow AI peut aussi introduire des vulnérabilités dans les systèmes de l'entreprise car les solutions utilisées ne sont pas soumises aux mêmes contrôles de sécurité que celles approuvées par le service IT… La sécurité et la confidentialité de données des entreprises sont donc les deux principaux risques et il ne faut donc pas que les salariés se mettent en péril.

Les entreprises doivent discuter avec les élus du personnel des modalités d'utilisation de ce type d'outils et sensibiliser les salariés »

Comment peut-on encadrer ces pratiques ?

L'idée n'est pas de les interdire mais de les accompagner. Pour ce faire, les entreprises doivent avant tout en discuter avec les représentants du personnel afin de reprendre la main et définir des modalités de l'utilisation par leurs salariés de ce type d'outils. Cela peut passer par la négociation d'une charte dans laquelle les salariés s'engagent à respecter les règles négociées par accord. Il faut bien sûr y associer une politique de sensibilisation et de formation des salariés pour rendre la démarche cohérente.

Il est aussi essentiel de fournir une formation adéquate aux employés sur les risques liés à l'utilisation de l'IA et sur les bonnes pratiques à adopter. Cela permettra de les sensibiliser aux enjeux de sécurité et de confidentialité des données ainsi qu'aux limites et aux utilisations appropriées de l'IA générative. Certaines entreprises ont déjà pris les devants en déployant leur propre ChatGPT sécurisé afin de contrer ces pratiques sauvages. Dans tous les cas, nous préconisons dans les entreprises de passer par une information-consultation pour associer les salariés et leurs représentants dans les conseils économiques et sociaux (CSE). Cela permet un processus de déploiement transparent, en douceur, pour l'ensemble des collaborateurs.

Les représentants du personnel et les syndicats peuvent aussi avoir recours à l'IA générative. Quelles doivent être les bons usages ?

Bien sûr, on peut imaginer que de tels outils puissent les aider à préparer des synthèses de réunions de CSE, à rédiger des tracts syndicaux ou à négocier des accords. Là encore, la prudence est de mise. Sans chercher à les interdire, il faut cependant encadrer ces usages et rappeler les bonnes pratiques en matière de confidentialité et de sécurité des données. Les documents remis dans le cadre d'une information-consultation peuvent être confidentiels. Idem pour la négociation d'un accord.

Par ailleurs, l'utilisation de solution payante, par exemple ChatGPT, ne garantit pas une sécurité absolue comme le rappelle OpenAI dans ces FAQ. En effet, il faut aussi ne rien indiquer de confidentiel dans les échanges qu'on a avec l'outil, ce qu'on appelle les « prompts ». Or on le sait rarement... Globalement, il convient donc que les acteurs adoptent un positionnement de responsable de traitements au sens du RGPD, avec les engagements induits.

Un réseau CFE-CGC de référents IA pour acculturer au plus près nos adhérents et nos militants »

Comment la CFE-CGC travaille-t-elle tous ces sujets ?

Il y longtemps que nous investiguons sur l'IA, par exemple avec le projet européen SecoIADeal sur dialogue social et l'IA. Nous allons travailler sur un guide des intelligences artificielles qui rappellera les bonnes pratiques pour nos adhérents et nos militants. Ce sera aussi l'occasion de faire de la pédagogie sur l'utilisation de ces systèmes d'un point de vue environnemental puisque, selon diverses études, une simple requête sur ChatGPT consomme dix fois plus d'énergie qu'une recherche Google.

En parallèle, notre réseau de référents IA dans les fédérations CFE-CGC sont autant de garants pour la diffusion de ces règles au plus près de nos adhérents et de nos militants. Nous travaillons aussi sur la qualification d'un certains nombres d'outils d'IA ou de formation qui respectent un haut niveau d'exigence de sécurité et de confidentialité pour permettre à nos adhérents de profiter sereinement des avantages de l'IA générative.

Propos recueillis par Mathieu Bahuet