En 2026, entre 60 et 80 pour cent des salariés des grandes entreprises françaises utilisent ChatGPT, Claude ou d'autres outils d'IA générative dans leur travail quotidien. Parmi eux, une majorité le fait sans que leur employeur ne le sache, sur des comptes personnels, avec leurs propres abonnements. Ce phénomène, appelé Shadow AI, concerne à peu près toutes les organisations, y compris celles qui pensent avoir interdit l'usage de l'IA. Il combine les risques classiques du Shadow IT (perte de contrôle sur les données) avec des risques nouveaux spécifiques à l'IA générative : fuite de propriété intellectuelle, exposition à des hallucinations dans des livrables clients, non-conformité RGPD et AI Act.
Ce guide détaille l'ampleur réelle du problème, les risques concrets identifiés, et la démarche à mettre en place pour encadrer l'usage plutôt que de l'interdire, stratégie qui se révèle systématiquement plus efficace.
Le Shadow AI désigne l'usage d'outils d'intelligence artificielle générative (ChatGPT, Claude, Copilot personnel, Midjourney, Perplexity, NotebookLM, assistants IA intégrés à des SaaS tiers) par les salariés, en dehors des outils validés et supervisés par l'entreprise. Trois formes dominantes.
Premièrement, l'usage direct de services grand public avec un compte personnel. Un commercial qui colle les comptes-rendus d'appels dans ChatGPT free pour générer un e-mail de relance. Un chef de projet qui utilise Claude Pro payé personnellement pour synthétiser un cahier des charges client. Un DRH qui demande à ChatGPT de reformuler une lettre de licenciement.
Deuxièmement, l'usage de fonctionnalités IA embarquées dans des SaaS déjà en place, sans que la DSI en ait évalué les implications. Notion AI, Asana Intelligence, HubSpot AI, Salesforce Einstein, Canva Magic Studio : des dizaines d'outils déjà présents dans les entreprises ont activé par défaut des fonctionnalités IA qui traitent les données clients.
Troisièmement, l'usage d'extensions navigateur et de plugins non validés. Les extensions Chrome qui ajoutent ChatGPT à Gmail, les plugins Slack qui automatisent des réponses, les outils tiers qui branchent une IA sur un CRM sans intégration officielle : ces ajouts passent sous le radar de la gouvernance habituelle.
Les études convergent sur des chiffres alarmants. Les enquêtes internes menées dans les grandes entreprises françaises en 2025 et 2026 montrent que 65 à 80 pour cent des salariés knowledge workers ont utilisé au moins une fois ChatGPT ou un équivalent pour une tâche professionnelle. Parmi ces utilisateurs, 70 pour cent l'ont fait sur un compte personnel, souvent en copiant-collant des données internes dans l'outil.
Cette adoption se fait sans validation hiérarchique dans la majorité des cas. Selon plusieurs études sectorielles, moins de 30 pour cent des salariés qui utilisent l'IA au travail l'ont mentionné à leur manager, et moins de 15 pour cent à leur DSI. Le taux est encore plus bas dans les secteurs régulés (banque, santé, juridique), où les salariés anticipent une interdiction et préfèrent ne pas signaler leur pratique.
La conséquence directe est que les entreprises qui pensent avoir une politique IA cohérente n'ont en réalité aucune visibilité sur ce qui se passe sur le terrain. Les chartes internes interdisant ChatGPT produisent surtout un effet : les salariés l'utilisent en masquant leur usage. Le problème n'est pas résolu, il est simplement rendu invisible.
C'est le risque le plus documenté et le plus fréquent. Un salarié colle dans ChatGPT free un document interne pour en obtenir un résumé, une note stratégique pour la reformuler, un code source pour le déboguer, une liste de clients pour l'analyser. Dans les versions grand public sans engagement contractuel zero data retention, ces données peuvent être utilisées pour entraîner les modèles, être conservées sur les serveurs du fournisseur, ou être exposées en cas d'incident.
Les cas médiatisés existent. Samsung a interdit ChatGPT en interne en 2023 après que trois salariés y aient collé du code source confidentiel. Des cabinets d'avocats ont connu des incidents similaires. Dans la majorité des entreprises françaises, des fuites équivalentes ont lieu sans être détectées, simplement parce qu'aucun monitoring n'est en place.
Un DRH qui colle un dossier salarié dans ChatGPT pour préparer un entretien, un commercial qui soumet une liste de prospects à une IA pour la qualifier, un service client qui fait traiter des réclamations clients par une IA non contractualisée : ces usages traitent des données personnelles hors du cadre RGPD. Ils exposent l'entreprise à des sanctions de la CNIL, ainsi qu'à des obligations de notification en cas de violation.
La responsabilité reste sur l'entreprise, même si l'initiative vient du salarié. Le RGPD considère l'employeur comme responsable du traitement, indépendamment de la conscience qu'il a de l'usage.
Les modèles d'IA générative produisent régulièrement des informations fausses présentées avec assurance. Un consultant qui rédige un rapport client avec l'aide de ChatGPT sans vérification peut y glisser une donnée inexacte, une jurisprudence inexistante, un chiffre inventé. Le cas d'avocats américains sanctionnés en 2023 pour avoir cité de fausses jurisprudences générées par ChatGPT a créé un précédent, mais les cas non médiatisés sont bien plus nombreux.
Le risque augmente quand l'usage est clandestin, parce que le salarié n'ose pas faire relire son livrable ou signaler qu'il a utilisé l'IA. La qualité baisse silencieusement.
Depuis le 2 février 2025, l'article 4 de l'AI Act européen impose à toute organisation qui utilise ou développe un système d'IA de s'assurer que les personnes concernées disposent d'un niveau suffisant de compréhension et de culture IA. Cette obligation s'applique indépendamment du niveau de risque des systèmes utilisés. Un salarié qui utilise ChatGPT au travail, même sur son compte personnel, fait entrer l'outil dans le périmètre de l'entreprise déployeur.
Une entreprise qui n'a pas mis en place de programme de formation AI literacy est en situation de non-conformité, même si elle croit avoir interdit l'outil. Le raisonnement nous ne l'utilisons pas donc nous ne sommes pas concernés ne tient pas face à la réalité de l'usage effectif.
Les conditions d'utilisation des services grand public d'IA sont variables et évoluent régulièrement. Certaines clauses autorisent le fournisseur à utiliser les entrées pour améliorer les modèles, ce qui peut remettre en cause la confidentialité des idées, des stratégies, des créations produites par les salariés. Dans le cas de contenus créatifs (textes, images, code), la question de la propriété des sorties générées reste juridiquement floue et dépend des juridictions.
La première réaction des DSI face au Shadow AI est souvent l'interdiction frontale. Cette stratégie échoue pour trois raisons documentées.
Premièrement, elle ne tient pas techniquement. Bloquer l'accès à chat.openai.com ne bloque pas Claude, Perplexity, Mistral, Copilot personnel, les applications mobiles, les extensions, ni l'usage en partage de connexion 4G personnel. Les salariés motivés trouvent toujours un accès.
Deuxièmement, elle produit un effet rebond négatif. Plus l'entreprise interdit, moins les salariés signalent leur usage. Les incidents cessent d'être remontés. Le problème devient invisible au lieu de disparaître.
Troisièmement, elle prive l'entreprise des gains de productivité réels. Les salariés qui utilisent l'IA de manière maîtrisée gagnent en productivité. Interdire l'outil pénalise l'organisation face aux concurrents qui l'autorisent et le structurent.
La bonne stratégie n'est pas l'interdiction, c'est l'encadrement par l'offre. Offrir aux salariés un outil validé, formé, et accompagné est la seule façon de ramener l'usage dans le périmètre de contrôle de l'entreprise.
Sans visibilité sur l'usage actuel, aucune politique ne peut être pertinente. La cartographie combine trois sources : un questionnaire anonyme aux salariés (avec garantie de non-sanction), une analyse des logs de navigation et de DNS pour identifier les outils visités, et une revue des SaaS existants pour détecter les fonctionnalités IA activées sans validation. L'objectif est d'obtenir une photo réaliste, pas parfaite, de la situation actuelle.
L'étape cruciale. Plutôt que d'interdire les outils personnels, fournir un outil validé avec engagement contractuel zero data retention (ChatGPT Team, Claude Team, Microsoft Copilot, selon le contexte). Le choix dépend des usages dominants identifiés en cartographie et de l'environnement existant. L'outil officiel doit être au moins aussi accessible et performant que l'outil personnel qu'il remplace, sinon les salariés continueront à utiliser les deux.
La charte doit tenir en deux pages et répondre à quatre questions : quels outils sont autorisés, quels types de données peuvent y être soumises, quels sont les usages interdits, qui contacter en cas de doute. Les chartes de 20 pages ne sont pas lues. Les chartes trop restrictives poussent au contournement. La règle pragmatique : autoriser par défaut tout ce qui n'est pas explicitement interdit, et clarifier les interdictions sur quelques points durs (données clients identifiantes, informations stratégiques, données médicales, propriété intellectuelle tierce).
La formation AI literacy est à la fois une obligation légale (article 4 AI Act) et le principal levier de réussite du déploiement. Une session d'une journée par équipe, centrée sur les usages métier, les limites de l'IA et les règles de confidentialité, suffit pour la plupart des populations. Les fonctions à risque élevé (RH, juridique, finance, R&D) méritent un approfondissement spécifique. La formation doit être documentée (attestation, émargement, évaluation) pour prouver la conformité en cas de contrôle.
Désigner un référent IA (DPO, RSSI, ou responsable dédié selon la taille), définir un processus de validation pour les nouveaux outils, mettre en place un canal de signalement pour les usages douteux, revoir la charte et le dispositif tous les six mois. La gouvernance n'a pas besoin d'être lourde : une gouvernance légère mais régulière produit plus de résultats qu'une gouvernance ambitieuse mais appliquée par à-coups.
Plusieurs indicateurs doivent alerter la direction.
Premier signal : les documents produits en interne montrent des caractéristiques linguistiques typiques de l'IA (tournures répétitives, exemples génériques, usage de formules comme il est important de noter) sans que personne ne revendique leur utilisation. Les équipes produisent du contenu à un rythme supérieur à la normale sans ressources additionnelles, ou inversement, certains livrables deviennent étonnamment similaires entre collaborateurs différents.
Deuxième signal : des fuites de données sensibles apparaissent dans des réponses d'outils IA (par exemple, ChatGPT qui évoque spontanément le nom de l'entreprise ou de ses clients dans un contexte qui ne devrait pas l'exiger), ce qui suggère que les données ont transité par ces outils à un moment donné.
Troisième signal : les incidents IA signalés sont étonnamment peu nombreux pour la taille de l'organisation. Dans une entreprise de 500 personnes, si aucun incident lié à l'IA n'est remonté en un an, ce n'est pas que le problème n'existe pas, c'est qu'il n'est pas détecté.
Quatrième signal : la DSI observe une croissance anormale du trafic vers les domaines d'IA (chat.openai.com, claude.ai, perplexity.ai, etc.) sans politique explicite d'adoption. Ces connexions reflètent un usage réel qui n'a pas été encadré.
Non, dans la grande majorité des cas. Sanctionner signale que l'usage est prohibé et pousse à la dissimulation. La bonne réponse est de fournir un outil officiel, d'accompagner la transition, et de réserver les sanctions aux cas graves (fuite délibérée de données confidentielles, violation caractérisée de la charte). Une sanction en cas de doute détruit la relation de confiance nécessaire au signalement futur.
Techniquement, on peut bloquer les domaines via le proxy ou le DNS. Mais ce blocage ne fonctionne que sur le réseau d'entreprise, pas sur les smartphones personnels, les connexions 4G ou les VPN. Le blocage technique n'empêche pas l'usage, il le pousse sur des canaux encore moins contrôlables. Il produit du Shadow AI plus risqué, pas moins.
Pour une entreprise de 100 personnes, un déploiement ChatGPT Team coûte environ 30 000 USD par an en licences, plus 8 000 à 15 000 euros de formation initiale. Le coût d'un seul incident de fuite de données (remédiation, notification CNIL, communication, perte de confiance) dépasse rapidement ces montants. Sans même compter la valeur des gains de productivité mesurables qu'un déploiement structuré génère (généralement entre 2 et 5 heures gagnées par salarié et par semaine).
Le sujet est transverse et ne peut pas être porté par une seule fonction. La direction générale doit poser le cadre stratégique et arbitrer, la DSI sélectionne et déploie les outils, la DRH porte la formation et la charte d'usage, le DPO valide la conformité RGPD et AI Act. Le référent IA interne fait le lien entre ces fonctions. Sans implication de la direction générale, les initiatives restent cloisonnées et produisent peu d'effet.
Premièrement, documenter l'incident sans dramatiser, ce qui permet aux salariés concernés de signaler l'incident sans crainte. Deuxièmement, évaluer la nature des données exposées (personnelles, stratégiques, techniques) et les obligations de notification qui en découlent (CNIL si données personnelles). Troisièmement, contacter le fournisseur pour demander la suppression des conversations (possible sur la plupart des plateformes). Quatrièmement, traiter l'incident comme un signal à améliorer la formation et l'offre officielle, pas comme une faute à sanctionner.
La lecture classique du Shadow AI le présente comme un risque à contenir. Une lecture plus nuancée le considère comme un signal : vos équipes ont compris avant vous que l'IA améliorait leur productivité, et elles l'utilisent déjà. Le sujet n'est pas de les ramener en arrière, c'est de les accompagner pour qu'elles l'utilisent mieux, dans un cadre qui protège l'entreprise.
Les organisations qui structurent leur approche AI en 2026 prennent un avantage concret sur leurs concurrents. Celles qui continuent à interdire sans offrir d'alternative se retrouveront dans quelques années avec des équipes démotivées et une pratique IA désorganisée qu'il sera coûteux de reprendre en main.
Almera accompagne les entreprises sur la structuration de leur gouvernance IA, depuis la cartographie initiale jusqu'au déploiement d'outils officiels et à la formation des équipes. Nos parcours couvrent à la fois les aspects techniques (choix d'outils, configuration, sécurité) et les aspects humains (formation AI literacy, accompagnement du changement, rédaction de chartes). Réserver un échange de 30 minutes avec Almera pour discuter de votre situation, ou explorer notre catalogue de formations IA pour les entreprises.