Shadow AI : 80% des employés utilisent des outils IA non approuvés au travail

L'essor silencieux du Shadow AI redessine les contours du risque en entreprise, et la plupart des dirigeants ne le voient pas venir.

📌 TL;DR

  1. Plus de 80 % des travailleurs utilisent des outils IA non approuvés au travail. Pas occasionnellement, régulièrement, et souvent à des niveaux hiérarchiques élevés. (UpGuard, novembre 2025)

  2. Ce phénomène n'est pas un problème de discipline. C'est le symptôme d'une transformation organisationnelle qui a devancé les politiques internes.

  3. Une fuite de données clients via un outil gratuit expose une entreprise à des sanctions sous la Loi 25 pouvant atteindre 10 M$ ou 2 % du chiffre d'affaires, un régime en application intégrale depuis septembre 2024.

  4. La réponse n'est pas l'interdiction. C'est la gouvernance, et elle est à la portée de n'importe quelle PME qui décide d'en faire une priorité cette semaine.

Shadow AI : ce que c'est, ce que ça coûte, et comment reprendre le contrôle avant que ça te coûte cher.

Dans les couloirs des PME nord-américaines, une transformation silencieuse s'est opérée. Elle n'a pas été annoncée dans une note de service. Elle n'a pas fait l'objet d'un projet pilote, ni d'une approbation budgétaire. Elle s'est produite fenêtre de navigateur par fenêtre de navigateur, un lundi matin où un employé a décidé que ChatGPT répondrait plus vite que le processus habituel.

C'est ce qu'on appelle le Shadow AI.

Un phénomène qui dépasse les frontières de l'entreprise

Le terme désigne l'utilisation d'outils d'intelligence artificielle par des employés en dehors de tout cadre approuvé par l'organisation.

  • Ton estimateur partage une soumission dans ChatGPT pour la peaufiner avant de l'envoyer au client.

  • Ton responsable marketing utilise un outil en ligne pour condenser un rapport de quarante pages.

  • Ton adjoint confie à une IA la rédaction d'une réponse à un client difficile.

Des gestes ordinaires, répétés des dizaines de fois par semaine dans les entreprises de toutes tailles et de tous secteurs.

Ce qui rend ce phénomène remarquable n'est pas son existence, c'est son ampleur, et surtout, qui en est à l'origine.

Selon un rapport d'UpGuard publié en novembre 2025, plus de 80 % des travailleurs utilisent des outils IA non approuvés dans leur travail. La donnée qui surprend davantage : les cadres supérieurs et les dirigeants figurent parmi les utilisateurs les plus assidus de ces outils non sanctionnés. Ce n'est pas un mouvement de résistance venu du bas de la hiérarchie.

C'est une adoption généralisée, transversale, qui traverse les niveaux et les fonctions avec une indifférence remarquable aux politiques officielles, quand ces politiques existent. 💡

L'utilisation d'outils Shadow AI a progressé de +50% entre 2023 et 2025. Seulement 34 % de l'utilisation d'IA en entreprise transite par des comptes approuvés. Le reste circule par des comptes personnels, des versions gratuites, des interfaces accessibles à quiconque dispose d'une connexion internet.

Avant de chercher une réponse disciplinaire à ces chiffres, il convient d'en lire le signal correctement. Une organisation dont les employés adoptent spontanément des outils IA est une organisation dont les équipes cherchent à performer davantage, à réduire la friction, à faire mieux avec le même temps. Ce n'est pas un problème de comportement. C'est le signe d'un écart, entre ce que les employés peuvent faire avec les outils disponibles, et ce que l'organisation leur a officiellement mis entre les mains.

Cet écart a un nom. Il a aussi un coût.

Trois vecteurs de risque que la majorité des dirigeants sous-estiment

Ne ne vous inquiétez pas, ce qui suit n'est pas un catalogue de scénarios catastrophe.

Ce sont trois mécanismes documentés par lesquels le Shadow AI transforme une intention productive en exposition organisationnelle, souvent sans que personne n'en prenne conscience avant qu'il soit trop tard.

1) La fuite de données, silencieuse et irréversible. 

Lorsqu'un employé colle une soumission, une liste de contacts ou un historique de transactions dans ChatGPT, ces données quittent le périmètre de l'entreprise et atterrissent sur des serveurs (généralement américains). Les conditions d'utilisation de la majorité des outils grand public autorisent explicitement l'utilisation du contenu soumis pour l'entraînement futur des modèles. Ce n'est pas une clause obscure enfouie dans un document juridique. C'est le modèle économique.

Le cas Samsung, survenu au printemps 2023, illustre ce que cela signifie concrètement à l'échelle industrielle. En moins d'un mois, trois ingénieurs distincts de la division semi-conducteurs avaient transmis du code source propriétaire et des notes de réunions confidentielles à ChatGPT, chacun dans un contexte différent, chacun avec une intention légitime. Ces informations se sont retrouvées intégrées dans la base d'entraînement d'OpenAI de façon permanente et irréversible. Samsung n'avait aucun recours juridique. Pour une PME québécoise, l'équivalent fonctionnel, ce sont tes prix coûtants, tes marges, tes données clients, partis sans trace, sans alerte, sans possibilité de récupération.

Ce qui rend ce vecteur particulièrement insidieux : il ne ressemble pas à une négligence. Il ressemble à du travail bien fait.

2) La propriété intellectuelle, exposée sans mécanisme d'alerte. 

La valeur compétitive d'une PME réside rarement dans ses actifs matériels. Elle réside dans ce qu'elle sait faire que les autres ne savent pas encore faire, une méthodologie de service construite sur une décennie d'expérience, un procédé de fabrication optimisé par l'itération terrain, une approche d'estimation qui explique pourquoi tes soumissions arrivent systématiquement plus précises que celles de la concurrence.

Tout ce qui transite par un outil IA grand public peut potentiellement être exposé, répliqué, intégré dans un modèle accessible à tous. Contrairement à une violation de données classique, aucun système d'alerte ne se déclenche. Aucune notification n'est générée. Aucune trace ne subsiste dans les journaux système.

Tu ne le sauras pas. C'est précisément le problème.

3) L'exposition réglementaire, concrète et croissante. 

Depuis le déploiement complet de la Loi 25 en septembre 2024, les obligations des entreprises québécoises en matière de données personnelles s'étendent explicitement aux projets impliquant l'intelligence artificielle. Un employé qui transmet des données clients à un outil externe non évalué ne commet pas une erreur de jugement isolée, il génère une exposition légale pour l'organisation. Les sanctions prévues vont de 15 000 $ à 25 millions de dollars, ou 4 % du chiffre d'affaires mondial selon le montant le plus élevé. La Commission d'accès à l'information a publiquement signalé son intention de renforcer l'application de la loi.

Ce que beaucoup d'organisations ignorent encore : la non-conformité ne requiert pas un incident de grande ampleur pour déclencher des conséquences. Une plainte d'employé, un audit sectoriel, une vérification de routine, les points d'entrée sont nombreux et souvent imprévisibles. Dans un contexte où +40 % (je serais porter à dire +70%, mais bon) des entreprises n'ont toujours pas formalisé de politique sur l'utilisation des outils IA, la Commission dispose d'un terrain d'application considérable.

Les trois vecteurs décrits ci-dessus partagent une caractéristique commune : ils ne sont pas le produit d'une intention malveillante. Ils sont le produit d'une absence de décision. Et dans un environnement réglementaire actif, une absence de décision est elle-même une décision, avec ses propres conséquences.

Construire une gouvernance IA : le chemin le plus court

Une politique IA fonctionnelle pour une PME ne requiert ni équipe dédiée, ni budget de consultation significatif, ni transformation organisationnelle en profondeur. Elle requiert une demi-journée de travail structuré et la volonté de traiter la question comme une priorité de direction plutôt qu'un dossier TI.

Le chemin le plus direct tient en trois étapes.

1) Cartographier avant de réglementer. 

Avant de définir ce qui est permis ou interdit, il faut comprendre ce qui existe. Un sondage anonyme de cinq questions suffit : quels outils les équipes utilisent-elles, pour quelles tâches, avec quel type de données? L'exercice n'a pas de dimension disciplinaire, il a une dimension analytique. Les réponses vont révéler des cas d'usage réels, des irritants opérationnels documentés, et probablement plusieurs angles morts qu'il vaut mieux connaître maintenant que lors d'un audit externe.

2) Classifier les données en trois niveaux distincts. 

C'est l'étape que la majorité des organisations sautent, et la raison pour laquelle leurs politiques restent vagues au point d'être inapplicables.

  1. Données publiques : circulation libre, sans restriction.

  2. Données internes : outils approuvés uniquement, pas de versions gratuites grand public.

  3. Données confidentielles : clients, finances, propriété intellectuelle, informations contractuelles : hors de tout outil externe, sans exception.

Cette classification prend une demi-journée. Elle transforme des jugements situationnels en règles claires, et rend toutes les conversations qui suivent infiniment plus simples à tenir.

3) Approuver plutôt qu'interdire. 

La logique d'interdiction est structurellement contre-productive : elle pousse les comportements dans l'ombre sans les éliminer. La logique d'approbation proactive est plus efficace. Désigner deux ou trois outils dotés de versions entreprise, là où les données ne sont pas réinjectées dans l'entraînement des modèles, offre aux équipes une alternative crédible à leurs habitudes actuelles. Microsoft 365 Copilot, Claude for Work et ChatGPT Enterprise répondent à ce critère. Communiquer cette liste avec le raisonnement derrière chaque choix transforme une contrainte en cadre de confiance.

Un cadre compris vaut mieux qu'une règle imposée. Et une règle assortie d'une alternative crédible vaut mieux qu'une interdiction sans issue.

DEEP DIVE : SUJETS À SURVEILLER

Copilot Tasks : l'IA qui cesse de répondre pour commencer à agir

Microsoft a lancé Copilot Tasks en research preview le 26 février 2026, et le changement de paradigme mérite d'être nommé. Pendant deux ans, l'IA générative a fonctionné selon un modèle stimulus-réponse : tu poses une question, elle formule une réponse. Copilot Tasks rompt avec cette architecture. Tu définis un objectif, l'IA décompose les étapes, les exécute dans un environnement cloud isolé, et te rapporte. Elle sollicite une validation avant toute action à impact. Le produit reste une preview pour testeurs invités, pas un déploiement universel. Mais la trajectoire est claire et la liste d'attente est ouverte.

IA et systèmes de gestion : le fossé qui neutralise les gains

McKinsey, janvier 2026 : 80 % des entreprises utilisent l'IA générative dans au moins une fonction, mais seulement 40 % rapportent un impact mesurable sur leurs résultats. L'explication est structurelle, les outils IA opèrent en parallèle des systèmes de gestion existants plutôt qu'au sein de ceux-ci. Tant que cette intégration n'est pas faite, l'IA reste un outil de confort. Pour les PME, l'arbitrage à anticiper n'est pas seulement quel outil adopter, mais à quelle profondeur il s'intégrera dans les systèmes qui font déjà tourner l'organisation.

OUTIL DE LA SEMAINE : Copilot Task

La fonctionnalité. 

Copilot Tasks, disponible en research preview depuis le 26 février 2026, représente un changement structurel dans ce que l'IA peut faire pour toi au quotidien. Ce n'est plus un assistant qui répond à des questions, c'est un agent qui reçoit un objectif, planifie les étapes et les exécute dans un environnement cloud isolé, sans que tu aies à superviser chaque action. Il peut naviguer sur le web, créer des documents, gérer ton calendrier, coordonner des tâches entre applications. Il requiert une validation explicite avant toute action à impact : envoi de message, transaction, modification de données. Il faut être clair sur ce que c'est aujourd'hui : une research preview pour un groupe restreint, pas un produit en déploiement général. Mais la direction est nette, et la liste d'attente est ouverte.

Le cas pratique. 

Marie-Ève dirige les opérations d'une PME de services professionnels de 45 employés. Chaque vendredi après-midi, elle compile manuellement le rapport de clôture de semaine : résumé des projets actifs, tâches en retard, points à escalader en début de semaine suivante. Un travail qui prend entre 45 minutes et une heure, documenté, répétitif, indispensable.

Elle configure une tâche récurrente dans Copilot Tasks : chaque vendredi à 16h, l'agent compile le rapport à partir des documents de suivi de projets stockés dans OneDrive, des notes de réunions récentes, et des éléments de calendrier de la semaine. Il génère un document structuré, résumé de dix lignes, liste des actions en suspens, points à traiter lundi, et le dépose dans son dossier OneDrive partagé avec son équipe de direction.

Résultat : 45 à 60 minutes récupérées chaque semaine. Sur douze mois, entre 35 et 50 heures restituées.

Mais le gain le plus significatif n'est pas quantifiable en heures. Marie-Ève ferme son vendredi avec une vision claire de la semaine. Elle arrive le lundi avec un document déjà partagé, des priorités déjà arbitrées, et une capacité d'attention intacte pour les décisions qui comptent. C'est ce que l'IA agentique bien ciblée produit dans une PME : un avantage opérationnel discret, continu, cumulatif.

Opinion stratégique.

Il existe une tentation, compréhensible, de traiter le Shadow AI comme un problème de conformité à résoudre par la répression. Bloquer les outils non approuvés. Émettre une directive. Attendre que le comportement change.

Cette approche repose sur une hypothèse inexacte.

Les organisations qui ont répondu à l'adoption de logiciels non autorisés, le Shadow IT des années 2010, par l'interdiction n'ont pas éliminé le comportement. Elles l'ont rendu invisible. Les employés ont continué, avec leurs téléphones personnels, leurs comptes gratuits, leurs outils non référencés. L'exposition est restée entière. La visibilité de l'employeur a diminué. Le Shadow AI obéit à la même logique, avec des enjeux de confidentialité plus élevés et une vitesse d'adoption plus difficile à contenir.

La posture la plus stratégique commence ailleurs : par la curiosité.

Si tes équipes utilisent des outils non approuvés, la première question à poser n'est pas "comment les en empêcher?" mais "pourquoi le font-elles, et pour résoudre quels problèmes?" Les réponses dessinent une cartographie précise des besoins opérationnels réels, bien plus fidèle que n'importe quel exercice de planification stratégique conduit en salle de conférence. Le Shadow AI est l'inventaire le plus honnête de ce que ton organisation cherche à accomplir avec l'IA.

Il faut aussi nommer ce que la tolérance passive ne permet plus. La Loi 25 est en application intégrale. La Commission d'accès à l'information a annoncé un renforcement de l'application. Dans ce contexte, l'absence de politique IA n'est pas une position neutre, c'est une exposition active dont les conséquences appartiennent entièrement à l'organisation qui a choisi de ne pas décider. Les organisations qui agissent maintenant ne se contentent pas de gérer un risque réglementaire. Elles construisent un avantage compétitif : la capacité de démontrer à leurs clients, partenaires et employés qu'elles gèrent l'IA de façon responsable, à un moment où la grande majorité de leurs concurrents ne le font pas encore.

Cette fenêtre est réelle. Elle ne restera pas ouverte indéfiniment.

Conclusion.

Le Shadow AI n'est pas une anomalie à corriger. C'est un révélateur, de la distance entre ce que les organisations ont mis entre les mains de leurs équipes, et ce que ces équipes ont décidé d'aller chercher par elles-mêmes. Combler cet écart n'est pas un projet technologique. C'est une décision de gouvernance, et elle appartient au dirigeant.

La réponse n'est pas de mieux fermer les portes. C'est de décider lesquelles doivent rester ouvertes, dans quelles conditions, et avec quels garde-fous. Cette décision se prend mieux aujourd'hui, proactivement, qu'en réaction à un incident qui l'imposera dans des circonstances moins favorables.

« Tes données les plus exposées ne sont pas celles que tu as perdues. Ce sont celles que tu n'as pas encore décidé de protéger. »

Marcan Laramée / Aviseur stratégique en intelligence artificielle

— Quartier AI

L’infolettre Intelligence Opérationnelle existe pour fournir des cadres de lecture clairs, rigoureux et exploitables aux dirigeants qui veulent comprendre l’IA avant de la déployer.

Reply

or to participate.