logo

On a entendu parler de Shadow IT et plus récemment de Shadow IA, pouvez-vous nous expliquer de quoi il s’agit ? Quels types d’outils sont le plus souvent concernés ?

🎙️ SDW : “Le Shadow IT englobe l’usage de tout logiciel ou matériel utilisé par un collaborateur qui ne serait pas approuvé et supervisé par le service informatique d’une entreprise. Cette pratique pose des problèmes de sécurité et de confidentialité pour tout usage professionnel, et tout particulièrement sur le réseau interne de l’entreprise. Avec l’émergence rapide des outils d’IA, le Shadow IA en est la déclinaison. Il s’agit de l’utilisation non encadrée, souvent à l’initiative individuelle, d’outils d’IA générative ou d’automatisation dans un contexte professionnel. Ces outils peuvent inclure ChatGPT, Copilot, Notion AI, Midjourney, etc. Les collaborateurs les testent initialement à titre personnel, puis les intègrent spontanément à leur quotidien professionnel sans validation préalable.”

Pourquoi les collaborateurs contournent les outils proposés par l’entreprise ?

🎙️ SDW : “L’émergence de cette technologie est un raz de marée. Les grandes entreprises du numérique y voient l’assurance de revenus futurs et poussent pour l’adoption massive. Un collaborateur peut tester différents outils IA gratuits pour se faire une idée. Les plus technophiles vont même aller plus loin en testant des versions payantes pour se faire la main. Ils peuvent se sentir frustrés de ne pas avoir accès à ces mêmes outils dans le cadre de leur travail. Cette frustration est alimentée par un double phénomène :

  • L’attrait de la nouveauté, de la performance, de la productivité individuelle
  • Le décalage entre l’expérience utilisateur personnelle (fluide, intuitive, rapide) et les outils plus lourds, encadrés ou bridés mis à disposition par l’entreprise.”

Dans quelle mesure le Shadow IA peut-il impacter la cybersécurité, notamment en matière de conformité RGPD ou de confidentialité ?

🎙️ SDW : “Après une prise en main de solutions d’IA dans un contexte personnel, les collaborateurs early adopters seront curieux de tester leur apport dans leur quotidien professionnel. C’est ici que le risque émerge. Tout le monde ne lit pas ou n’intègre pas les subtilités des conditions d’utilisation des outils IA. Très souvent, les données que vous allez manipuler peuvent servir à l’apprentissage du modèle. Le collaborateur risque donc de rendre publiques des informations sensibles ou stratégiques de l’entreprise… ou de ses clients.

Il est important de rappeler que, même dans des versions payantes, certaines plateformes conservent le droit d’utiliser les données saisies pour entraîner leurs modèles. Et parfois, les options de désactivation de l’apprentissage automatique sont peu visibles ou désactivées par défaut. Un collaborateur qui copierait, par exemple, un cahier des charges client confidentiel dans un prompt IA pourrait sans le vouloir exposer ces données à d’autres utilisateurs du même outil. Cela pose des risques de fuite, de non-conformité RGPD et d’atteinte à la réputation.”

Quelles bonnes pratiques mettre en place pour limiter les risques tout en gardant l’agilité des services métiers ?

🎙️ SDW : “Il faut poser un cadre d’utilisation au sein de la société en proposant une ou plusieurs solutions approuvées… et surtout sensibiliser aux risques. Cela inclut :

  • Identifier des outils d’IA compatibles avec la politique de sécurité de l’entreprise
  • Paramétrer ces outils pour éviter l’usage des données à des fins d’apprentissage
  • Communiquer clairement aux collaborateurs les bonnes pratiques et les erreurs à éviter
  • Proposer des ressources pédagogiques ou un support pour accompagner la montée en compétence

L’objectif est de garder les bénéfices de l’IA (gain de productivité, efficacité) sans tomber dans des usages à risque.

Pensez-vous que le Shadow IA va croître avec l’essor des outils d’IA générative ? Comment voyez-vous évoluer le rôle de la DSI face à cette tendance ? Faut-il créer un poste de ‘Prompt engineer’ ?

🎙️ SDW : “Le Shadow IA n’est plus émergent. Il existe et devient une problématique pérenne. Ce sujet est monté très vite en puissance, bouleversant les habitudes de travail et chamboulant les roadmaps établies parfois sur plusieurs années. Mais la révolution des outils d’IA est aussi et surtout une chance pour les entreprises. Pour la DSI, c’est un nouveau challenge à relever pour encadrer leur adoption dans les process métiers. C’est comme un jeu d’équilibriste : encadrer sans brider, accélérer tout en sécurisant, accompagner les pionniers sans oublier les plus réticents. L’accompagnement peut prendre plusieurs formes, pas nécessairement en interne : des prestataires externes peuvent aussi intervenir pour construire des guides de bonnes pratiques ou former les équipes. De nouveaux métiers vont donc apparaitre pour encadrer, former, poser le cadre et créer un cahier des bonnes pratiques par exemple.”

Pour finir, quels conseils donneriez-vous aux salariés qui utilisent des outils d’IA ?

🎙️ SDW : Posez-vous toujours la question de la sensibilité des données que vous manipulez et présentez à un outil d’IA…

  • En cas de doute, rapprochez-vous de votre DPO ou RSSI
  • Privilégiez les outils validés par votre entreprise et assurez-vous que les paramètres liés à l’usage des données sont correctement configurés.

Restez curieux… mais conscient : la facilité d’usage ne doit pas faire oublier les enjeux de sécurité, de conformité et de confidentialité.”

Cet article vous a plus ? Partagez-le !

Les dernières actualités de la gestion d’entreprise

Société 15 Avr 2026
SLM vs LLM : quel modèle d’IA pour vos futurs agents intelligents ?

L’intelligence artificielle entre dans une nouvelle ère : celle des agents IA autonomes, capables de planifier, d’exécuter et d’optimiser des tâches complexes sans intervention humaine constante. Selon Gartner, d’ici 2028, 33 % des applications d’entreprise intégreront des fonctionnalités agentiques, contre moins de 1 % début 2024. Mais derrière chaque agent se cache un choix technique structurant : quel modèle de langage le fait tourner ? Un LLM (Large Language Model) ou un SLM (Small Language Model) ? Ce choix a des conséquences directes sur les coûts, la rapidité, la fiabilité et la pertinence des réponses. Décryptage pour y voir clair. 

Photo de techniciens de production travaillant dans une salle de contrôle d'usine pour assurer la maintenance des machines industrielles.
Métier 13 Avr 2026
Le vrai problème de la maintenance industrielle n’est pas technique (et personne n’en parle)

Dans l’industrie, on parle sans cesse de fiabilité, de capteurs IoT, de maintenance préventive et curative et de performance opérationnelle. À première vue, tout semble tourner autour de la technologie : équipements industriels plus intelligents, algorithmes plus précis, machines communicantes. Et pourtant, le vrai problème de la maintenance industrielle n’est pas technique. Il est humain, organisationnel, et souvent invisible tant qu’il ne fait pas chuter les indicateurs de performance ou la satisfaction client. Le décalage ne se situe plus entre les besoins de maintenance et la technologie disponible, mais entre la complexité du terrain et la capacité des organisations à piloter efficacement leur activité de service.

Société 09 Avr 2026
Plateforme multi-agents IA : orchestrer des IA agentiques pour l’entreprise
Société 02 Avr 2026
Revivez les temps forts de notre événement « Signature » !
ERP 01 Avr 2026
ERP et NF525 : tout comprendre sur la certification des logiciels de caisse en 2026

Envie de rester informé ? Recevez nos actualités dans votre boîte email.