🎙️ SDW : “Après une prise en main de solutions d’IA dans un contexte personnel, les collaborateurs early adopters seront curieux de tester leur apport dans leur quotidien professionnel. C’est ici que le risque émerge. Tout le monde ne lit pas ou n’intègre pas les subtilités des conditions d’utilisation des outils IA. Très souvent, les données que vous allez manipuler peuvent servir à l’apprentissage du modèle. Le collaborateur risque donc de rendre publiques des informations sensibles ou stratégiques de l’entreprise… ou de ses clients.
Il est important de rappeler que, même dans des versions payantes, certaines plateformes conservent le droit d’utiliser les données saisies pour entraîner leurs modèles. Et parfois, les options de désactivation de l’apprentissage automatique sont peu visibles ou désactivées par défaut. Un collaborateur qui copierait, par exemple, un cahier des charges client confidentiel dans un prompt IA pourrait sans le vouloir exposer ces données à d’autres utilisateurs du même outil. Cela pose des risques de fuite, de non-conformité RGPD et d’atteinte à la réputation.”