L’intelligence artificielle ne se contente pas d’apprendre : elle absorbe, parfois un peu trop. Selon Solutions-Numériques, les entreprises exposent malgré elles leurs informations sensibles lorsqu’elles utilisent des outils d’IA générative. En cause : des employés enthousiastes qui copient-collent des extraits de documents internes dans des chatbots externes pour gagner du temps. Résultat : des fragments de code, des contrats ou des données clients peuvent se retrouver dans des systèmes tiers… et potentiellement réutilisés pour entraîner d’autres modèles.
Le phénomène n’est pas isolé. Des rapports de Harmonic Security et Cyberhaven confirment que plus de 40 % des fichiers partagés vers des IA contiennent des données confidentielles. Et selon Okoone, les applications SaaS couplées à l’IA ont généré plus de 870 millions d’incidents de fuite de données en 2024.
Les DSI doivent donc naviguer dans un paysage explosif : entre productivité et confidentialité, l’équilibre devient un numéro d’équilibriste.
Conseils cyber pour éviter la fuite :
- Établissez une charte IA : précisez noir sur blanc ce qu’il est permis (ou non) de soumettre à un outil externe.
- Choisissez des IA souveraines ou locales : préférez les modèles hébergés en interne ou sur des clouds de confiance.
- Formez vos équipes : un bon prompt, c’est aussi un prompt responsable.
- Mettez en place des outils de DLP (Data Loss Prevention) : ils détectent les envois de données sensibles vers des services externes.
- Et surtout : ne copiez jamais dans un chatbot une donnée que vous n’enverriez pas à un concurrent.
