Quand ChatGPT pro devient trop intime

Une avocate française raconte à Capital un moment de gêne inattendu : en utilisant ChatGPT dans le cadre professionnel, elle découvre que des données personnelles saisies dans une précédente session — liées à sa vie privée — réapparaissent dans un contexte juridique. Problème ? Elle utilisait un compte pro, partagé avec d’autres collaborateurs.

Cet incident rappelle une chose simple mais cruciale : les outils d’IA générative conservent parfois un historique, surtout lorsqu’ils sont utilisés dans des environnements partagés ou mal configurés. OpenAI précise que les données ne sont pas utilisées pour l’entraînement des modèles dans les offres payantes (sauf choix contraire), mais cela ne garantit pas une confidentialité absolue au sein d’une même organisation.

Moralité : même si l’IA semble être un bon confident, ne lui confiez rien que vous ne seriez pas prêt à voir ressurgir en réunion.

Source : Capital

Laisser un commentaire