ChatGPT : quand les IA oublient de garder le secret

Des chercheurs de l’université de l’Indiana ont révélé une faille dans ChatGPT-3.5 Turbo qui permet de récupérer des informations personnelles, telles que les adresses électroniques de plus de trente employés du New York Times. Le problème provient du « réglage fin » de l’interface de programmation d’application (API), où ChatGPT, en répondant aux requêtes, peut puiser dans des données massives, y compris des informations personnelles.

Les Large Language Models (LLM) tels que ChatGPT « oublient » les anciennes données au profit de nouvelles, un processus habituellement bénéfique pour la confidentialité. Cependant, les chercheurs ont découvert que cette mémoire peut être « rafraîchie », remettant en question la garantie de confidentialité des données.

En fournissant une liste de noms et d’e-mails à ChatGPT, ils ont constaté que 80 % des adresses récupérées étaient correctes. Cette découverte souligne le risque que le réglage fin puisse être exploité pour contourner les protections, un problème que les développeurs d’OpenAI prennent très au sérieux, s’engageant à renforcer la sécurité et à rejeter les demandes d’informations sensibles.

Source : lepoint.fr

Laisser un commentaire