Faille de sécurité révélée dans les IA : Risques pour la confidentialité

Des chercheurs en cybersécurité ont identifié une faille significative dans le cryptage des conversations avec les assistants de type « Chat GPT ». Cette faille découle de l’utilisation de « tokens » par les IA pour générer des réponses, créant ainsi un « canal auxiliaire » permettant la fuite d’informations sensibles.

En exploitant des signaux physiques apparemment mineurs tels que la consommation électrique, le temps de traitement, le son, la lumière ou les ondes, les pirates peuvent intercepter le trafic réseau et déchiffrer les conversations privées avec les IA. Même si les conversations sont cryptées, cette vulnérabilité expose les données confidentielles à un risque important.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com