Faille de sécurité révélée dans les IA : Risques pour la confidentialité

Des chercheurs en cybersécurité ont identifié une faille significative dans le cryptage des conversations avec les assistants de type « Chat GPT ». Cette faille découle de l’utilisation de « tokens » par les IA pour générer des réponses, créant ainsi un « canal auxiliaire » permettant la fuite d’informations sensibles.

En exploitant des signaux physiques apparemment mineurs tels que la consommation électrique, le temps de traitement, le son, la lumière ou les ondes, les pirates peuvent intercepter le trafic réseau et déchiffrer les conversations privées avec les IA. Même si les conversations sont cryptées, cette vulnérabilité expose les données confidentielles à un risque important.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Les 3 principaux dangers de l’IA

L’intelligence artificielle est en train de devenir une véritable révolution technologique et sociétale. Comme toute avancée majeure, elle s’accompagne de craintes plus ou moins fondées.

Les détracteurs y voient notamment un risque de bouleversement du marché du travail, remettant en cause certains emplois où l’IA apporterait un gain notable de productivité.

D’autres prédisent des cataclysmes sur les marchés financiers mondiaux. Boostés par l’intelligence artificielle, l’analyse de données, les prédictions de tendances ou encore le trading algorithmique pourraient emballer la machine et échapper à l’humain.

Enfin, les algorithmes de l’IA sont conçus par des êtres humains. Ils peuvent donc comporter des préjugés et des biais qui, appliqués à des problèmes complexes par l’intermédiaire des algorithmes et modèles d’IA, pourraient influencer les résultats de manière négative.

Lire la suite ICI

Crédit photo : wallpapercave.com

Protection des données et éthique : l’importance de l’IA Act européen

En avril 2022, la Commission Européenne a voté la décision de mettre en place le premier cadre mondial juridique pour réguler l’utilisation et la commercialisation de l’IA. La nouvelle législation a pour but de garantir le respect des droits fondamentaux par les technologies génératives. Le modèle est similaire au RGPD, qui se dédié à la protection des données personnelles. Elle exige également la mise en place, la documentation et le maintien de systèmes de processus et de gestion des risques. Des systèmes à risque élevé sont d’ores et déjà interdits, tels que ceux qui pourraient exploiter les données des personnes vulnérables ou proposer la mise en place de scores sociaux. La transparence sera exigée pour garantir l’utilisation responsable et légale des données. Cependant, une IA en open source pourrait poser des difficultés. L’IA Act vise à protéger les données et les droits des citoyens.

Article complet à lire ICI

Credit photo : wallpapercave

Un chatbot qui fait trembler Google

ChatGPT est une nouvelle technologie de génération de langage naturel d’OpenAI capable de répondre aux questions, reconnaître ses erreurs, contester des prémisses incorrectes ou encore rejeter des demandes inappropriées. Bien qu’expérimental, ChatGPT semble finalement parvenu à inquiéter la firme de Mountain View.

Article à lire sur presse-citron.net

Crédit photo : wallpapercave.com