Souveraineté Numérique : l’urgence de protéger nos données

Les données, bien que souvent abstraites, représentent des éléments vitaux de nos vies, allant des informations personnelles aux secrets commerciaux. Cependant, la majorité des Français ne prête pas encore une attention suffisante à la protection de leurs données.

Cette négligence expose les individus, les entreprises et les collectivités à des risques de sécurité significatifs, en particulier lorsque les données sont stockées auprès de grandes entreprises étrangères.

L’Union européenne tente de contrer cette dépendance en développant des normes de cybersécurité pour le cloud, mais rencontre des difficultés liés à la concurrence et aux partenariats stratégiques.

Malgré les appels des grandes entreprises françaises à maintenir des critères de souveraineté stricts, l’absence d’une politique européenne unifiée expose l’UE à des risques potentiels.

Pour garantir la sécurité numérique de tous, il est crucial d’adopter une approche collective, en sensibilisant et en protégeant activement les données au niveau politique, social et individuel.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Confidentialité : Androïd VS iOS

Vous vous êtes peut-être demandé (ou pas) si vous pouviez avoir confiance (ou non) en votre smartphone préféré ; ou bien pourquoi vous receviez de la publicité ciblée sur des sujets abordés lors de conversations ou recherches récentes.

Le comparatif réalisé par Ernestas NAPRYS de Cybernews pourrait vous éclairer sur ces questions. Vous avez aussi la possibilité de constater par vous-même à qui causent vos applis en suivant ce petit tutoriel :

  1. Allez sur le site https://InAppBrowser.com depuis votre navigateur web.
  2. Copiez le lien et collez-le dans une de vos applis qui utilise un navigateur intégré (comme Whatsapp, Instagram, Facebook, etc).
  3. Ouvrez ce lien depuis l’appli sélectionnée.
  4. Vous devriez voir s’afficher la liste des commandes JavaScript injectées par l’appli sur la page web !

Article complet ICI

Crédit photo : wallpapercave.com

Faille de sécurité révélée dans les IA : Risques pour la confidentialité

Des chercheurs en cybersécurité ont identifié une faille significative dans le cryptage des conversations avec les assistants de type « Chat GPT ». Cette faille découle de l’utilisation de « tokens » par les IA pour générer des réponses, créant ainsi un « canal auxiliaire » permettant la fuite d’informations sensibles.

En exploitant des signaux physiques apparemment mineurs tels que la consommation électrique, le temps de traitement, le son, la lumière ou les ondes, les pirates peuvent intercepter le trafic réseau et déchiffrer les conversations privées avec les IA. Même si les conversations sont cryptées, cette vulnérabilité expose les données confidentielles à un risque important.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Veintree : biométrie inovante pour une authentification unique

La technologie développée par Veintree utilise les veines des mains pour l’authentification, offrant une méthode sécurisée et respectueuse de la vie privée sans stockage de données personnelles. Utilisant l’infrarouge et des fonctions mathématiques, elle crée des serrures numériques uniques pour chaque utilisateur. Applicable dans divers domaines, elle vise à protéger les données sensibles et à lutter contre les fausses informations grâce à l’authentification anonyme et la blockchain, promettant transparence et contrôle des données personnelles.

Source : BFMTV

Souveraineté numérique menacée

Depuis quinze ans, le ministère des Armées repose largement sur les solutions Microsoft, avec un contrat « open bar » de 120 millions d’euros, renouvelé en 2013 et 2017 sans appel d’offres. Un récent rapport parlementaire met en lumière cette dépendance, soulignant les risques potentiels pour la souveraineté numérique française, notamment avec la possible évolution vers des logiciels en tant que service (SaaS) de Microsoft, compromettant la sécurité des données stockées à l’étranger. Malgré ces préoccupations, le rapport recommande l’exploration d’alternatives basées sur des logiciels libres tels que Linux, tout en reconnaissant les défis opérationnels et budgétaires, et soulignant le handicap potentiel en termes d’interopérabilité avec les alliés en cas d’abandon des solutions Microsoft.

Article complet ICI

Crédit photo : wallpapercave.com

Outlook nouvelle génération : un espion dans votre boîte mail ?

La nouvelle version d’Outlook, déployée en septembre par Microsoft, soulève des inquiétudes quant à la protection des données personnelles. Proton, une entreprise technologique suisse, a dénoncé Microsoft dans un article de blog, accusant Outlook de devenir un outil de surveillance pour la publicité ciblée. Selon Proton, Outlook collecte une multitude de données des utilisateurs, notamment des noms, coordonnées, mots de passe, données démographiques, de paiement, de recherche, d’appareil, vocales, textuelles, images, localisation, et bien plus.

Microsoft partage ces données avec environ 772 tiers. Les résidents de l’UE peuvent consentir à cet accord en vertu du RGPD, mais les utilisateurs dans le reste du monde sont automatiquement soumis à ce partage de données. Les utilisateurs britanniques ont accès à une liste de partenaires publicitaires de Microsoft, mais sont confrontés à des politiques d’utilisation complexes. Ces politiques autorisent les partenaires de Microsoft à vendre les données personnelles à d’autres entreprises et à accéder à des informations détaillées sur les appareils des utilisateurs.

En résumé, l’exploitation des données personnelles est une préoccupation majeure avec le nouvel Outlook, d’autant plus que Microsoft a obligé les utilisateurs à passer à cette nouvelle version sans possibilité de rester sur l’ancienne​ !

Source : tomsguide.fr

Health Data Hub : où en est le projet ?

HDH

En 2018, suite au rapport de Cédric Villani sur l’intelligence artificielle, le projet Health Data Hub (HDH) a été initié pour centraliser les données de santé de 67 millions de personnes en France. Son objectif était de stimuler la recherche médicale en comblant les lacunes du système national des données de santé (SNDS) et en favorisant l’intelligence artificielle dans le domaine médical.

Le déploiement accéléré du HDH en décembre 2019 a suscité des inquiétudes majeures en raison de son hébergement sur Microsoft Azure.

En effet, les lois extraterritoriales américaines ont soulevé des préoccupations quant à la confidentialité et à la sécurité des données de santé des Français, mettant en péril la souveraineté numérique du pays. Ces préoccupations ont déclenché des débats et des critiques, notamment des risques pour la confidentialité des citoyens selon Edward Snowden.

Actuellement, le HDH fonctionne au ralenti en raison de procédures administratives complexes. Les chercheurs doivent passer par des démarches longues, impliquant des demandes multiples, l’approbation de la CNIL, et l’aval de comités scientifiques et éthiques. En 2023, des évaluations techniques ont été effectuées par des fournisseurs de cloud français pour héberger le HDH, mais aucun remplaçant officiel de Microsoft Azure n’a été désigné. Un rapport gouvernemental publié en janvier 2024 recommande le transfert du HDH vers un cloud qualifié SecNumCloud, mais cette décision est soumise à une validation politique ultérieure.

CC

Credit photo : wallpapercave.com

Bonne année !!!

Alors que nous accueillons cette nouvelle année, je tenais à prendre un moment pour exprimer ma gratitude la plus sincère pour le soutien de nos adhérents et de nos lecteurs.

Au nom du bureau, nous nous engageons à poursuivre notre mission avec encore plus de vigueur et d’enthousiasme, toujours guidés par nos valeurs communes.

Nous vous souhaitons, ainsi qu’à vos proches, une année 2024 emplie de joie, de santé, et de prospérité. Que cette année vous apporte de nouvelles opportunités, du bonheur, et qu’elle soit le théâtre de nombreux succès tant personnels que collectifs !

Ensemble, continuons à œuvrer pour un monde numérique meilleur.

Bonne année 2024 !

ChatGPT : quand les IA oublient de garder le secret

Des chercheurs de l’université de l’Indiana ont révélé une faille dans ChatGPT-3.5 Turbo qui permet de récupérer des informations personnelles, telles que les adresses électroniques de plus de trente employés du New York Times. Le problème provient du « réglage fin » de l’interface de programmation d’application (API), où ChatGPT, en répondant aux requêtes, peut puiser dans des données massives, y compris des informations personnelles.

Les Large Language Models (LLM) tels que ChatGPT « oublient » les anciennes données au profit de nouvelles, un processus habituellement bénéfique pour la confidentialité. Cependant, les chercheurs ont découvert que cette mémoire peut être « rafraîchie », remettant en question la garantie de confidentialité des données.

En fournissant une liste de noms et d’e-mails à ChatGPT, ils ont constaté que 80 % des adresses récupérées étaient correctes. Cette découverte souligne le risque que le réglage fin puisse être exploité pour contourner les protections, un problème que les développeurs d’OpenAI prennent très au sérieux, s’engageant à renforcer la sécurité et à rejeter les demandes d’informations sensibles.

Source : lepoint.fr

La protection des données à l’ère numérique : l’importance du chiffrement

chiffrement-des-données-rsync

Apple a alerté sur une augmentation significative des vols de données personnelles. Selon un rapport de la firme, 2,6 milliards de dossiers personnels ont été compromis suite à des violations de données au cours des deux dernières années. Cette situation met en lumière la nécessité du chiffrement de bout en bout pour protéger les données.

Les États-Unis ont connu une hausse de 20 % des violations de données en 2023, avec plus de 80 % de ces violations concernant des données stockées sur le cloud. Apple, ainsi que d’autres géants technologiques tels que Google et Meta, renforcent l’usage du chiffrement pour améliorer la sécurité des données.

Source : lemondeinformatique.fr