Souveraineté numérique menacée

Depuis quinze ans, le ministère des Armées repose largement sur les solutions Microsoft, avec un contrat « open bar » de 120 millions d’euros, renouvelé en 2013 et 2017 sans appel d’offres. Un récent rapport parlementaire met en lumière cette dépendance, soulignant les risques potentiels pour la souveraineté numérique française, notamment avec la possible évolution vers des logiciels en tant que service (SaaS) de Microsoft, compromettant la sécurité des données stockées à l’étranger. Malgré ces préoccupations, le rapport recommande l’exploration d’alternatives basées sur des logiciels libres tels que Linux, tout en reconnaissant les défis opérationnels et budgétaires, et soulignant le handicap potentiel en termes d’interopérabilité avec les alliés en cas d’abandon des solutions Microsoft.

Article complet ICI

Crédit photo : wallpapercave.com

Health Data Hub : où en est le projet ?

HDH

En 2018, suite au rapport de Cédric Villani sur l’intelligence artificielle, le projet Health Data Hub (HDH) a été initié pour centraliser les données de santé de 67 millions de personnes en France. Son objectif était de stimuler la recherche médicale en comblant les lacunes du système national des données de santé (SNDS) et en favorisant l’intelligence artificielle dans le domaine médical.

Le déploiement accéléré du HDH en décembre 2019 a suscité des inquiétudes majeures en raison de son hébergement sur Microsoft Azure.

En effet, les lois extraterritoriales américaines ont soulevé des préoccupations quant à la confidentialité et à la sécurité des données de santé des Français, mettant en péril la souveraineté numérique du pays. Ces préoccupations ont déclenché des débats et des critiques, notamment des risques pour la confidentialité des citoyens selon Edward Snowden.

Actuellement, le HDH fonctionne au ralenti en raison de procédures administratives complexes. Les chercheurs doivent passer par des démarches longues, impliquant des demandes multiples, l’approbation de la CNIL, et l’aval de comités scientifiques et éthiques. En 2023, des évaluations techniques ont été effectuées par des fournisseurs de cloud français pour héberger le HDH, mais aucun remplaçant officiel de Microsoft Azure n’a été désigné. Un rapport gouvernemental publié en janvier 2024 recommande le transfert du HDH vers un cloud qualifié SecNumCloud, mais cette décision est soumise à une validation politique ultérieure.

CC

Credit photo : wallpapercave.com

Alerte de Mozilla : Niveau alarmant de protection de la vie privée en ligne

Une étude annuelle nommée « Consumer Creep-O-Meter », menée par la Fondation Mozilla, met en évidence un niveau alarmant de protection de la vie privée en ligne.

Si certaines entreprises sont vertueuses sur la collecte des données personnelles, d’autres collectent et partagent sans vergogne prétextant la fournitures de publicités ciblées et l’entrainement des I.A.

Un outil permettant d’évaluer le niveau de respect de votre vie privée est proposé sous la forme d’un quiz : Digital Privacy Footprint

Article complet à lire ICI

Crédit photo : wallpapercave.com

Souveraineté numérique : des attaques récurrentes contre les logiciels libres européens

rsync.link cloud

Le numérique de confiance, le rôle exorbitant de l’Agence nationale de sécurité des systèmes d’information et l’inflation réglementaire européenne créent des conditions défavorables aux logiciels libres et accélèrent ensemble l’adoption en France de technologies américaines de Cloud centralisés peu résilientes et manquant de transparence.

Article à lire ICI

Crédit photo : wallpapercave.com

Dans quelques jours, le DSA (Digital Services Act,) nouvelle loi européenne visant à encadrer les pratiques des géants du web, entrera en vigueur

À compter du 25 août 2023, les plateformes Alibaba, AliExpress, Amazon, l’App Store, Bing, Booking, Facebook, Google, Google Play, Google Maps, Google Shopping, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, Wikipédia, X (Twitter), YouTube et Zalando devront se conformer au Digital Services Act, au risque de se voir infliger des amendes records (jusqu’à 6 % du chiffre d’affaires mondial) et de potentielles interdictions de territoire.

Avec un but affiché de renforcer la responsabilité des plateformes en ligne, accroître la transparence des algorithmes, protéger les mineurs contre les publicités ciblées et offrir aux utilisateurs des moyens de recours en cas de compte fermé, le DSA vise à créer un environnement en ligne plus transparent, sécurisé et contrôlable pour les utilisateurs de l’Union européenne.

Le Digital Services Act. introduira les obligations suivantes :

  1. La modération renforcée : Le DSA introduit de nouvelles mesures pour améliorer la modération du contenu en ligne, en particulier sur les réseaux sociaux.
  2. La transparence des algorithmes : Les plateformes comme Facebook, Instagram, LinkedIn, Pinterest, Snapchat, TikTok, X ou YouTube doivent expliquer le fonctionnement de leurs algorithmes pour chaque publication suggérée. Les utilisateurs doivent pouvoir comprendre pourquoi ils sont ciblés par un contenu.
  3. Les recommandations sans algorithme : Les plateformes doivent permettre aux utilisateurs de voir des recommandations de contenu sans l’interférence d’algorithmes. Les utilisateurs doivent avoir la possibilité de trier les contenus proposés chronologiquement, sans influence extérieure.
  4. Les Publicités ciblées aux mineurs : Les plateformes ne peuvent plus diffuser de publicités ciblées aux mineurs. Les contenus proposés aux mineurs doivent être moins personnalisés pour préserver leur protection.
  5. Le rétablissement de comptes fermés : Le DSA garantit aux utilisateurs un moyen de faire appel et d’obtenir un suivi de leur demande pour rétablir un compte qui a été fermé.

Article à lire depuis numerama.com

Crédit photo : wallpapercave.com

Bientôt, Voyager en Métro avec sa Carte Bancaire

En France, le remplacement des titres de transport par des cartes bancaires est en cours. La RATP envisage de moderniser le système en abandonnant progressivement le pass Navigo au profit de méthodes plus simples comme les cartes de crédit.

Actuellement, certains voyageurs utilisent leur smartphone comme titre de transport, mais l’utilisation de la carte bancaire reste limitée. La technologie actuellement utilisée devra être mise à jour pour permettre cette validation par carte bancaire, avec des défis tels que la sécurité et la lutte contre la fraude. Les premiers essais seront réalisés lors des Jeux olympiques de 2024, avec un déploiement plus large à partir de l’année suivante.

Article complet à lire ICI

Les États-Unis dévoilent leur plan de lutte contre les cyberattaques

Les objets connectés, comme les ampoules, les prises, les réfrigérateurs, les climatiseurs intelligents, les robots aspirateurs, les montres, les bracelets ou les téléviseurs, représentent un risque pour la sécurité informatique. Pour empêcher les hackers de prendre le contrôle d’un appareil intelligent pour mener des cyberattaques, Washington vient d’inaugurer un programme intitulé « U.S. Cyber Trust Mark ».

Il s’accompagnera de la création d’un label qui garantira aux consommateurs que les appareils intelligents répondent à certains critères en matière de cybersécurité. Parmi ces exigences, on trouvera notamment l’implémentation de « mots de passe par défaut uniques et forts », les mises à jour régulières, les mesures pour protéger les données personnelles et la mis en place de systèmes de détection en cas d’intrusion.

De son côté, l’Europe est bien consciente des dangers que représentent les objets connectés. L’an dernier, l’Union européenne a d’ailleurs annoncé la création d’une norme stricte pour tous les produits IoT. Tous les objets contenant un microprocesseur sont concernés. Jusqu’à 15 milliards d’euros d’amendes pourront être infligés aux entreprises ne respectant pas les règles.

Pour rappel dès 2019, la société française Digital Security avait créé un label « IoT Qualified as Secured ». A ce jour, il semble que les industriels n’aient pas massivement souscrit à la démarche.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Les 3 principaux dangers de l’IA

L’intelligence artificielle est en train de devenir une véritable révolution technologique et sociétale. Comme toute avancée majeure, elle s’accompagne de craintes plus ou moins fondées.

Les détracteurs y voient notamment un risque de bouleversement du marché du travail, remettant en cause certains emplois où l’IA apporterait un gain notable de productivité.

D’autres prédisent des cataclysmes sur les marchés financiers mondiaux. Boostés par l’intelligence artificielle, l’analyse de données, les prédictions de tendances ou encore le trading algorithmique pourraient emballer la machine et échapper à l’humain.

Enfin, les algorithmes de l’IA sont conçus par des êtres humains. Ils peuvent donc comporter des préjugés et des biais qui, appliqués à des problèmes complexes par l’intermédiaire des algorithmes et modèles d’IA, pourraient influencer les résultats de manière négative.

Lire la suite ICI

Crédit photo : wallpapercave.com

Données synthétiques : une clé pour protéger la vie privée

Une donnée est qualifiée d’anonyme seulement si on a fait la preuve qu’on ne peut pas remonter à la personne à l’origine de cette donnée, ni directement, ni indirectement. Mais plus les données individuelles sont massives, plus elles sont potentiellement ré-identifiantes.

La donnée synthétique a pour objet la modélisation de l’individu lui-même, dont on fournit une simulation appelée un avatar. En utilisant l’intelligence artificielle de manière éthique, chaque avatar simulé est suffisamment éloigné de l’individu pour empêcher toute réidentification, mais suffisamment fidèle pour conserver toute sa valeur statistique.

La suite ICI

Protection des données et éthique : l’importance de l’IA Act européen

En avril 2022, la Commission Européenne a voté la décision de mettre en place le premier cadre mondial juridique pour réguler l’utilisation et la commercialisation de l’IA. La nouvelle législation a pour but de garantir le respect des droits fondamentaux par les technologies génératives. Le modèle est similaire au RGPD, qui se dédié à la protection des données personnelles. Elle exige également la mise en place, la documentation et le maintien de systèmes de processus et de gestion des risques. Des systèmes à risque élevé sont d’ores et déjà interdits, tels que ceux qui pourraient exploiter les données des personnes vulnérables ou proposer la mise en place de scores sociaux. La transparence sera exigée pour garantir l’utilisation responsable et légale des données. Cependant, une IA en open source pourrait poser des difficultés. L’IA Act vise à protéger les données et les droits des citoyens.

Article complet à lire ICI

Credit photo : wallpapercave