Microsoft utilise vos documents pour entraîner ses IA : ce qu’il faut savoir

Microsoft analyse discrètement les contenus créés dans Word, Excel, et autres outils Office via une fonctionnalité appelée « Connected Experiences ». Ces données sont utilisées pour fournir des suggestions, mais aussi, potentiellement, pour entraîner ses modèles d’intelligence artificielle. Cette pratique repose sur une clause des conditions d’utilisation, qui accorde à Microsoft une licence mondiale et libre de droits sur vos contenus.

Le paramètre est activé par défaut et sa désactivation nécessite plusieurs étapes cachées dans les paramètres de confidentialité. Cette collecte, qui pourrait également bénéficier à OpenAI, soulève des interrogations sur la transparence et le respect des droits des utilisateurs, notamment dans un cadre professionnel où les contenus confidentiels pourraient être exposés.

Pour protéger vos données, il est urgent de désactiver cette fonctionnalité si vous traitez des informations sensibles. Une vigilance accrue s’impose face à l’exploitation croissante des contenus par les grandes entreprises technologiques

Lire l’article complet ICI

Que valent vos données personnelles ?

Darkweb personnal

Imaginez qu’une version numérique de vous-même, contenant vos informations personnelles, circule sur les réseaux souterrains d’Internet. Le darkweb, ce marché noir numérique, regorge d’informations sensibles volées. Pire encore, ces données, parfois anodines en apparence, sont échangées contre de l’argent ou utilisées pour commettre des escroqueries ciblées. Mais savez-vous combien valent vos données personnelles dans ce marché opaque et dangereux ?

Vos données, un produit comme un autre

Lorsque des hackers s’introduisent dans des systèmes informatiques en exploitant par exemple des failles de sécurité, ils récupèrent des trésors d’informations : numéros de cartes bancaires, e-mails, pièces d’identité, adresses personnelles, numéros de téléphone, voire des données médicales. Ces informations sont revendues sur le darkweb à des prix parfois dérisoires… mais avec des conséquences désastreuses pour leurs propriétaires.

Ces bases de données volées sont d’abord testées et évaluées. Les pirates les vendent ensuite en cryptomonnaies, garantissant ainsi l’anonymat des transactions. Si ces données ne trouvent pas preneur, elles peuvent même être diffusées gratuitement sur des forums de cybercriminels, souvent pour améliorer la réputation de leurs auteurs dans cette sombre communauté.


Combien valent vos données personnelles ?

  • Numéros de carte bancaire : environ 5 euros pour un code volé.
  • Cartes de fidélité : 30 à 80 euros, en fonction du solde restant.
  • Paquet complet d’informations personnelles : environ 50 euros, comprenant e-mail, pièce d’identité et carte Vitale.
  • Données rares ou permettant d’usurper une identité : jusqu’à 200 euros.

Les informations les plus chères ? Celles qui inspirent confiance et permettent des arnaques convaincantes, comme les numéros de Sécurité sociale ou les IBAN. Une simple carte Vitale piratée peut être exploitée pour des fraudes administratives coûteuses, parfois indétectables avant des mois.


Une menace pour chacun de nous

Si ces montants peuvent sembler faibles, ils représentent une manne gigantesque pour les cybercriminels, surtout lorsqu’ils opèrent à grande échelle. Chaque fuite massive de données alimente un marché où les pirates achètent et recoupent des informations, formant des dossiers complets sur des cibles potentielles.

Les conséquences ? Des victimes qui voient leurs comptes vidés, leur identité usurpée ou encore des crédits contractés à leur nom. Et ce n’est pas réservé aux « autres » : une personne sur deux a déjà vu ses données compromises dans une fuite majeure sans même le savoir.


Comment se protéger ?

  • Renforcez vos mots de passe : utilisez des combinaisons longues et uniques pour chaque service.
  • Activez la double authentification : un obstacle majeur pour les hackers.
  • Surveillez vos comptes : vérifiez régulièrement vos relevés bancaires et vos abonnements.
  • Utilisez des outils spécialisés : services de monitoring pour repérer si vos données apparaissent sur des forums du darkweb.

Le darkweb prospère grâce à notre négligence. Si les pirates se battent pour voler vos informations, c’est qu’elles ont une valeur. Alors, posez-vous cette question : êtes-vous prêt à laisser votre identité devenir une marchandise ?

Vous avez dit souveraineté ?

A l’heure où les attaques Cyber contre les infrastructures informatiques ne se comptent plus tellement elles sont nombreuses, où les « pannes » ou « bug » informatiques paralysent la terre entière et que cela ne choque plus personne, où certains préfèrent confier aveuglément la gestion de leurs outils informatiques à des sociétés étrangères au prétexte qu’ils sont faciles à utiliser, où l’on s’exonère des règles régissant le traitement des données personnelles pourvu que la rentabilité soit au rendez-vous, que pensez-vous de cette initiative ?

Lire la suite ICI

Souveraineté Numérique : l’urgence de protéger nos données

Les données, bien que souvent abstraites, représentent des éléments vitaux de nos vies, allant des informations personnelles aux secrets commerciaux. Cependant, la majorité des Français ne prête pas encore une attention suffisante à la protection de leurs données.

Cette négligence expose les individus, les entreprises et les collectivités à des risques de sécurité significatifs, en particulier lorsque les données sont stockées auprès de grandes entreprises étrangères.

L’Union européenne tente de contrer cette dépendance en développant des normes de cybersécurité pour le cloud, mais rencontre des difficultés liés à la concurrence et aux partenariats stratégiques.

Malgré les appels des grandes entreprises françaises à maintenir des critères de souveraineté stricts, l’absence d’une politique européenne unifiée expose l’UE à des risques potentiels.

Pour garantir la sécurité numérique de tous, il est crucial d’adopter une approche collective, en sensibilisant et en protégeant activement les données au niveau politique, social et individuel.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Confidentialité : Androïd VS iOS

Vous vous êtes peut-être demandé (ou pas) si vous pouviez avoir confiance (ou non) en votre smartphone préféré ; ou bien pourquoi vous receviez de la publicité ciblée sur des sujets abordés lors de conversations ou recherches récentes.

Le comparatif réalisé par Ernestas NAPRYS de Cybernews pourrait vous éclairer sur ces questions. Vous avez aussi la possibilité de constater par vous-même à qui causent vos applis en suivant ce petit tutoriel :

  1. Allez sur le site https://InAppBrowser.com depuis votre navigateur web.
  2. Copiez le lien et collez-le dans une de vos applis qui utilise un navigateur intégré (comme Whatsapp, Instagram, Facebook, etc).
  3. Ouvrez ce lien depuis l’appli sélectionnée.
  4. Vous devriez voir s’afficher la liste des commandes JavaScript injectées par l’appli sur la page web !

Article complet ICI

Crédit photo : wallpapercave.com

Faille de sécurité révélée dans les IA : Risques pour la confidentialité

Des chercheurs en cybersécurité ont identifié une faille significative dans le cryptage des conversations avec les assistants de type « Chat GPT ». Cette faille découle de l’utilisation de « tokens » par les IA pour générer des réponses, créant ainsi un « canal auxiliaire » permettant la fuite d’informations sensibles.

En exploitant des signaux physiques apparemment mineurs tels que la consommation électrique, le temps de traitement, le son, la lumière ou les ondes, les pirates peuvent intercepter le trafic réseau et déchiffrer les conversations privées avec les IA. Même si les conversations sont cryptées, cette vulnérabilité expose les données confidentielles à un risque important.

Article complet à retrouver ICI

Crédit photo : wallpapercave.com

Veintree : biométrie inovante pour une authentification unique

La technologie développée par Veintree utilise les veines des mains pour l’authentification, offrant une méthode sécurisée et respectueuse de la vie privée sans stockage de données personnelles. Utilisant l’infrarouge et des fonctions mathématiques, elle crée des serrures numériques uniques pour chaque utilisateur. Applicable dans divers domaines, elle vise à protéger les données sensibles et à lutter contre les fausses informations grâce à l’authentification anonyme et la blockchain, promettant transparence et contrôle des données personnelles.

Source : BFMTV

Outlook nouvelle génération : un espion dans votre boîte mail ?

La nouvelle version d’Outlook, déployée en septembre par Microsoft, soulève des inquiétudes quant à la protection des données personnelles. Proton, une entreprise technologique suisse, a dénoncé Microsoft dans un article de blog, accusant Outlook de devenir un outil de surveillance pour la publicité ciblée. Selon Proton, Outlook collecte une multitude de données des utilisateurs, notamment des noms, coordonnées, mots de passe, données démographiques, de paiement, de recherche, d’appareil, vocales, textuelles, images, localisation, et bien plus.

Microsoft partage ces données avec environ 772 tiers. Les résidents de l’UE peuvent consentir à cet accord en vertu du RGPD, mais les utilisateurs dans le reste du monde sont automatiquement soumis à ce partage de données. Les utilisateurs britanniques ont accès à une liste de partenaires publicitaires de Microsoft, mais sont confrontés à des politiques d’utilisation complexes. Ces politiques autorisent les partenaires de Microsoft à vendre les données personnelles à d’autres entreprises et à accéder à des informations détaillées sur les appareils des utilisateurs.

En résumé, l’exploitation des données personnelles est une préoccupation majeure avec le nouvel Outlook, d’autant plus que Microsoft a obligé les utilisateurs à passer à cette nouvelle version sans possibilité de rester sur l’ancienne​ !

Source : tomsguide.fr

Health Data Hub : où en est le projet ?

HDH

En 2018, suite au rapport de Cédric Villani sur l’intelligence artificielle, le projet Health Data Hub (HDH) a été initié pour centraliser les données de santé de 67 millions de personnes en France. Son objectif était de stimuler la recherche médicale en comblant les lacunes du système national des données de santé (SNDS) et en favorisant l’intelligence artificielle dans le domaine médical.

Le déploiement accéléré du HDH en décembre 2019 a suscité des inquiétudes majeures en raison de son hébergement sur Microsoft Azure.

En effet, les lois extraterritoriales américaines ont soulevé des préoccupations quant à la confidentialité et à la sécurité des données de santé des Français, mettant en péril la souveraineté numérique du pays. Ces préoccupations ont déclenché des débats et des critiques, notamment des risques pour la confidentialité des citoyens selon Edward Snowden.

Actuellement, le HDH fonctionne au ralenti en raison de procédures administratives complexes. Les chercheurs doivent passer par des démarches longues, impliquant des demandes multiples, l’approbation de la CNIL, et l’aval de comités scientifiques et éthiques. En 2023, des évaluations techniques ont été effectuées par des fournisseurs de cloud français pour héberger le HDH, mais aucun remplaçant officiel de Microsoft Azure n’a été désigné. Un rapport gouvernemental publié en janvier 2024 recommande le transfert du HDH vers un cloud qualifié SecNumCloud, mais cette décision est soumise à une validation politique ultérieure.

CC

Credit photo : wallpapercave.com

ChatGPT : quand les IA oublient de garder le secret

Des chercheurs de l’université de l’Indiana ont révélé une faille dans ChatGPT-3.5 Turbo qui permet de récupérer des informations personnelles, telles que les adresses électroniques de plus de trente employés du New York Times. Le problème provient du « réglage fin » de l’interface de programmation d’application (API), où ChatGPT, en répondant aux requêtes, peut puiser dans des données massives, y compris des informations personnelles.

Les Large Language Models (LLM) tels que ChatGPT « oublient » les anciennes données au profit de nouvelles, un processus habituellement bénéfique pour la confidentialité. Cependant, les chercheurs ont découvert que cette mémoire peut être « rafraîchie », remettant en question la garantie de confidentialité des données.

En fournissant une liste de noms et d’e-mails à ChatGPT, ils ont constaté que 80 % des adresses récupérées étaient correctes. Cette découverte souligne le risque que le réglage fin puisse être exploité pour contourner les protections, un problème que les développeurs d’OpenAI prennent très au sérieux, s’engageant à renforcer la sécurité et à rejeter les demandes d’informations sensibles.

Source : lepoint.fr