La cybersécurité à Rennes 1



Chargement

La cybersécurité à Rennes 1

Ce document, publié en 2016, est en cours d'actualisation. En complément, vous pouvez télécharger ici la plaquette cyber de l'Université de Rennes 1, édition 2020.

En 2020 également, s'est ouverte à Rennes CyberSchool, école universitaire de recherche en cybersécurité, unique en France.


La cybersécurité, c’est la sécurité des systèmes d’information, c’est-à-dire d’à peu près tous les dispositifs qui nous entourent et qui sont pourvus d’une capacité minimale de calcul : ordinateurs, smartphones ou tablettes, mais aussi clés de voiture, carte à puce, objets connectés ou domotiques… La cybersécurité va bien au-delà d’internet.

Pour sécuriser cet ensemble, il faut préserver l’intégrité et la confidentialité des informations transitant par ces objets et les réseaux numériques qu’ils utilisent, tout en garantissant leur authenticité, leur origine et leur propriété. Au-delà de la protection des données personnelles de tous (individus, entreprises, associations, institutions), le concept de cybersécurité, associé à celui de cyberdéfense, s’emploie dans un contexte où la sûreté de l’État se trouve impliquée.

On dit souvent que la cybersécurité consiste en une chaîne aussi résistante que le plus faible de ses maillons. Pour la garantir, il faut en effet travailler sur l’ensemble de ce qui fait le monde numérique : le matériel, les logiciels, le réseau, mais aussi former concepteurs et utilisateurs. Le tout dans un cadre juridique pertinent, garant des libertés individuelles comme de la propriété intellectuelle.

L’université de Rennes 1 a la particularité de couvrir l’ensemble des maillons de la chaîne de la cybersécurité, avec ses partenaires du site rennais et du Pôle d’excellence cyber breton. Ce long format web (textes, photos, vidéos, applications) a pour objectif de rendre accessibles les travaux de recherche menés sur les campus de l’université, en lien avec les formations offertes aux étudiants. Bonne lecture !

Cyberattaques : l’utilisateur en (première) ligne

La cybersécurité est l’affaire de tous, comme le rappelle Jean-Marc Jézéquel, directeur de l’IRISA.

Mais en pratique, comment assurer sa propre cybersécurité ?

Serge Aumont, RSSI de l'université de Rennes 1
Serge Aumont, RSSI de l’université de Rennes 1

Responsable de la sécurité du système d’information de Rennes 1, Serge Aumont travaille auprès des 31 000 utilisateurs de l’établissement pour diffuser le plus efficacement possible les grands principes de sécurité des données au sein de la communauté universitaire.

Voici ses conseils pour les utilisateurs de tout réseau professionnel (universitaire en particulier).

En ligne, séparer le privé du professionnel

Distinguez mots de passe et comptes utilisateur pro et perso. Bien sûr, de manière générale, il ne faut jamais choisir le même mot de passe pour plusieurs services en ligne : c’est la porte ouverte au vol de votre identité numérique.  Si vos comptes sont trop nombreux pour votre mémoire, utilisez un gestionnaire de mot de passe (Keepass, Dashlane, 1Password…).

Vigilance sur les courriels et sur vos identifiants

Malgré des filtres anti-spam très performants, étudiants et personnels restent exposés à des attaques par ingénierie sociale, conçues pour inciter l’utilisateur à cliquer sur un lien infectant sa machine ou à entrer ses identifiants sur un site malveillant. À Rennes 1, environ un utilisateur vient déclarer chaque mois qu’il s’est fait piéger en livrant son mot de passe. Mais beaucoup restent silencieux. Il est important que ces utilisateurs signalent l’incident sans se sentir coupables : ces pièges sont de plus en plus ingénieux et peuvent être rencontrés dans des contextes tout à fait classiques.

Le site http://haveibeenpwned.com vous permet de vérifier si un compte lié à votre adresse de courriel a été compromis (Pwned) lors des gigantesques piratages de bases de données chez Adobe, DropBox ou autres. Entrez votre courriel et regardez si le logo d’un service sur lequel vous avez ouvert un compte s’affiche. Si oui, il est fortement conseillé de changer votre mot de passe de compte. Et bien sûr, de veiller à choisir un mot de passe robuste, différent pour chacun de vos comptes.

À lire : 5 réflexes à avoir lors de la réception d’un courriel, par l’ANSSI

Restez à jour

N.B. Cette règle s’applique à tout poste pour lequel la responsabilité des mises à jour vous incombe.

Votre ordinateur peut contracter un virus même en naviguant sur des sites web très connus et parfaitement légitimes. En effet ces sites diffusent des bannières publicitaires qui peuvent occasionnellement disséminer des logiciels malveillants : les régies qui administrent ces bannières commerciales ne sont pas toutes assez rigoureuses sur la sécurité. Sans même cliquer sur ces bannières, l’infection peut survenir dès l’affichage de la page dans votre navigateur, si ses modules complémentaires sont vulnérables. Le maillon faible ? Adobe Flash en particulier. En attendant l’arrêt de ce logiciel au profit de HTML5, plus sûr et qui ne nécessite pas de plug-in à installer, veillez à toujours disposer des dernières versions disponibles. La même règle vaut pour tous vos logiciels, votre système d’exploitation et votre antivirus, dans la mesure où votre poste n’est pas administré par votre employeur. Partout où c’est possible, activez les mises à jour automatiques.

Sauvegardez vos données pro sur les serveurs pro

Sur un réseau professionnel, le risque vient également des machines qui font la navette entre le réseau privé des utilisateurs à leur domicile, moins bien protégé, et le lieu de travail.

Aujourd’hui, le type de logiciel malveillant parmi les plus redoutables est le “ransomware” de type “cryptolocker” : une fois exécuté sur l’ordinateur de la victime, il chiffre l’ensemble de ses fichiers de documents, puis demande un paiement pour les déverrouiller.

Capture d'écran d'un ransomware de type "Cryptolocker"

Les mesures en place à Rennes 1 et dans nombre d’établissements permettent de se prémunir contre cette attaque et de restaurer les fichiers, si toutefois les données ont bien été déposées sur les serveurs mis à disposition.

Et surtout : signaler tout incident de sécurité

Si l’on s’est fait soutirer son mot de passe ou infecter par un logiciel malveillant, il est très important de signaler l’incident aux opérateurs des services que vous utilisez : cela permet de restaurer la protection de votre compte, mais aussi de prévenir d’autres dommages possibles pour le réseau et pour les autres utilisateurs.

Voici des ressources utiles :

Oubliez-moi ! Droits du citoyen et géants de l'internet

Permissions et profilage

Possédez-vous un smartphone équipé des logiciels de Google, d’Apple ou de Microsoft ? Lorsque vous utilisez une application téléchargée depuis Google Play ou l’App Store, on vous demande d’accorder des “permissions” à ces programmes additionnels. C’est une étape cruciale : en acceptant, vous donnez accès à vos informations de géolocalisation, vos contacts, vos photos, votre caméra, au numéro d’identifiant unique de votre téléphone…

Ces permissions ne servent pas qu’à vous proposer des fonctionnalités utiles. Une bonne part vise à récolter des données sur la manière dont vous utilisez l’application, très souvent gratuite.

Vos données sont ainsi transmises aux ordinateurs de l’opérateur de l’application (souvent situés dans un autre pays) : c’est ce qu’on appelle le “cloud” (nuage). Collectées sur de longues durées, ces données sont analysées avec celles de millions d’autres personnes à l’aide d’outils mathématiques très performants. Un véritable enjeu de cybersécurité.

« Surtout« , souligne Maryline Boizard, “ces données personnelles sont croisées avec d’autres sources. Petit à petit, elle conduisent à la création d’un profil utilisateur très détaillé.

Ce profil est d’autant plus intime, d’autant plus révélateur qu’il rassemble des données vous touchant de près : vos amis sur les réseaux sociaux, votre fréquence cardiaque ou votre nombre de pas quotidiens si vous utilisez un capteur de fitness connecté, votre style de conduite et vos trajets si votre voiture est équipée d’une balise GPS.

“Ce profilage n’est-il pas de nature à porter atteinte à la vie privée de l’utilisateur ? Ne risque-t-il pas de créer des situations de discrimination ?” interroge Maryline Boizard.

Aujourd’hui par exemple, les objets personnels et les véhicules connectés  intéressent au plus haut point les compagnies d’assurances, qui pour certaines proposent déjà des “bonus” ou des objets connectés gratuits à ceux de leurs clients acceptant de leur envoyer leurs données. Actuellement, ces assurances récompensent la bonne conduite au volant, l’exercice physique régulier… et demain ? Ne verra-t-on pas émerger un système de primes d’assurance différenciées, basé sur la surveillance obligatoire du comportement de l’assuré ?

Modèle économique et exploitation des données personnelles

Sur internet, le modèle du “tout gratuit” s’est imposé. Pour qu’un service en ligne voie affluer nombre d’utilisateurs, il faut qu’il soit intéressant et d’accès libre, au moins dans sa version de base. Mais pour payer les coûts occasionnés par ce service, ses opérateurs doivent le rentabiliser. La diffusion de publicités ciblées, dépendant du profil de l’utilisateur, est l’un des moyens les plus courants.

Le profil utilisateur, véritable richesse des opérateurs en ligne

Aux yeux des investisseurs, c’est donc son portefeuille de profils qui fait toute la valeur d’une entreprise offrant ses services sur internet. Si nous bénéficions du confort d’une application gratuite, nous la payons en réalité en données personnelles transmises aux propriétaires de cette application. D’où l’adage bien connu : “Si c’est gratuit, c’est vous le produit”. Ce modèle économique remonte aux tous premiers pas de l’internet commercial.

Disproportion

« L’une des préoccupations du juriste », indique Maryline Boizard, “est que certaines applications rendent un service minimal en échange d’une quantité phénoménale de données collectées.”

Il existe des applications “lampe torche” qui, en pressant un bouton, activent en continu le flash du smartphone. C’est utile pour se déplacer dans l’obscurité. Mais certaines de ces applications demandent l’accès aux contacts téléphoniques, à l’identifiant de l’appareil voire à sa géolocalisation. Ici, le rapport entre service rendu et coût en divulgation de données personnelles semble disproportionné.

Or, aucun texte de droit ne réglemente les proportions de cet échange. Les juristes ont donc fort à faire pour améliorer les dispositifs de protection de l’utilisateur.

Droit à l’oubli

Corollaire de cette tentative de rééquilibrage, le droit à l’oubli est un autre sujet d’intenses débats entre juristes et géants de l’Internet. Les internautes disposent-ils d’un droit légitime au retrait de toute information les concernant dans les résultats de recherche de Google, par exemple ? C’est bien l’avis de la CNIL. Celle-ci a condamné Google en mars 2016 à verser une amende de 100 000 euros. Vous vous souvenez peut-être que Google a accepté de supprimer certains de ses résultats de recherche pouvant porter préjudice à des internautes : le moteur de recherche a mis en place un formulaire permettant d’exercer son droit à l’oubli. Seulement, les données supprimées l’ont été uniquement sur la plateforme française de Google, et sur ses autres sites… à condition que la requête provienne de France. Un internaute américain peut toujours accéder aux résultats supprimés. Google a fait appel de la décision de la CNIL, arguant de ce que la loi française ne peut s’appliquer hors du territoire national. À suivre.

Car au-delà du droit à l’oubli, c’est la question du profilage qui revient. Pouvoir supprimer entièrement son empreinte en ligne et tout droit d’accès à vos informations personnelles, c’est garantir que l’utilisation commerciale de vos données peut être limitée dans le temps. Ce n’est pas le cas aujourd’hui : en cochant la case “Accepter les conditions générales et continuer”, vous signez irrévocablement un contrat de cession à durée indéterminée.

Encadrer le profilage

Un projet de recherche commun sur le profilage réunit Maryline Boizard et les informaticiens de l’IRISA. Il a commencé en juin 2016.

Pour ce projet, les juristes s’emploient à établir un état des lieux de la législation actuelle, afin de réunir les éléments déjà existants de protection des utilisateurs. Puis, pour les nouvelles dispositions envisagées, les chercheurs vérifieront l’adéquation des mesures juridiques et techniques : il est inutile que le droit offre des prérogatives aux personnes, s’il est impossible de les garantir matériellement.

Examinons par exemple le droit, pour un particulier, de garder la pleine maîtrise des données le concernant (on parle d’autodétermination informationnelle). Ce droit est-il opposable à l’opérateur ? Autrement dit, l’internaute est-il fondé à demander l’effacement total de ses données à une plateforme de réseau social, par exemple ? Si oui, comment le garantir, sachant qu’aujourd’hui, on ne peut vraiment contrôler ses données que si elles restent stockées sur son seul ordinateur ? Le législateur pourra poser des règles limitatives, même si elles sont difficiles à garantir.

Simplifier les conditions générales

Une expérience vient d’être conduite en Norvège. Des personnes ont lu, à voix haute, les conditions générales des 33 applications les plus couramment installées sur les smartphones dans ce pays. Le texte était plus long que le Nouveau Testament, et il a fallu plus de 30 heures aux courageux volontaires pour l’énoncer jusqu’au bout !

Or, le développement de l’économie numérique passe par la confiance : un travail de simplification et d’harmonisation des conditions générales s’impose. Ainsi l’utilisateur, correctement informé sur l’utilisation qui sera faite de ses données, pourra les valider en pleine connaissance de cause.

Élaborer un outil de protection

“Chez les internautes, des études menées par Catherine Lejealle, sociologue à l’ESG Management School de Paris ont montré un certain fatalisme”, constate Maryline Boizard. “Habitués que nous sommes au modèle économique dominant sur Internet (on paie le service reçu moyennant une part très significative de nos données personnelles), nous le considérons comme acquis. Les dispositifs de protection du droit à l’oubli se devront donc d’être aussi légers que possibles à mettre en œuvre.”

Un autre internet ?

Existe-t-il d’autres solutions ? Certains appellent un changement fondamental de modèle économique pour internet : il faudrait rendre payants les services, en contrepartie d’une garantie de confidentialité apportée aux données des utilisateurs. L’inconvénient est que seuls ceux qui en auraient les moyens seraient protégés : cela contreviendrait au principe de neutralité d’internet.

“Pour sortir du modèle actuel sans exclure les plus fragiles, l’effort doit porter équitablement sur tous”, conclut Maryline Boizard.

Liens :

Maryline Boizard

Maryline Boizard est maître de conférences en droit privé à l’université de Rennes 1 et conduit ses recherches au sein de l’Institut de l’Ouest – Droit et Europe (IODE). Cette unité mixte de recherche a organisé en mars 2015 un colloque scientifique sur le droit à l’oubli. Maryline Boizard travaille plus particulièrement sur la responsabilité civile des opérateurs économiques, le “droit à l’oubli”, les libertés du citoyen et ses droits fondamentaux face aux activités du cyber.
Sur le profilage des internautes, elle lance des recherches transdisciplinaires avec les équipes de l’IRISA, en particulier DRUID, DIVERSE et CIDRE.
Ses recherches personnelles portent sur la responsabilité des intermédiaires d’Internet, en particulier les fournisseurs de moteurs de recherche.
Vous êtes uniques ? Souriez, on vous profile…

Savez-vous que sur internet, certains sites que vous visitez sont capables de reconnaître instantanément votre navigateur parmi tous les autres et ainsi de vous identifier presque à coup sûr ? Cela se produit dès que vous affichez leur page, et sans que vous puissiez vous en rendre compte.

Avertissement des cookies : une mesure anti-traçage, utile mais déjà dépassée

Depuis 2014, sur presque tous les sites que vous consultez depuis la France, vous avez sans doute remarqué un message vous informant que des “cookies” sont utilisés par les sites en question, et qu’en continuant votre navigation, vous les acceptez sur votre ordinateur.

Ces cookies sont des traceurs, autant de petits fichiers texte créés sur votre ordinateur par le site visité. Ils enregistrent des informations sur votre parcours, et permettent au site de vous retrouver, ainsi que vos préférences, lors de votre visite suivante.

C’est pour aider à garantir la vie privée des internautes que la CNIL française, suivant une directive européenne, a imposé l’affichage de ces avertissements à l’ouverture de sites utilisant des cookies. L’utilisateur en est ainsi explicitement averti.

Pourtant aujourd’hui, il est possible d’identifier à coup sûr un navigateur en particulier… sans recourir du tout à ces fameux cookies.

Pourquoi tracer l’internaute ?

Les opérateurs de services sur internet ont tout intérêt à ce que leur offre soit extrêmement simple à utiliser. Ils conçoivent les interfaces de leurs apps et de leurs sites web avec le plus grand soin. De même, ils cherchent à créer l’impression d’une relation personnelle entre l’utilisateur et le service. Créer un profil précis de l’internaute visitant le site, s’en servir pour lui permettre de retrouver ses données et ses réglages sans qu’il ait même à s’identifier est l’une des pistes les plus activement poursuivies. Et pour l’utilisateur, cette facilité d’emploi est très attrayante.

Mais fournir des services sur internet coûte cher, surtout quand le succès est au rendez-vous… l’un des moyens que les opérateurs utilisent pour se développer rapidement est de maintenir un accès gratuit à leur service, au moins dans sa version de base. Dans ces conditions, comment financer l’acquisition de milliers d’ordinateurs-serveurs, la construction de centres de données, l’embauche de personnels, la fourniture de liaisons internet suffisamment puissantes pour répondre instantanément à des millions de requêtes ?

Portefeuille de profils

C’est donc aussi pour se financer et démontrer leur rentabilité que les opérateurs de service sur le web construisent les profils des internautes utilisateurs de leur service. Ils en viennent à l’identifier, à enregistrer son comportement sur leurs sites, ses habitudes et les données qu’il produit de la manière la plus continue et la étendue possible. Bien entendu, ce profil servira à personnaliser les publicités que l’utilisateur verra sur le site gratuit. Mais des études récentes montrent que les profits générés pour les opérateurs par ces annonces ciblées ne sont qu’une partie des retombées économiques attendues. C’est bien le portefeuille de profils utilisateurs lui-même qui est considéré comme le pilier de la valeur de l’entreprise. Ainsi certains sites en viennent à profiler les internautes sans même que ceux-ci aient choisi de créer un compte sur leur service.

Êtes-vous unique, et donc facile à profiler ?

Pour créer un profil utilisateur sur internet, sans demander à l’internaute de s’authentifier lui-même, une première étape consiste à identifier de manière unique le navigateur utilisé pour accéder au site. Les cookies servent à cela, mais l’évolution informatique a vu apparaître des techniques bien plus discrètes.

Pierre Laperdrix, en thèse sous la direction de B. Baudry, a programmé le site AmIUnique.org
Pierre Laperdrix, en thèse sous la direction de B. Baudry, a programmé le site AmIUnique.org

Le site AmIunique.org, très facile à utiliser et mis en ligne à des fins de recherche, permet à tout internaute d’explorer en français ou en anglais l’empreinte de son navigateur, et de vérifier si elle est unique parmi les quelque 230 000 déjà collectées par le site. Si oui, le site a permis de prouver que cette empreinte unique peut être utilisée pour profiler ce navigateur en particulier, lui seul… et les personnes qui l’utilisent. Et ce, sans même utiliser de cookies, de manière parfaitement indétectable pour l’internaute.

Avant de vous rendre sur le site, sachez aussi que :

  • les chances sont extrêmement importantes pour que l’empreinte de votre navigateur soit unique. Même si vous avez l’impression d’utiliser un programme et un système d’exploitation très répandus, la variabilité des configurations, des versions, des extensions, des polices installées d’un ordinateur à l’autre créent de subtiles différences qui n’échappent pas aux outils de détection mis en œuvre ;
  • vous n’avez aucune possibilité de bloquer ce profilage, qui se déroule à votre insu, et sans que vous ayez fait autre chose que d’afficher une page sur un site pourvu de ces outils ;
  • AmIunique.org n’utilisera pas bien sûr votre empreinte pour vous pister à l’avenir. Une fois vos données analysées, il vous dévoilera les différents tests qui auront été menés sur votre navigateur et leurs résultats. Il vous expliquera aussi où vous vous situez parmi l’ensemble des empreintes collectées.

Alors, êtes-vous unique ? Faites-le test ! (ci-dessous)

capture-aiunique

Qui sont les auteurs d’AmIUnique.org ?

Ce site de recherche et de démonstration pédagogique a été développé par Pierre Laperdrix, actuellement en deuxième année de thèse à l’INSA. Pierre se spécialise dans le profilage de navigateur en tant que membre de l’équipe DiverSE commune à Inria et à l’IRISA (équipe mixte CNRS, Université de Rennes 1, Inria et INSA). Il s’intéresse à la sécurité et à la confidentialité en informatique, mais aussi à l’ingénierie logicielle.

Benoît Baudry, directeur de l’équipe DiverSe est chercheur à l’Inria. C’est un expert en conception, test et analyse logiciels. Son travail s’inspire principalement d’observations empiriques sur le logiciel, en recherchant les moyens d’améliorer sa qualité. Ses travaux portent sur le test logiciel, l’ingénierie dirigée par les modèles, la métrologie logicielle. Il s’est récemment orienté vers la diversification logicielle automatisée. Il coordonne le projet européen DIVERSIFY qui porte précisément sur ce sujet.

Pourquoi avoir développé AmIUnique.org ?

L’idée consiste à rassembler une base de données suffisante pour observer les variabilités de configurations ordinateur-système en conditions réelles. Plus les internautes utiliseront le site, plus la base sera représentative, explique Pierre Laperdrix.

Pourquoi constituer cette base ? “Tout simplement parce que nous cherchons une parade à ce profilage discret et redoutablement efficace, répond Benoît Baudry.

Pour ce faire, les scientifiques travaillent sur deux points cruciaux.

Un environnement de navigation aléatoire à chaque utilisation

Ils cherchent à créer automatiquement une variation subtile de votre environnement de navigation internet chaque fois que vous le lancez, de manière à modifier son empreinte. À terme, si vous utilisez le système, plusieurs types et versions de navigateur, de plug-ins, de polices seront installées sur votre ordinateur. Au lieu d’ouvrir simplement un programme, c’est tout un environnement composé d’un assemblage aléatoire de ces éléments que vous lancerez. Par ailleurs, le navigateur lui-même sera ré-assemblé à la volée, afin de modifier ses modules de rendu d’une utilisation à l’autre.

Recours au mimétisme pour déjouer les prédateurs d’internet

Mais pour que ces variations d’empreintes synthétiques soient crédibles, il faut qu’elles reproduisent de manière mimétique les variations rencontrées dans la “vraie vie” du net., poursuit Benoît Baudry.C’est la condition pour que notre système passe véritablement inaperçu.

D’où la constitution de cette base de données à travers le site AmIUnique.org. Le développement de ce site est d’ailleurs inclut dans le projet de recherche européen DIVERSIFY coordonnée par Benoît Baudry, qui regroupe des informaticiens et des écologistes, spécialistes de l’évolution.

Ensemble, nous cherchons à transposer à l’informatique les processus à l’origine de la biodiversité, pour les reproduire dans le domaine logiciel”, explique le chercheur.

Ce système est appelé à déjouer la plupart des outils de détection d’empreinte utilisés par les opérateurs de service : à leurs yeux, vous apparaîtrez chaque fois comme un nouvel utilisateur. Ceci ne fonctionnera bien sûr que pour les sites sur lesquels vous ne vous identifiez pas explicitement.

Pour aider les chercheurs à créer le système anti-profilage le plus efficace, connectez-vous sur AmIUnique.org, testez votre empreinte et invitez vos connaissances à en faire autant.

Plus nous aurons d’empreintes, mieux ça fonctionnera !”, conclut Pierre Laperdrix.

 À vous de jouer !

Podcast : « Tous identifiables sur internet, même en bloquant les cookies ! » avec Benoît Baudry.
Émission « On en parle », Radio-télévision suisse, 26 sept. 2016

Détecter l'intox sur Twitter
Cédric Maigrot et Ewa Kijak

Que serait Twitter sans son bouton “Retweeter” ? Cette fonction est l’une des raisons du succès de ce service. D’un clic, elle vous transforme en source d’information captivante auprès des abonnés à votre compte. Soyez à l’affût, rapide dans vos retweets, postez vous-même adroitement, et vous multiplierez très vite le nombre de ceux qui vous suivent.

Mais prenez-vous toujours le temps de vérifier une information avant de la relayer ? Pourtant, les 140 caractères d’un Tweet et ses informations associées (lien, photo/vidéo, localisation) ne constituent qu’une simple affirmation… sans preuve. Seul le croisement de sources fiables permettra de la valider.

Si vous saviez, dès sa consultation, que l’information que vous allez relayer est fausse, voire malveillante, cliqueriez-vous quand même sur ce fameux bouton “Retweeter” ?

La détection de l’intox : un enjeu pour la sécurité des populations

On l’a vu, la détection des fausses informations devient, dans certaines circonstances, d’une importance stratégique pour les services de secours de l’État. Les attentats de Bruxelles ont ainsi montré que des comptes Twitter malveillants pouvaient être utilisés pour ajouter à la détresse des populations, en affirmant qu’un hôpital destiné à recevoir les blessés était en cours d’évacuation suite à une alerte à la bombe.

C’est l’une des raisons pour lesquelles la thèse de Cédric Maigrot est financée par l’université de Rennes 1, mais aussi par la DGA.

Analyse multicritères et indice de confiance

En effet, le jeune scientifique, doctorant à l’IRISA, travaille justement à l’élaboration d’un tel outil d’analyse automatique, sous la direction d’Ewa Kijak, maître de conférences à l’université de Rennes 1 et de Vincent Claveau, chargé de recherche au CNRS. L’objectif est de proposer, en temps quasi réel, un indice de fiabilité sur un tweet donné. L’outil combine plusieurs approches :

  • analyse d’image pour détecter les retouches ;
  • analyse textuelle (cohérence, étude des noms de personnes, de lieux, émoticônes, orientation des pronoms, ponctuation…) ;
  • vérification de contexte (l’image insérée réapparaît-elle ailleurs), l’auteur du tweet est-il connu en rapport avec le contenu de son message ?
  • caractéristiques du compte émetteur du message (abonnés et abonnements, nombre de tweets, date de création du compte mais aussi nombre de retweets et de favoris).

À partir de ces différents critères, un indice de confiance est calculé. Affiché de manière quasi instantanée en regard du tweet que vous consultez, il vous guidera au moment de cliquer sur le bouton retweet.

Bien entendu, l’outil ne sera pas infaillible : une fausse information diffusée par des canaux jugés fiables pourra le mettre en défaut. Et la diversité des points de vue sur une même information ne pourra être prise en compte. In fine, la décision de retweeter ou non restera de votre responsabilité”, précise Cédric Maigrot.

Une aide pour les journalistes

Pour Vincent Claveau, co-encadrant de la thèse de Cédric, “ces travaux s’inscrivent dans la tendance actuelle du “Fact checking”, ou vérification d’information, rendue indispensable par l’accélération et par la dilatation du flux d’actualités auquel nous avons accès. Par exemple, “Les Décodeurs”, blog du journal Le Monde, vient rappeler la nécessité de vérifier ce qui circule sur la Toile et ailleurs. Nous développons notre outil sous le regard intéressé des salles de presse”.

Compétences en jeu

L’équipe Linkmedia de l’IRISA où ces recherches sont menées a développé de solides compétences en recherche dans des grandes bases de données, en traitement automatique des images et des langues.

Elle a mis au point des outils d’analyse audio, vidéo, textuelle. L’une de ses réalisations analyse les journaux télévisés, est capable de détecter les entités nommées (personnes, lieux…) et de lancer des recherches sur un corpus existant. L’outil indexe également les reportages par thèmes. Cela permet par exemple de suivre un expert invité au fil de ses différentes interventions dans les journaux télévisés.

Perspectives

L’outil de vérification développé par Cédric Maigrot fonctionne pour l’instant avec l’aide de sites existants (librairies de programmation pour Twitter et Facebook par exemple, usage de Google, de la base hoaxbuster, etc.). C’est l’intégration de ces informations et le calcul de l’indice de confiance qui ont dans un premier temps concentré les efforts, sachant qu’il n’est pas simple de réaliser la fusion d’informations provenant de sources aussi différentes.

Dans un second temps, l’objectif est de développer de nouvelles fonctionnalités pour l’outil, comme l’utilisation des méthodes d’apprentissage, et une qualification dynamique de la fiabilité des sources d’informations du web” déclare Ewa Kijak.

Cédric Maigrot participe ainsi à l’atelier de recherche européen MediaEval, qui proposera un défi à plusieurs équipes : étiqueter comme “vrais” ou “faux” des tweets de manière automatique, en prenant pour base d’apprentissage un ensemble de messages déjà correctement identifiés. L’enjeu sera bien évidemment de réaliser les meilleures prédictions possibles sur les tweets de fiabilité inconnue.

Une autre direction de travail pour Cédric est d’analyser les relations entre les sources, afin de détecter celles qui ne feraient que se citer les unes les autres, en vase clos : la fiabilité d’un tweet en provenance de ce cercle serait sujette à caution”, poursuit Ewa Kijak.

Enfin, dans le domaine de l’apprentissage, la tendance de la recherche actuellement est d’utiliser de larges réseaux de neurones virtuels, capables de traiter des masses considérables d’information et ayant produits d’excellents résultats pour différentes problématiques.

Nous définissons actuellement de quelle manière ces outils d’intelligence artificielle pourraient être utiles à nos recherches”, conclut Ewa Kijak.

Ewa Kijak co-encadre la thèse de Cédric Maigrot. Ensemble, ils développent un outil de détection automatique des fausses informations sur les réseaux sociaux.

Liens :

https://www.irisa.fr/fr/equipes/linkmedia
http://www-linkmedia.irisa.fr/
http://www.hoaxbuster.com/
Les Décodeurs du journal Le Monde

Ewa Kijak

Maître de conférences à l’université de Rennes 1, Ewa Kijak effectue ses recherches au sein de l’équipe Linkmedia commune à Inria et à l’IRISA, sur la description des images pour la classification et la recherche d’information. Pour son activité d’enseignement, elle intervient essentiellement dans le parcours « Image Numérique » de l’ESIR (École supérieure d’ingénieurs de Rennes, composante de l’université de Rennes 1) en traitement d’image et en apprentissage artificiel. Elle enseigne également l’apprentissage artificiel et l’indexation de bases de données d’images dans différents masters.

Vincent Claveau

Vincent Claveau est chargé de recherche en informatique au CNRS, au sein du laboratoire IRISA à Rennes. Ses domaines de recherches portent sur le traitement automatique des langue, la fouille de texte et la recherche d’information.

Cédric Maigrot

Cédric Maigrot est doctorant à l’université de Rennes 1.
Avant de commencer sa thèse à Rennes, Cédric Maigrot a effectué un stage orienté recherche au Laboratoire d’informatique, de robotique et de microélectronique de Montpellier. L’objectif était de prédire les changements de comportement chez une personne sujette au suicide en analysant ses messages Facebook. Cédric Maigrot a souhaité continuer d’explorer cette approche automatique des réseaux sociaux, intéressé par l’application directe de la détection de fausses informations à des données réelles.
L’équipe EMSEC : les experts... de la sécurité informatique

En février 2016 à Rennes, l’Institut de recherche en informatique et systèmes aléatoires (IRISA) a créé une nouvelle équipe, baptisée EMSEC, spécialisée dans la sécurité des systèmes embarqués.

Co-directeurs de la nouvelle équipe, Pierre-Alain Fouque et Gildas Avoine sont tous deux membres de l’Institut universitaire de France.

“Les “systèmes embarqués” sont des dispositifs de toutes dimensions, intégrés à des objets mobiles de toutes tailles, de la carte à puce aux moyens de transport. Tous comportent des composants électroniques qui stockent et manipulent de l’information, plus ou moins sensible” explique Pierre-Alain Fouque, professeur à l’université de Rennes 1.

“Par sécurité, on entend les moyens de conserver l’intégrité, l’authenticité et, quand il le faut, la confidentialité des données qui transitent par ces dispositifs” poursuit Gildas Avoine, professeur à l’INSA Rennes.

Sécurité

EMSEC considère la problématique de la sécurité au sens large. En témoignent quelques unes des approches qu’elle développe :

  • l’analyse de risque, développée à EMSEC par Barbara Kordy, est basée sur les arbres d’attaque. Elle étudie les différents scénarios d’attaque contre un système (des services publics par exemple) et les mesures à mettre en place pour les éviter ;
  • les risques liés à la traçabilité des programmes embarqués, en collaboration avec l’équipe DiverSE dirigée par Benoît Baudry, vise à protéger les internautes du profilage automatique et non consenti ;
  • l’analyse des puces, intégrées à des objets devenus indispensables au quotidien (cartes bancaires, titres de transport, clés de voiture, passeports, badges d’accès) qui pourtant disposent de peu de ressources pour leur protection ;
  • l’authentification des téléphones lorsqu’ils se connectent aux réseaux des opérateurs en utilisant leur carte SIM ;

EMSEC ne sépare pas les aspects matériels et logiciels, notamment parce que les attaques sur le logiciel peuvent être conduites à travers le matériel et vice-versa : en écoutant les signaux indirects générés par un processeur réalisant des opérations de chiffrement (modulations de la consommation électrique, bruit électromagnétique, etc.), il est possible de capturer les clés utilisées.

Cryptologie

Dans l’immense majorité des cas étudiés par EMSEC, le traitement de l’information est numérique. L’étude du chiffrement électronique des transmissions et des données est donc un domaine fortement investi par l’équipe.

La cryptologie est la science de la sécurité de l’information. Elle permet, entre autres, de protéger les données en les « chiffrant », pour qu’il ne soit plus possible de trouver la moindre information les concernant. On distingue ensuite la cryptographie, relative à la construction des algorithmes de chiffrement, de la cryptanalyse, qui étudie les attaques possibles contre les schémas existants”, explique Adeline Langlois, chargée de recherche au CNRS et membre d’EMSEC.

Mathématicienne, Adeline Langlois s’est spécialisée dans la cryptographie reposant sur les réseaux euclidiens, un outil dont la robustesse semble très prometteuse face à l’évolution des techniques de cryptanalyse.

“La crypto c’est rigolo” : essayez-vous à la cryptographie et à la cryptanalyse avec Jules César !

Cryptanalyse : attaquer pour renforcer la cybersécurité

Il faut partir du principe qu’un algorithme de chiffrement utilisé en situation réelle (par exemple pour sécuriser votre connexion à votre banque en ligne) est soumis aux attaques incessantes de personnes cherchant à pirater le système pour leur profit.

Les cryptanalystes attaquent donc sans relâche les algorithmes de chiffrement pour être les premiers à en déceler les vulnérabilités potentielles, et ainsi s’efforcer de les corriger avant les premiers dégâts, quand c’est possible.

Il existe d’ailleurs de véritables concours d’attaques de cryptosystèmes”, précise Patrick Derbez, maître de conférences à Rennes 1 (photo). “Par exemple, le projet CESAR voit des cryptographes proposer des systèmes de chiffrement authentifié que des cryptanalystes essaient ensuite de casser. L’un des buts est de faire émerger les algorithmes les plus résistants.

Jamais de sécurité absolue

La sécurité apportée par un système de chiffrement n’est jamais absolue”, met en garde Pierre-Alain Fouque. “Les plus grandes faiblesses proviennent de la manière dont il est mis en œuvre dans les systèmes, et par les utilisateurs.

Quant à l’algorithme lui-même, toute sa sécurité se mesure à la difficulté d’inverser les opérations mathématiques qu’il effectue pour chiffrer les données de départ. C’est généralement une question de temps de calcul, et de mémoire informatique disponible. Or, ce qui est impossible en un temps raisonnable aux machines d’aujourd’hui ne le sera pas forcément demain. Un exemple ? La défaite de l’algorithme DES en 1999, remplacé en 2001 par AES/Rijndael, toujours utilisé aujourd’hui (2016).

Pour tenter de casser un algorithme de chiffrement, plusieurs techniques existent, de l’attaque mathématique pure à l’attaque par “canaux auxiliaires”, consistant à perturber le matériel pour affaiblir le logiciel. Ces tentatives permettent d’obtenir des informations supplémentaires sur le déroulement interne de l’algorithme de chiffrement.

Affaiblir les chiffrements par bloc

AES est l’algorithme standardisé en 2001, qui, 15 années plus tard, sécurise encore une immense partie des échanges en ligne, et pas seulement. S’il était vaincu sans que des mesures de sauvegarde aient pu être prises, les conséquences pour la vie privée des internautes et pour l’économie seraient catastrophiques.

C’est l’une des raisons pour lesquelles Pierre-Alain Fouque, co-directeur d’EMSEC, a réalisé avec Patrick Derbez des attaques d’AES. Sans parvenir à casser l’algorithme, il a montré qu’on pouvait obtenir des informations supplémentaires sur son déroulement interne en perturbant par laser un circuit électronique en train de l’exécuter.

AES, et plus généralement ce qu’on appelle les systèmes de chiffrement par blocs, sont des algorithmes de cryptographie symétrique : la même clé sert à chiffrer et à déchiffrer le message. Pour chiffrer un contenu, AES a besoin d’effectuer plusieurs “tours”, utilisant à chaque itération une sous-clé dérivée de la précédente. Si l’on réussit à stopper le chiffrement avant qu’un nombre de tours suffisant ait été atteint, l’ensemble est vulnérable : les clés de départ, qui garantissent le secret du message chiffré, deviennent plus accessibles.

Cela dit, avec les moyens actuels, on ne cassera pas AES d’un point de vue mathématique”, tempère Pierre-Alain Fouque. “Ce sont les implémentations de ce système qui peuvent être vulnérables”.

Perspectives quantiques

La mise au point des ordinateurs quantiques est appelée à bouleverser la cryptologie : des calculs qui prendraient un temps quasi infini sur des ordinateurs classiques aujourd’hui seront rapidement réalisables sur une machine quantique. La parade réside dans le développement d’autres techniques cryptographiques, reposant sur les codes correcteurs d’erreurs ou sur les réseaux euclidiens (ces derniers étant la spécialité d’Adeline Langlois au sein d’EMSEC).

À l’actif de l’équipe

Bien que très jeune (tous ses membres actuels ont été recrutés entre 2012 et 2015), EMSEC voit de nombreux articles acceptés et récompensés dans les plus prestigieux colloques dédiés à la cryptologie dans le monde : ASIACRYPT, EUROCRYPT, CRYPTO, ACNS…

Par exemple, lors de la conférence Asiacrypt en 2015, Pierre Karpman (doctorant co-encadré par Pierre-Alain Fouque) et Adeline Langlois, l’une des membres d’EMSEC ont été indépendamment distingués pour leur travaux. Pierre Karpman a montré une faiblesse de la fonction de hachage SHA-1, et Adeline Langlois a présenté une amélioration de la cryptographie reposant sur les réseaux euclidiens.

5 des membres permanents d'EMSEC. De g. à dr. : P. Derbez, G. Avoine, A. Roux-Langlois, B. Kordy et P.-A. Fouque
5 des membres permanents d’EMSEC. De g. à dr. : P. Derbez, G. Avoine, A. Roux-Langlois, B. Kordy et P.-A. Fouque

Les cinq membres permanents d’EMSEC sont rejoints le 1er septembre 2016 par Stéphanie Delaune, chargée de recherche au CNRS. Ses travaux bénéficient de l’appui financier Conseil européen de la recherche (ERC starting grant), obtenu avec le soutien de l’IRISA et de la Région Bretagne.
De plus, EMSEC compte une dizaine de membres non-permanents (doctorants, post-doctorants et scientifiques invités).

La crypto c'est rigolo, à vous de jouer

Pour chiffrer un message, il faut une clé. L’exemple le plus célèbre remonte à Jules César, qui utilisait un système très simple pour communiquer avec ses armées. Nous vous proposons de tester cet algorithme, puis d’essayer de percer le secret d’un message codé avec ce système.

Pour cela, suivons les explications données par Patrick Derbez et Adeline Langlois, chercheurs de l’équipe EMSEC.

Commencez par chiffrer ce message :

"CESAR" avec un décalage (clé) de 4



Bravo ! Essayez ensuite de décrypter celui-ci :

.

Le décalage était de .
Bravo !
Sans clé publique, pas de vie privée (en ligne)

Deux coffres, deux clés et un cadenas : la clé publique expliquée en 10 minutes

Quand Sylvain Duquesne explique la cryptographie à clé publique à ses étudiants du master cryptographie de Rennes 1, il utilise deux petits coffres, deux clés et un cadenas.

Pendant la pause de midi, vous souhaitez envoyer depuis votre travail à votre nouveau médecin généraliste une copie de votre dossier médical. Cette information étant sensible, vous ne souhaitez pas que votre employeur puisse y accéder. Le risque existe, puisque le réseau informatique que vous utilisez lui appartient.

Il faut donc chiffrer les données qui transitent entre votre ordinateur de bureau et celui de votre médecin. Une fois qu’elles le seront, si une tierce personne (appelons votre employeur “Ève”) se branche sur votre connexion internet et capte vos échanges, elle ne verra passer sur la ligne qu’une suite de caractères sans signification, du type “fjEdOoSqz#9&Udo”6ihLac3”.

Cela dit, réfléchissons une seconde… Pour que deux interlocuteurs puissent communiquer par échanges chiffrés, ne faut-il pas qu’ils conviennent d’abord d’une clé de chiffrement commune, comme vous avez pu le tester avec le chiffre de César ?

Mais comment faire pour que cette clé de chiffrement entre vous-même et votre médecin transite sur la ligne sans être interceptée par Ève ? On pourrait imaginer que vous ayez échangé auparavant cette clé avec votre médecin lors d’un rendez-vous à son cabinet, mais ce ne serait pas pratique. C’est même absurde sur Internet en général : personne ne fait le voyage au siège de Facebook pour ensuite pouvoir se connecter à son compte de manière sécurisée !

Il existe donc une solution… Allez-y, cherchez… Elle n’a été trouvée que dans les années 1970 par W. Diffie et M. Helmann (et sans doute un peu avant par les services secrets britanniques).

Tout d’abord, il faut savoir que la clé de type César est symétrique : la même clé sert à chiffrer et à déchiffrer le message. Elle est ainsi très simple à utiliser mais il est impossible de l’échanger sur une ligne non sécurisée, au risque de voir Ève la capturer puis la copier au passage.

Diffie et Helmann ont imaginé un système asymétrique. Mettons-le en pratique. Vous avez prévenu votre médecin que vous allez lui envoyer des éléments confidentiels. Celui-ci a généré sur son ordinateur un trousseau de deux clés, l’une publique et l’autre secrète. Il vous répond en vous transmettant non pas une clé symétrique, mais sa clé publique. Celle-ci vous permet de chiffrer ce que vous allez lui envoyer, mais non de le déchiffrer. Pour cela, votre médecin garde en réserve sa clé privée et secrète. À réception de votre envoi, chiffré avec sa propre clé publique, il utilise sa clé privée pour le décrypter.

Ce système asymétrique présente un inconvénient : les calculs à réaliser par vos deux ordinateurs sont trop longs pour transmettre en un temps raisonnable un volume important de données (votre dossier médical). La solution consiste donc à n’utiliser le chiffrement asymétrique que pour échanger avec votre médecin une clé symétrique de type César (mais bien plus robuste). Vous pourrez l’utiliser ensuite pour envoyer votre dossier sans qu’Ève, votre employeur, ait pu la capturer ni la recopier.

Les coulisses mathématiques de la clé publique

Ce tour de force est rendu possible par des outils d’arithmétique modulaire plus largement expliqués sur le site Image des mathématiques.

W. Diffie et M. Helmann ont proposé un système asymétrique à clé publique, mais ne donnaient pas à l’époque un système de chiffrement associé. Celui-ci a été mis au point par R. Rivest, A. Shamir et L. Adleman. Leur algorithme, baptisé “RSA” en combinant leurs trois initiales, est toujours utilisé aujourd’hui pour la sécurisation des transactions en ligne”, explique Sylvain Duquesne.

Casser la cryptographie

La robustesse du RSA dépend toutefois de la difficulté à résoudre certains problèmes mathématiques hautement complexes (factorisations de grands entiers). Le jour où ce problème sera résolu de manière rapide et efficace, toutes les données chiffrées avec RSA deviendront potentiellement accessibles. Les chercheurs explorent donc d’autres pistes, comme l’utilisation des courbes elliptiques, réputées encore plus robustes et sur lesquelles travaille Sylvain Duquesne.

Interception

Imaginons qu’Ève intercepte l’envoi de la clé publique par votre médecin et la remplace par la sienne dans le message que vous allez recevoir. Tout le système est compromis. La parade actuelle consiste à utiliser des certificats délivrés par une institution de référence, qui va garantir que la clé publique que vous recevez est bien celle de votre médecin.

“Certificat” : c’est un mot que vous retrouvez dans les paramètres de sécurité de votre navigateur internet. En effet, lorsque vous échangez avec votre banque en ligne, c’est un certificat qui permet à votre ordinateur de vérifier que vous utilisez bien la clé publique émise par votre banque pour échanger avec elle, et non celle d’un pirate qui en voudrait à votre argent. Ce système n’est pas infaillible car il repose sur la confiance en l’autorité de certification, qui peut être elle-même attaquée. Mais cela réduit le risque de fraude à un niveau acceptable.

Et le quantique ?

On dit souvent que l’avènement des ordinateurs quantiques viendra casser la cryptographie classique.

La solution”, indique Sylvain Duquesne, “reposera sur l’utilisation des codes correcteurs, ou sur les réseaux euclidiens. Cela dit, ne confondons pas ordinateur et cryptographie quantique. Cette dernière existe et fonctionne déjà, au stade expérimental. On peut utiliser des systèmes quantiques pour transférer la clé. Comme un état quantique change quand il est observé, toute interférence dans le processus est repérée. Ève ne peut plus agir sans être remarquée.

Sylvain Duquesne

Sylvain Duquesne est professeur de mathématiques à l’université de Rennes 1. En tant que chercheur à l’IRMAR, il est spécialiste des fondements mathématiques de la cryptographie, en l’occurrence les courbes elliptiques et leur généralisation. Il effectue ainsi des calculs effectifs sur les variétés abéliennes, en étudiant leur application à la cryptographie. En tant qu’enseignant, il forme des étudiants de master (1ère et 2e année) aux fondements théoriques de la cryptographie et à son intégration au sein de logiciels, de manière efficace et résistante aux attaques. L’objectif est de développer les capacités d’adaptation des étudiants. En effet, en matière de cryptographie, les outils et les méthodes enseignées sont périmées en deux ans… L’important pour ces futurs professionnels est donc de savoir très vite détecter, s’approprier et maîtriser les évolutions théoriques comme techniques. Les étudiants mettent ces savoir-faire en pratique lors de stages chez Amossys, Orange, Sagem, Airbus ou encore au ministère de la Défense.
A l'écoute de votre smartphone et de votre carte bleue

Une énigme pour commencer

Vous êtes dans une pièce où se trouvent trois interrupteurs numérotés, en position “off”. Une porte hermétiquement fermée mais non verrouillée vous sépare d’une seconde pièce où une ampoule est branchée.

Vous devez trouver lequel des trois interrupteurs de la première pièce commande l’ampoule, mais vous ne pouvez entrer dans la seconde pièce qu’une seule fois pour vérifier l’état de l’ampoule. Comment déterminez-vous quel interrupteur commande l’ampoule ?

Réponse

Allumez l’interrupteur n°1, attendez 5 minutes, éteignez-le puis allumez le n°2. Entrez dans la seconde pièce :

  • si l’ampoule est allumée, elle est commandée par le n°2 ;
  • si elle est éteinte et froide au toucher, elle est commandée par le n°3 ;
  • si elle est éteinte et chaude au toucher, elle est commandée par le n°1.

Aviez-vous pensé à toucher l’ampoule et à utiliser sa chaleur pour trouver la solution ?…

Cette énigme permet de comprendre les recherches conduites par Hélène Le Bouder, post-doctorante au Laboratoire de haute sécurité du Pôle d’excellence cyber. Car ce petit problème peut vous permettre :

  • d’amuser vos amis ;
  • de comprendre que les circuits électroniques peuvent "fuiter" et se faire attaquer par la méthode des "canaux auxiliaires".

La physique au secours de la cryptanalyse

En effet”, explique Hélène Le Bouder, “si vous ne connaissiez pas la solution de l’énigme précédente, vous avez sans doute d’abord cherché à la résoudre en n’utilisant que la logique, c’est à dire les possibilités on/off des interrupteurs. Sans succès bien sûr.

C’est à peu près ce qui se passe pour une personne souhaitant déchiffrer le contenu d’un circuit électronique, présent par exemple dans un smartphone, en l’attaquant par des moyens purement mathématiques. En effet les dernières générations de ces circuits sont conçues pour permettre le chiffrement complet de vos données. Si vous avez activé cette protection, en cas de vol par exemple il devient très difficile d’accéder à vos photos, à vos contacts, à vos messages…

Or”, poursuit Héléne Le Bouder, “L’AES est un des algorithmes de chiffrement les plus utilisés dans les circuits. Il permet de transformer les données en un charabia incompréhensible en les manipulant à l’aide d’une clé numérique, les données pouvant ensuite être retrouvées si l’on connaît cette même clé. AES est réputé robuste : les données qu’il protège sont beaucoup trop longues à décrypter avec les moyens actuels. Sauf à trouver un bug dans le circuit qui fragiliserait AES (ce qui arrive), l’attaque est trop coûteuse de ce côté.

Pour résoudre l’énigme de l’ampoule, vous deviez sortir du cadre purement logique : il fallait penser à toucher l’ampoule pour mesurer sa chaleur, phénomène physique et conséquence de son activation par l’un des interrupteurs. De même, les scientifiques ont pensé à mesurer les “fuites” électromagnétiques, le temps de calcul et la consommation de courant engendrés par un processeur de chiffrement lorsqu’il manipule les clés qui protègent les données. La physique vient ainsi au secours de la cryptanalyse.

Cette attaque nécessite d’approcher une antenne du circuit et de savoir exactement quoi “écouter”. Hélène Le Bouder nous en fait la démonstration sur un circuit de test.

Démonstration d’une attaque par canaux auxiliaires

AES est symétrique : la même clé sert à chiffrer et à déchiffrer les données. L’algorithme fonctionne en plusieurs tours (jusqu’à 16), Pour chaque tour une sous-clé dérivée de la clé principale est utilisée. Une clé de tour est composée de 16 octets (caractères). Chacun de ces octets peut prendre 256 valeurs différentes au maximum.

Isoler un caractère (octet) de la clé

L’astuce des attaques par canaux auxiliaires consiste à étudier le moment où l’un de ces octets en particulier est manipulé par le processeur. Grâce à une sonde, on mesure alors le rayonnement électromagnétique, image de la consommation de courant d’éléments précis du processeur (transistors).

Simuler les valeurs possibles

Par ailleurs, en utilisant des fonctions mathématiques, on simule approximativement la courbe de consommation du circuit pour les 256 valeurs d’octets de clé possibles.

Corréler

“En confrontant la mesure à ces 256 courbes, on repère par corrélation laquelle des courbes simulées est la bonne. Et on recommence l’opération pour tous les octets de la clé”, explique Hélène Le Bouder

Il est aussi possible d’exploiter d’autres failles : un calcul compliqué à effectuer prendra davantage de temps qu’un autre, plus simple, et aura tendance à consommer davantage d’énergie. La mesure des temps de calculs et des consommations sont autant de voies d’attaque par canaux auxiliaires.

Et en condition réelles ?

Cette démonstration très simplifiée a été réalisée sur un microcontrolleur de test qui n’est pas spécialisé dans la sécurité. D’autre part, l’expérience présentée nécessite de contrôler l’exécution d’AES sur le circuit : le programme y a été installé par Hélène Le Bouder elle-même.

Cette expérience montre que les algorithmes de chiffrement doivent être implémentés dans les circuits en suivant avec rigueur des principes de sécurité éprouvés, car des erreurs à ce stade fragilisent considérablement la chaîne de la cybersécurité.

Comment renforcer la sécurité ? Au niveau logiciel, il est toujours possible de faire que les octets de la clé ne soient pas traités dans l’ordre, d’effectuer des calculs inutiles pour dépister les écoutes éventuelles… Mais la meilleure protection consiste à concevoir des circuits dédiés à la sécurité : les mesures de protections sont alors intégrées dès la fonte, au niveau matériel.

Cela dit, il faut garder à l’esprit que, comme dans tous les domaines liés à la cryptologie, mesures et contre-mesures progressent ensemble, dans une compétition sans fin : pour chaque protection mise en place dans un circuit, les spécialistes trouveront une vulnérabilité, corrigée sur la version suivante qui sera à son tour “cassée” par les cryptanalystes… et ainsi de suite”, conclut Hélène Le Bouder

Liens :

Hélène Le Bouder

Docteure en cryptologie spécialisée dans les attaques physiques, Hélène Le Bouder est aujourd’hui post-doctorante Inria au Laboratoire haute sécurité du centre Inria Rennes-Bretagne Atlantique, au sein du Pôle d’excellence cyber. Elle y réalise :
  • l’étude de codes polymorphiques pour résister aux attaques physiques.
  • la mise en place d’un banc d’acquisition de courbes électromagnétiques.
  • le développement de bibliothèque d’attaques par observations (CPA, DPA, Template etc).
Lasers et ondes radio : perturber les circuits de chiffrement

Plate-forme “cybersécurité” de l’IETR

À l’Institut d’électronique et Télécommunications de Rennes (IETR), un projet de plate-forme vient de recevoir ses premiers financements. Cet ensemble d’équipements sera dédié à l’analyse de la vulnérabilité des systèmes électroniques face aux attaques de sécurité.

Il s’agira d’analyser la robustesse des circuits électroniques sécurisés, spécialisés dans les opérations cryptographiques, face à des attaques extérieures par voie optique ou électromagnétique. De telles attaques peuvent être responsables de dysfonctionnements des circuits, et donc affaiblir la protection des systèmes attaqués” indique Laurent Pichon, en charge de la partie attaque par voie optique (irradiation laser) et microélectronique de la future plateforme.

L’étude du comportement électrique ou électromagnétique est riche d’indices qui, habilement exploités à travers ces dysfonctionnements, peuvent permettre de retrouver la clé de chiffrement des informations convoitées.

En effet, lors d’une attaque il devient possible d’observer une étape intermédiaire des opérations, ce qui fragilise le chiffrement. Par exemple, l’algorithme AES, très utilisé sur internet, consiste en un certain nombre d’étapes successives qui, si elles sont menées à bien et dans les règles de l’art, produisent un message très fortement chiffré. En revanche, si l’on interrompt les opérations à un certain stade, il devient possible de récupérer des indices cruciaux sur la clé de chiffrement”, explique Laurent Pichon.

La plate forme regroupera les compétences de deux départements de l’IETR : le département microélectronique et microcapteurs et le département antennes et dispositifs hyperfréquences. Le premier s’intéressera à l’étude des perturbations des circuits cryptographiques par irradiation laser. Le second travaillera sur les perturbations par voie électromagnétique.

Perturbations par laser

Un équipement spécifique comprenant un laser pulsé et un système de mesures dédié mesurera l’activité électrique des composants. Il sera installé dans les bâtiments de l’IETR, dans une salle “grise” à air filtré pour en diminuer la teneur en poussières, environnement compatible avec la fiabilité des mesures sur les composants électroniques.

Il s’agira de détecter les perturbations de son fonctionnement induites par un faisceau laser sur un groupe de transistors (inverseurs). La détection se fera entre autres par l’écoute du bruit de fond électronique induit, une méthode innovante et peu employée jusqu’ici”, souligne Laurent Pichon.

Les études porteront sur des composants et systèmes électroniques issus du commerce dédiés à des applications sécurisées ou militaires, et par extension à toute génération future de microprocesseurs ou circuits de technologie avancée.

L’objectif de cette plate-forme sera aussi d’aider à termes les industriels à concevoir des composants résistants aux attaques par irradiation laser. Implantée au sein du département micro-électronique, cette plate-forme sera dédiée à la mesure, au sens large, incluant les dimensions liées à la cybersécurité. Elle permettra de développer des activités de recherche nouvelles sur les aspects mesures et métrologie des composants et systèmes électroniques, à l’interface entre la technologie et les circuits de la microélectronique.

Perturbation par radiofréquences

Toujours à l’IETR, mais dans ses locaux de l’INSA, l’autre pôle de la plateforme travaillera sur un autre domaine du spectre électromagnétique : le rayonnement en radiofréquences (RF).

Ainsi, les deux pôles s’intéresseront à des gammes de longueur d’onde très différentes. Le laser attaquera les échelles très petites de la micro-électronique, alors que le rayonnement RF prendra en compte l’ensemble d’un composant, d’un équipement et particulièrement ses voies d’accès (l’alimentation, les connexions).

Sur ce pôle RF, l’objectif est aussi bien d’obtenir un fonctionnement erratique de l’électronique, qui pourrait être interprété convenablement pour tenter de retrouver des clés de chiffrement.

En utilisant la chambre réverbérante d’ores et déjà opérationnelle à l’INSA, il sera possible d’explorer des phénomènes de réverbération. Ceci pourra conduire à identifier des scénarios de couplage électromagnétique auxquels l’équipement est sensible.

Mais au-delà de l’aspect cryptanalytique, l’objectif est également de rechercher à perturber le système de manière à le rendre indisponble, le temps de la perturbation. En effet, la sécurité ce n’est pas seulement de pouvoir envoyer une information garantie secrète, mais aussi d’être en mesure de transmettre au moment souhaité. Si le système ne répond plus, celui d’une voiture autonome par exemple, la sécurité se trouve instantanément compromise”, indique Philippe Besnier, en charge du pôle RF du projet.

Bien entendu, de telles études sont menées à grande échelle dans le domaine militaire. La plateforme de l’IETR ne vise pas à utiliser des moyens gigantesques, mais à voir si, concernant les systèmes civils, des attaques simples menées avec des moyens modestes ne risqueraient pas d’entraîner des conséquences critiques.

Et puis, si les systèmes testés ont évidemment besoin de protection, avant même cette étape il faudra les doter de capacités d’alerte. Ils devront être capables de détecter les intrusions, et les industriels vont nécessairement rechercher ces solutions d’alerte. Or, l’articulation des domaines laser et RF permettra à la plate-forme d’être particulièrement performante sur ce point”, conclut Philippe Besnier.

Liens :

Laurent Pichon et Philippe Besnier

Laurent Pichon est professeur d’électronique à l’université de Rennes 1 au département GEII de l’IUT de Rennes. Il enseigne l’électronique, la physique des composants, l’électronique, ainsi que les nanotechnologies en Master 2. Il mène des activités de recherche au département microélectronique et microcapteurs de l’Institut d’électronique et des télécommunications de Rennes (IETR). Celles-ci reposent sur la fabrication et la caractérisation de matériaux semiconducteurs à base de silicium et de composants électroniques associés. Philippe Besnier est directeur de recherche au CNRS au département antennes et dispositifs hyperfréquences de l’IETR. Il s’intéresse à la compatibilité électromagnétique (ou comment minimiser les interférences entre appareils utilisant des ondes radio). Il est plus particulièrement spécialiste des chambres réverbérantes, du champ proche, et de la modélisation des interactions sur systèmes complexes.
Espions intimes : l'internet des objets

Montres ou capteurs de fitness couplés à un smartphone, mais aussi compteurs d’électricité, de gaz ou d’eau connectés… autant d’objets très tendance, conçus comme faciles et rapides à utiliser au quotidien. Ces derniers temps, ils font une entrée de plus en plus remarquée au cœur de notre vie privée.

Cependant, l’analyse fine de nos performances physiques ou de notre consommation électrique n’est pas réalisée au sein de l’objet connecté, et rarement par les ordinateurs ou les smartphones dont nous contrôlons plus ou moins l’activité.

En effet, ces objets connectés ont au moins deux points communs :

  • ils produisent des séries de données continues dans le temps (on parle de séries temporelles) ;
  • ils envoient ces données pour traitement à de gigantesques banques d’ordinateurs placées, souvent à l’étranger, sous le seul contrôle de l’opérateur : le fameux “cloud”, ou “nuage”.

Pour les individus, l’intérêt de ces systèmes est double :

  • à l’échelle personnelle, ils renseignent leur utilisateur sur ses usages (forme physique et statistiques d’exercice, consommation électrique de la maison…) ;
  • à grande échelle, ils permettent, à partir des données de millions d’abonnés, de dégager des profils d’usage qui, à leur tour, permettent aux utilisateurs de se situer et éventuellement d’infléchir leurs habitudes (mon appartement consomme autant qu’une maison, quels sont les points à corriger ?)

Mais comment seront utilisées les données personnelles, très personnelles, collectées par ces objets ? Qu’elles soient sensibles, c’est évident pour ce qui concerne le biomédical (nos pulsations cardiaques par exemple). Mais la consommation électrique d’un logement peut révéler aussi beaucoup sur ses occupants. En effet, quand celle-ci est mesurée à un grain très fin (de l’ordre de la minute par exemple), les différents appareils électriques du foyer, tels que le grille-pain, la bouilloire, la machine à laver, exhibent une signature quasiment unique. Outre les temps de présence et d’absence, l’analyse de la consommation électrique d’un foyer peut donc donner des informations sur le nombre d’occupants, la composition du foyer, et même des pratiques religieuses (l’activité électrique réduite lors du shabat juif, décalée lors du ramadan musulman) ou des états de santé (présence d’un lit médicalisé par exemple).

Dans ces conditions, la création d’une relation de confiance entre le fournisseur de services et son client devient cruciale, à l’heure où l’on prédit la croissance explosive de ce type d’applications, qui donne peu à peu naissance à “l’Internet des objets”.

Il est évident que le traitement de ces données dans le cloud est problématique : de cette manière, il échappe totalement au contrôle de l’utilisateur. De plus, il permet un accès centralisé à l’intégralité des données au seul opérateur de service.

Alors, comment maintenir les bénéfices du système aux deux échelles (individu et communauté), mais en garantissant absolument la confidentialité des données utilisateurs ?

Tristan Allard et ses collègues ont une solution à proposer : c’est le projet Chiaroscuro.

"Notre système permet d’extraire des profils d’usage représentatifs, à partir de séries temporelles distribuées sur des millions de dispositifs personnels (ordinateur portable, smartphone, tablette), sans mettre en péril la vie privée des individus”, explique Tristan Allard.

Le nom “Chiaroscuro” est une référence au terme “clair-obscur” utilisé pour décrire un traitement particulier de la lumière et des ombres dans les tableaux de la Renaissance italienne. L’objectif du projet Chiaroscuro est de décrire le fonctionnement interne de l’algorithme,  qui mêle des éléments “en clair” (non chiffrés mais perturbés) et d’autres “obscurs” (entièrement chiffrés).

Chiaroscuro évite deux obstacles majeurs que l’on rencontre fréquemment dans les schémas d’analyse de données personnelles.

  1. Les séries temporelles ne sont pas copiées sur un serveur centralisé (de fait, aucune information relative à une série temporelle individuelle ne quitte un dispositif personnel sans avoir été protégée au préalable).
  2. Pour extraire les profils, le système n’utilise pas de protocole de chiffrement trop gourmand en ressources. Celui-ci accepte en revanche les connections et déconnections arbitraires des participants.

"Chiaroscuro utilise des techniques d’analyses de données de pair à pair”, indique Tristan Allard. “Au lieu d’être réalisé dans le cloud, le traitement des données se fait de manière distribuée et sécurisée entre les dispositifs personnels des individus eux-mêmes, selon les principes de la classification non supervisée. Nous proposons une approche innovante qui entrelace processus de chiffrement et d’anonymisation des données pour ne dévoiler, au cours de son exécution, que des informations agrégées et perturbées."

Le système repose sur plusieurs outils mathématiques et statistiques :

  • l’algorithme itératif dit des “K-moyennes” (k-means) constituer les profils types de séries temporelles ;
  • la protection des profils types (centroïdes) lors de leur déchiffrement par l’ajout de bruit numérique, généré de manière distribuée par les dispositifs des participants et tel que le modèle de la confidentialité différentielle soit satisfait (le standard de facto actuel) ;
  • un cryptosystème homomorphe additif, qui permet d’additionner des données chiffrées sans avoir à les “passer en clair”.

Dans le système, chaque participant possède une partie de la clé de chiffrement, ainsi il faudra un nombre minimal de pairs pour déchiffrer les données. On évite ainsi la création d’un “tiers de confiance”, qui prendrait part à l’algorithme d’analyse tout en étant étranger aux participants, qui aurait d’une part un accès aux données et d’autre part la maîtrise des résultats.

Chiaroscuro est en démonstration sur le web. Il a été récemment présenté lors du colloque scientifique SIGMOD 2015 et démontré lors d’ICDE 2016.

La solution technique existe donc. Reste à savoir si le modèle économique des opérateurs de services en ligne permettra son adoption.

Liens : colloques SIGMOD2015 et ICDE2016

Présentation de DRUID

Tristan Allard est membre de l’équipe DRUID de l’IRISA, qui rassemble des personnels de Rennes 1 enseignant à l’ESIR, l’ISTIC et l’IUT de Lannion. La thématique de DRUID porte sur l’analyse et la création de systèmes de gestion de données, ainsi que sur la fusion d’information.

“L’ambition de DRUID est d’offrir des systèmes de gestion de données qui tiennent compte de l’incohérence des sources (êtres humains, capteurs…). Les deux grandes applications sont le crowdsourcing (production participative), ainsi que la gestion et l’analyse de grands réseaux sociaux”, détaille David Gross-Amblard, co-directeur de DRUID.

Dans ce cadre, DRUID prend bien sûr en compte les problématiques de sécurité (protection contre les actions malveillantes et confidentialité de la vie privée). Le site de Lannion explore la qualification de la confiance dans les utilisateurs (fonctions de croyance). À Rennes, les membres de DRUID travaillent à l’optimisation de l’affectation des tâches sur les plateformes de production participative, de manière à tenir compte des compétences des participants. Les plateformes étudiées appartiennent à deux catégories, la première offrant du travail organisé par internet (Amazon Mechanical Turk, Foule Factory), la seconde concernant la science participative (SciPeople, Vigienature).

“L’un des principaux objectifs de ces travaux consiste en une meilleure qualification et une meilleure gestion des compétences des participants sur ces plateformes, notamment par hiérarchisation. Ces recherches ont été récemment présentées lors de la conférence WWW’2016, où elles ont reçu le prix du meilleur article porté par un doctorant”, se félicite David Gross-Amblard.

DRUID cible également les zones d’ombres concernant la sécurité des participants (confidentialité de leurs temps de présence, de leur compétences) ainsi que celle des donneurs de tâches (légalité du travail demandé, etc.)

Tristan Allard

est maître de conférences en informatique à l’université de Rennes 1. Il enseigne en master et en licence. Ses cours portent sur la publication de données respectueuse de la vie privée, les bases de données et leur sécurité ainsi que la programmation. Ses recherches portent sur l’usage quotidien et l’analyse à grande échelle des données personnelles, tout en préservant la vie privée des individus : un enjeu fondamental pour la construction de la société de la connaissance.

David Gross-Amblard

David Gross-Amblard, co-directeur de l’équipe DRUID de l’IRISA, est professeur d’informatique à l’université de Rennes 1 (ISTIC). Ses enseignements portent sur la gestion de données en général. Sa recherche concerne des sujets récents comme le crowdsourcing, les réseaux sociaux et la sécurité des données.
Sécuriser les voitures connectées

Aux États-Unis en 2016, un tiers des nouveaux abonnés à la téléphonie mobile sont des…  voitures.

En effet, nos véhicules sont de plus en plus connectés. Presque tous les modèles actuels se relient à un smartphone ou possèdent même leur propre carte SIM. Ils sont capables d’indiquer leur position aux services de dépannage des constructeurs et aux applications cartographiant les embouteillages.

En attendant la voiture autonome, l’industrie développe les systèmes d’échange de données entre véhicules. Objectif : sécuriser le trafic. Deux voitures connectées sur le point d’entrer en collision pourraient s’avertir mutuellement et déclencher leur freinage d’urgence. Des convois de véhicules pourraient permettre des économies de carburant et l’amélioration de la sécurité.

La conduite coopérative repose sur un type particulier de réseau mobile sans fil, dit “ad hoc”, où le réseau se constitue entre objets connectés sans dépendre d’un nœud central. C’est ce type de réseau particulier qui permet par exemple aux ONG arrivées sur le site d’une catastrophe naturelle de déployer une infrastructure de communication sans fil en quelques instants.

Mais revenons aux voitures connectées. Leur développement soulève bien des questions. La première touche à la confidentialité des données transmises : les véhicules connectés en cours de mise au point transmettent leurs informations (vitesse, direction, position) environ dix fois par seconde et sans chiffrement robuste, autorisant ainsi un traçage en temps réel de leur vitesse, de leur direction et de leur identification... D’autre part, le piratage et l’usurpation d’identité dans un réseau de véhicules peut avoir des conséquences très graves, du simple pistage au déclenchement volontaire d’accidents. Des exemples récents montrent déjà la prise de contrôle d’un véhicule à distance via ses connexions de confort sans fil.

“Améliorer la sécurité du véhicule connecté correspond donc à un véritable enjeu de cybersécurité” affirme Gilles Guette : “Concernant les réseaux de véhicules, j’étudie la conception de solutions préservant la vie privée des utilisateurs, et je travaille sur la sécurité des échanges entre véhicules en mobilité, sous contraintes spécifiques”.

En tant que chercheur, il réfléchit à la manière de gérer une spécificité des réseaux de véhicules : la durée et le type très variable de connexion entre éléments du réseau.

Premier type de connexion, celle du smartphone à la voiture de son propriétaire. Elle est de longue durée, puisqu’elle s’établit chaque fois que le conducteur utilise son véhicule. C’est une connexion dite de confort, qui permet de téléphoner en mains libres, d’écouter de la musique, voire de consulter internet sur l’ordinateur du véhicule... Elle requiert une authentification et du chiffrement pour rester confidentielle, à l’abri des attaques et du traçage.

Le second type de connexion est bien plus fugace : celle de la voiture aux bornes dédiées à la conduite coopérative le long de la route, ou bien entre deux véhicules connectés risquant d’entrer en collision. Ces connexions-ci relèvent de la conduite coopérative. Elle doivent être authentifiées pour éviter qu’un usurpateur ne vienne perturber ou manipuler le réseau. Elle ne peuvent pas être chiffrées, car les calculs requis augmenteraient le temps de réaction des voitures (freinage automatique) en cas de collision imminente. De plus, la confidentialité de ces données n’est pas requises car elles sont destinées à tous les véhicules situés à proximité.

Bien sûr, pour les constructeurs d’automobiles, c’est la sécurité du véhicule qui constitue la priorité. Les préoccupations touchant la confidentialité des données de l’utilisateur ou le respect de sa vie privée viennent ensuite.

Toute la question est de savoir si l’authentification des utilisateurs, pour ce qui concerne la conduite coopérative, doit être anonyme ou non.

“L’authentification anonyme existe et fonctionne”, indique Gilles Guette. “Mais il faut du temps de calcul pour y parvenir, et le processus doit être répété à chaque fois qu’une connexion s’établit. Or, les constructeurs pensent que les contraintes techniques ne permettront pas de rendre anonyme ce type de connexion.”

Sans compter que beaucoup d’acteurs ont intérêt à ce que ce ne soit pas le cas : les assureurs pour établir plus facilement la responsabilité de chacun en cas d’accident, les autorités pour contrôler plus facilement les véhicules, les constructeurs pour leur modèle économique...

Gilles Guette travaille sur la théorie de ces systèmes et produit des preuves de concept reposant sur la définition de la sécurité, de la confiance, de l’anonymat et de la confidentialité au sein de tels réseaux. Il effectue des simulations de fonctionnement des réseaux sans fil et ad hoc (expérimentations, dimensionnement).

“J’ai commencé par travailler sur l’utilisation d’un module de sécurité (TPM) embarqué dans les véhicules, sur l’anonymisation des communications puis sur un système de réputation anonyme”, indique Gilles Guette. “J’ai ensuite étudié comment détecter la création de faux noeuds dans le réseau mobile : il s’agit d’un scénario d’attaque où un utilisateur malveillant, depuis sa voiture, crée des dizaines de véhicules fictifs autour de lui pour simuler un bouchon et ralentir les voitures assujetties à la conduite coopérative. Enfin, j’ai examiné les signatures proxy anonyme, grâce auxquelles une autorité pourrait accorder une “délégation de signature” à la voiture afin qu’elle puisse s’authentifier dans le réseau mais de manière complétement anonyme”. Un mécanisme est prévu dans ces systèmes pour révoquer l’anonymat si la justice le demande par exemple.

“Pouvoir retrouver de manière sûre a posteriori un véhicule incriminé est un enjeu est de taille”, souligne l’enseignant-chercheur. “Si un conducteur parvient à usurper l’identité d’un autre et crée un accident, c’est le conducteur victime du vol d’identité qui encourt les sanctions légales. Le cas a été plusieurs fois observé dans le cas de téléchargement illégal de musique ou de films, lorsque des internautes s’étaient fait pirater l’adresse de leur ordinateur et ont dû prouver leur bonne foi.”

À l’évidence, il faut que le réseau des véhicules connectés soit robuste. Gilles Guette étudie en particulier comment il résistera à pleine charge, quand la majorité des voitures seront équipées de ces dispositifs de conduite coopérative. Par exemple, devant le coût très élevé de bornes-relais déployées le long des routes, nombre de constructeurs semblent aujourd’hui opter pour l’implantation de cartes SIM de téléphonie mobile dans les véhicules, dédiés à l’échange de données. Et Gilles Guette de conclure :

“Ce système est plus économique à déployer, mais pourra-t-il monter en charge comme attendu ?”

Gilles Guette

Maître de conférences à l’université de Rennes 1, membre de l’équipe CIDre commune à Inria et à l’IRISA, il est spécialiste de la sécurité des systèmes et réseaux, plus particulièrement les réseaux dédiés de véhicules (VANETs). En tant qu’enseignant d’informatique à l’ESIR, l’une des deux écoles d’ingénieurs de l’université de Rennes 1, il apprend à ses étudiants d’école d’Ingénieurs, de licence et de master la sécurité et le dimensionnement des réseaux filaire ou sans fil notamment en domotique, un domaine où les questions de confidentialité et de sécurité sont très sensibles.
La sûreté logicielle aux commandes d'un avion de ligne

Comment s’assurer qu’un logiciel ne “plantera” jamais ? Cette question devient cruciale quand l’ordinateur gère une application critique, tel que par exemple le trafic des rames sur une ligne de métro automatique, ou encore le contrôle des commandes de vol électriques d’un avion de ligne transportant plus de 500 personnes.

Or ce dernier type de logiciel comporte des dizaines de milliers de lignes de code et s’exécute dans un avion dont les paramètres de vol ne cessent de changer.

Comment s’assurer qu’en toutes circonstances, l’ordinateur continuera bien de contrôler sans erreur les commandes de vol, que ce soit en conditions de routine ou bien dans une situation exceptionnelle, très difficile à tester ou à simuler hors d’un vol réel ?

Pour développer ces logiciels critiques, on prend bien davantage de précautions que pour programmer un petit jeu sur smartphone”, souligne Sandrine Blazy.

En effet, même s’il reste impossible de réduire à zéro le risque d’erreur, tout est mis en œuvre pour garantir la meilleure sécurité logicielle possible, à plusieurs niveaux. En particulier, plusieurs outils logiciels sont utilisés pour mettre au point un code critique, et il est important que ces derniers soient des logiciels de confiance.

"Pour commencer, avant même de l’écrire, les experts définissent le comportement attendu du futur programme. Pour éviter toute ambiguïté, ces spécifications sont formulées selon des notations mathématiques précises, sans équivoque pour tous ceux qui les utilisent. L’écriture du programme intervient ensuite, selon des procédures très contrôlées et à l’aide d’outils spécialisés”, précise Sandrine Blazy.

Compilateur

En première ligne de ces outils d’ingénierie logicielle, on trouve le compilateur. En effet, dans la plupart des cas, un programme écrit par un être humain ne peut pas directement être utilisé par l’ordinateur : il doit être “compilé” en langage machine pour être utilisable par son processeur. Or les compilateurs engendrent souvent des bugs : le code exécutable qu’ils génèrent ne correspond pas exactement aux instructions du code source conçu par les développeurs. D’où la possibilité d’erreurs dans le programme engendré, aux conséquences potentiellement très graves dans le cas de logiciels critiques.

Assistant de preuve

Pour développer un compilateur champion du “zéro faute”, la chercheuse utilise une troisième classe de logiciels, les assistants de preuve. L’un d’eux, baptisé Coq, utilisant le langage Gallina a été créé... en France, comme vous l’avez deviné. Il recourt aux mathématiques et permet tout aussi bien de prouver des théorèmes mathématiques que la fiabilité de fonctionnement d’un compilateur, à condition que son code soit écrit de manière à pouvoir être examiné.

La force du formalisme mathématique, c’est qu’il permet de s’assurer de la sûreté de fonctionnement du compilateur a priori, c’est à dire sans avoir besoin de soumettre ce dernier à une batterie de tests exhaustive, explique Sandrine Blazy.

C’est ainsi que CompCert, le compilateur d’Inria “prouvé par Coq” à la conception duquel j’ai participé, est aujourd’hui commercialisé à l’intention des industriels qui ont besoin de développer des logiciels critiques.

Autres outils

Les méthodes développées et utilisées par Sandrine Blazy et ses collègues s’appliquent également à la sécurisation du code d’un analyseur statique, qui lui-même vise à garantir l’absence de bugs sur les codes produits par les compilateurs, sans même les exécuter.

Enfin, précise Sandrine Blazy, “nous collaborons à la vérification d’un troisième outil, servant à estimer le “pire temps d’exécution” des logiciels critiques.

Obfuscation

L’utilisation de tels outils peut également servir à vérifier qu’un programme réécrit de manière obscure, afin de ne pas pouvoir être désassemblé (piraté par révélation de son code source) continue cependant à effectuer strictement les mêmes tâches, avec la même fiabilité. On parle alors d’obfuscation sûre.

Perspectives

Les travaux de recherche de Sandrine Blazy relèvent actuellement de la sûreté logicielle. Elle compte bientôt les appliquer à la vérification de certaines propriétés de sécurité.

Liens :

Sandrine Blazy

Sandrine Blazy est professeur d’informatique à l’université de Rennes 1. En tant qu’enseignante, elle dirige le master 2 recherche en informatique, et enseigne l’utilisation d’assistants de preuve, la programmation fonctionnelle, les méthodes formelles ainsi que l’étude des vulnérabilités logicielles. Elle coordonne le groupe de travail “Langages, types, preuves” du groupe de recherche national “Génie de la programmation et du logiciel”. En tant que chercheuse, membre de l’équipe CELTIQUE de l’IRISA, elle étudie la vérification formelle de compilateurs et d’analyseurs statiques à l’aide de l’assistant de preuve Coq. Ceci nécessite notamment de formaliser mathématiquement la sémantique des langages de programmation sur lesquels opèrent ces logiciels .
Mille scénarios pour une effraction : dessiner un arbre... d'attaque

Vous êtes en charge de la sécurité d’un bâtiment sensible. Dans cet immeuble de bureaux travaillent principalement des personnels habilités au secret défense. Les documents qu’ils produisent et les ordinateurs sur lesquels ils travaillent doivent être absolument préservés du vol physique. Pourtant votre bâtiment est gigantesque. Comment allez-vous empêcher un voleur d’y entrer pour dérober un document sensible ?

Vous pensez y installer des portes et des fenêtres renforcées, des lecteurs de badge, des caméras de sécurité et des systèmes d’alarme ? Oui, mais où exactement ? Comment vous assurer que vous ne laissez pas à découvert une faille dans votre protection ? Que vos personnels recevront bien les consignes les plus efficaces ?

C’est ici que les arbres d’attaque entrent en scène. Ceux-ci visent à représenter sous forme graphique la logique des différentes séquences de vol par effraction possibles, de manière à mettre en évidence les faiblesses de l’immeuble, pour concevoir des contre mesures.

Bien entendu, ils sont d’autant plus complexes que le bâtiment étudié comporte de possibilités d’effraction. Dans les cas réels qui intéressent la DGA, la complexité est d’ailleurs telle que les chercheurs de l’IRISA ont été sollicités pour aider à la synthèse par ordinateur de ces arbres.

Aujourd’hui appliqué à des bâtiments physiques, ces outils serviront à cartographier les vulnérabilités d’un réseau informatique

Mille scénarios pour une effraction : dessiner un arbre... d'attaque

Pour créer un arbre d’attaque, les scientifiques de LogicA prennent en compte les spécifications du bâtiment donnés par les experts, ainsi que la définition d’un objectif principal. Dans l’exemple qui va suivre, le but à atteindre est de voler un document dans le bureau du directeur.

Les scientifiques utilisent spécifications et objectifs pour générer l’ensemble des chemins possibles dans le bâtiment.

Ils isolent ensuite les chemins “gagnants” permettant d’accomplir l’objectif recherché.

Ils construisent une abstraction de ces chemins.

Ils fusionnent les “arbres d’attaque” simples, obtenus en suivant les différents chemins.

Vous êtes prêts ? Allons-y !

Informatique diffuse : intégrer réel et virtuel

Connaissez-vous l’informatique diffuse ? C’est un environnement où les éléments des mondes réels et virtuels s’entremêlent jusqu’à sembler effacer la frontière qui les sépare.

Aujourd’hui, pour intégrer un élément du monde réel dans sa contrepartie virtuelle, il suffit de le munir d’un capteur ou d’une étiquette électronique, disponibles à très bas coût. Le lieu ou l’objet ainsi marqué fait son entrée dans un système d’information diffus, pour des applications très variées.

Imaginons une forêt dont certains arbres, à intervalles réguliers, seraient équipés d’un capteur de température à très basse consommation d’énergie et inactif la plupart du temps. En cas de départ d’incendie dans son secteur, l’un de ces capteurs enverrait une alerte géolocalisée. Détectée par une station de réception connectée à internet, l’alerte déclencherait l’intervention des pompiers (ou pourquoi pas de drones), à l’endroit précis du départ de feu. Les secours auraient ainsi de meilleures chances d’étouffer dans l’œuf un incendie de forêt.

Les usages de l’informatique diffuse sont en plein essor, des objets personnels connectés aux étiquettes RFID que l’on trouve dans les passeports, les documents des bibliothèques, les objets en vente dans les commerces...

L’informatique diffuse est la spécialité de l’équipe TAComa commune à Inria et à l’IRISA, dirigée par Frédéric Weis, maître de conférences à l’université de Rennes 1.

La première de nos préoccupations est de concevoir des systèmes où la confidentialité de l’utilisateur soit préservée par défaut.” explique Frédéric Weis.

"Actuellement, on assiste à l’avènement de systèmes où des millions d’objets connectés (smartphones, capteurs de fitness, équipements domotiques tels que des thermostats “intelligents”) envoient leurs données à une banque de serveurs centralisée, le fameux “cloud” ou nuage."

C’est alors sous le contrôle exclusif du vendeur que les opérations sont effectuées. L’utilisateur n’a plus aucune maîtrise des données collectées. Les systèmes auxquels nous réfléchissons relocalisent le traitement de l’information au plus près de l’utilisateur, de manière à restaurer sa souveraineté sur les données qu’il produit”, souligne Frédéric Weis.

Les capacités limités des objets connectés en terme de puissance et d’autonomie de batterie conduisent à générer des données plus compactes, synthétiques et moins fréquentes, strictement nécessaires à la fonctionnalité recherchée. Ainsi, à service égal pour l’utilisateur, la charge réseau, l’empreinte énergétique et l’impact en termes de confidentialité sont réduits d’autant.

Plateforme test RFID à l’IETR

Sur le plan opérationnel, les réseaux de l’informatique diffuse nécessitent des améliorations technologiques importantes pour atteindre les fonctionnalités attendues.

L’une des manières de connecter des objets à des systèmes d’informatiques diffus consiste à leur apposer une puce RFID. Les “puces” RFID passives ne comportent ni pile ni batterie. Elle reçoivent leur énergie à distance, quand on les approche d’un lecteur. Celui-ci envoie des ondes à une certaine fréquence qui activent le circuit RFID. Ce dernier répond en émettant un code d’identification capté et reconnu par le lecteur.

À la différence d’un code barres, ces puces RFID passives n’ont pas besoin d’être directement visibles par le lecteur et peuvent être insérés dans l’objet.

Alors, comment se fait-il qu’il ne suffise pas de passer son caddie de supermarché devant un lecteur RFID pour que le montant total de vos achats soit calculé en un clin d’œil ?

C’est que la fiabilité de lecture des puces RFID n’est pas encore pleinement satisfaisante. Le RFID, c’est survendu”, sourit Paul Couderc. On s’en rend compte chaque fois que l’on est obligé de passer plusieurs fois son pass “sans contact” devant les lecteurs des métros ou des bus, avant qu’il ne fonctionne.

Les interférences entre puces RFID, les erreurs de lecture imposent l’amélioration du système”, poursuit Paul Couderc. “Pour y parvenir, nous avons noué un parteneriat avec l’IETR, situé à 100 mètres de l’IRISA  sur le campus de Beaulieu, et ses experts des systèmes antennaires ainsi que des communications par radiofréquences. Ensemble, nous créons une plateforme qui permet de caractériser les erreurs des communications RFID en étudiant notamment la partie antenne du dispositif, et de rechercher les meilleures configurations de lecture.

Prenons un exemple analogue à celui d’un caddie de supermarché : un sac poubelle remplis de déchets portant tous une radio-étiquette. L’objectif est que ce sac, jeté dans une benne “intelligente”, voie son contenu identifié pour gagner en efficacité dans la chaîne de recyclage.

Le problème est que dans un sac poubelle, beaucoup d’étiquettes RFID se trouvent regroupées dans un espace très contraint, où elles sont orientées en tous sens et peuvent se retrouver proches de matériaux perturbateurs (aluminium, autres métaux par exemple).

Dans ces conditions, de multiples erreurs de lecture apparaissent. L’équipe Tacoma, particulièrement Frédéric Weis et Paul Couderc, se sont associés à l’IETR pour créer une plateforme de test. Celle-ci consiste en un portique motorisé qui permet de déplacer un ensemble d’étiquettes RFID et d’antennes de lecture pour reproduire des situations problématiques et expérimenter des solutions.

Frédéric Weis

Frédéric Weis, maître de conférences à l’université de Rennes 1, enseigne les technologies de l'Internet, les réseaux locaux sans fil, la sécurité et l’administration des réseaux à l’IUT de Saint-Malo, dont il est responsable de la licence "Réseaux Sans Fil et Sécurité". En tant que chercheur membre de l’équipe TACOMA, commune à Inria et à l’IRISA, il étudie les réseaux sans fil, la mobilité, l’informatique diffuse, la domotique et les réseaux de capteurs. La licence professionnelle sécurité des réseaux sans fil forme des cadres possédant une expertise dans trois domaines complémentaires : le déploiement des réseaux d’entreprise et des systèmes, la sécurisation « combinée » de ces réseaux et de ces systèmes, et enfin la maîtrise des technologies d’accès très haut débit des opérateurs.

Paul Couderc

Paul Couderc, chercheur à Inria…
Rennes 1, acteur de la formation en cybersécurité

L’université de Rennes 1 se distingue par une position privilégiée d’expertise dans le domaine de la cybersécurité à l’échelle européenne.

Les formations de l’université sont placées sous la responsabilité d’enseignants qui sont aussi des chercheurs particulièrement reconnus sur la thématique. De plus, Rennes 1 couvre l’ensemble des disciplines de la cybersécurité : mathématiques, droit, informatique, électronique et télécommunications. Plus largement, la densité des partenariats noués avec les acteurs du territoire (organismes, grandes écoles, entreprises, DGA) au sein du Pôle d’excellence cyber breton font de Rennes Métropole le point de chute idéal pour les étudiants, les doctorants et les chercheurs intéressés par la cybersécurité.

Formation

À Rennes 1, la cybersécurité fait l’objet d’une sensibilisation dès la licence généraliste en informatique, puis se renforce dans l’ensemble des  licences professionnelles et masters (informatique, mathématique), jusqu’à proposer plusieurs mentions spécialisées en sécurité :

BAC + 3

BAC + 5

Formation ingénieur

Cyberschool, école universitaire de recherche en cybersécurité

Parmi les institutions et les entreprises partenaires de ces formations, on notera l’ANSSI, la DGA, Sopra Steria, Orange Business services, Retis communication… La plupart proposent des stages liés à la sécurité, et leurs personnels interviennent devant les étudiants de Rennes 1 aux côtés des partenaires académiques (CentraleSupélec, INSA…) et des organismes de recherche (Inria, CNRS).

Témoignage de leur excellence, les enseignants-chercheurs de Rennes 1 ont été particulièrement sollicités par l’initiative Cyberedu lancée au niveau national par l’ANSSI, visant à introduire un socle commun de notions de sécurité dans l’ensemble des cursus en informatique de France.
Ils ont ainsi contribué à développer une mallette pédagogique qui rassemble un guide pédagogique, un cours préparé de 24h pour l'enseignement des bases de la sécurité informatique, ainsi que des éléments de cours au niveau master (réseaux, systèmes d'exploitation et développement).

À consulter également, la liste des formations en cybersécurité offertes au sein du Pôle d'excellence cyber.

Recherche et formation par la recherche

Ce sont l'excellence et le périmètre quasi exhaustif de la recherche en cybersécurité à l'Université de Rennes 1 qui fondent la qualité des formations dispensées par les enseignants-chercheurs de l'établissement en la matière. Dans le cadre du Pôle d’excellence cyber, Rennes 1 mobilise, à des degrés d’implication divers, plus de 120 personnes sur le thème de la cybersécurité regroupées en 23 équipes au sein de 4 unités mixtes de recherche en co-tutelle :

  • l’IRISA (Institut de recherche en informatique et systèmes aléatoires) ;
  • l’IETR (Institut d’électronique et télécommunications de Rennes) ;
  • l’IRMAR (Institut de recherche mathématique de Rennes) ;
  • l’IODE (Institut de l’Ouest : droit et Europe).

    Ces laboratoires travaillent en partenariat étroit avec les entreprises du Pôle d’excellence cyber, dont certaines co-financent des thèses par exemple via le dispositif CIFRE, tandis que la DGA finance quant à elle directement une dizaine de thèses de doctorat par an sur l’ensemble de leur spectre.

    Jean-Marc Jézéquel, professeur à l’université de Rennes 1 et directeur de l’IRISA, est par ailleurs chargé de la coordination de la recherche conduite dans le cadre du Pôle d’excellence cyber.

    À noter enfin qu’une équipe de recherche entièrement dédiée à la sécurité des systèmes embarqués (EMSEC) a été créée en 2016 à l’IRISA, où elle bénéficie déjà d'une excellente notoriété (EMSEC compte 2 membres de l'Institut universitaire de France et porte un projet ERC fortement soutenu par le Conseil européen de la recherche).

    Liens : IRISA, IODE, IETR, IRMAR, CyberEdu, PEC

En pratique : gérer la sécurité du système d’information de Rennes 1

Pour compléter ce dossier sur la cybersécurité, il a semblé intéressant de faire découvrir, en pratique, les enjeux réels rencontrés par les équipes de Rennes 1 pour la sécurisation du système d’information (SI) de l’université.

Rencontre avec Serge Aumont, responsable de la sécurité du système d’information (RSSI) de Rennes 1 depuis 2011.

Le système d’information de l’établissement inclut tous les types d’information, numérique et autres impliqués notamment dans :

  • la gestion des emplois du temps, des examens, des notes
  • la finance et la comptabilité de l’établissement,
  • la gestion des personnels, leur paye
  • les services numériques aux utilisateurs (courriel, ENT, stockage, sauvegarde et historique des données, documentation électronique...)
  • les données produites par les activités de recherche
  • les supports pédagogiques (mooc)

Ces domaines sont sensibles, à divers degrés, pour la communauté d’utilisateurs de Rennes 1 (près de 33 000 personnes, soit 29 000 étudiants et 3 900 personnels). On comprend que la sécurisation de ces systèmes soit essentielle au bon fonctionnement de l’université. Ils sont très largement informatisés, de sorte que la sécurité de l’ensemble se confond avec celle de l’infrastructure numérique de l’établissement, soit :

  • 5 000 postes de travail
  • 80 téra-octets de trafic réseau quotidien sur les 450 serveurs de la DSI
  • 160 domaines internet
  • près d’un millier de serveurs web
  • 358 téra-octets d’espace de stockage net et sauvegardé à disposition des utilisateurs UR1
  • communication avec le reste du monde via le réseau à haut débit RENATER.

Un système menacé en permanence

Du fait de son étendue, le SI de Rennes 1 offre une large surface d’attaque.

Ces attaques ne se déroulent pas toutes depuis internet. Ainsi, précisément lors du changement récent de gouvernance à Rennes 1, une tentative d’escroquerie par appel téléphonique a visé les services comptables de la présidence, heureusement contrée par la vigilance du personnel administratif. L’attaquant était renseigné sur le contexte du changement d’équipe à la présidence de Rennes 1 ainsi que sur l’organisation des services.

Concernant la dimension purement numérique du SI, le type d’attaque évolue avec le temps et le perfectionnement des protections. En 2011, le piratage de sites web était monnaie courante, c’est moins le cas aujourd’hui.

Cela dit, les machines exposée à internet subissent un flux continu de tentatives d’intrusion. Quant au spam, il représente ⅔ des courriels reçus d’internet (1.2 million de messages sur un total de 1.8 million de messages par mois).

Ainsi, on comprend que les équipes de la DSI soient vigilantes sur une grande variété de risques : obsolescence des logiciels et du matériel, la diffusion d’un courriel de phishing (hameçonnage) dévastateur par son efficacité, logiciel espion qui exfiltre des données confidentielles comme les mots de passe utilisateur, chevaux de Troie permettant aux pirates de “prendre la main” sur la machine piratée ou encore les attaques par déni de service sur les équipements de tête de pont internet qui couperaient totalement l’université du réseau.

Le rôle de Serge Aumont, RSSI à Rennes 1

L’une des missions de Serge Aumont et de ses collègues de la Direction du système d’information (DSI) est donc la gestion des incidents de sécurité : analyse d’impact, corrections, réparations, puis déduction de mesures de prévention.

Pourtant, Serge Aumont refuse absolument les clichés attachés à sa profession qui le représenteraient en “super-geek” solitaire, posant sur fond de serveurs informatiques, et porteur d’un discours ultratechnologique et angoissant. Il décrit son travail comme un exercice partagé de dialogue, de formalisme, et même, précise-t-il avec une touche d’humour, de “paperasserie”.

Définition de la PSSI

En effet, le RSSI est en lien avec le directeur du système d’information (SI) et le président de Rennes 1. C’est un expert des principes qui gouvernent la sécurité des SI (disponibilité, intégrité, confidentialité, traçabilité), qu’il adapte à l’université. Il lui revient de proposer des mesures de gestion des risques dans ce domaine aux instances politiques de l’établissement. Celles-ci pourront alors arbitrer, en toute connaissance de cause, en fonction des moyens et de l’impact des mesures sur la communauté universitaire. Selon la décision, il subsistera des risques résiduels qui seront pris en compte.

Voici les étapes typiques de mise en œuvre d’une politique de sécurité du système d’information (PSSI) :

  1. définition des objectifs de sécurité : disponibilité, intégrité, confidentialité et preuve
  2. analyse des risques et évènements redoutés
  3. formalisation de mesures de réduction des risques
  4. arbitrage politique
  5. application
  6. évaluation
  7. expérience prise en compte, nouveau cycle depuis l’étape n°1

Ses méthodes

Pour effectuer son travail, le dialogue de Serge Aumont avec les acteurs de la communauté universitaire est une étape primordiale. Ses missions impliquent une collaboration étroite avec ses collègues de la DSI (responsables de l’assistance utilisateurs, du pôle de gestion des infrastructures système et réseau, etc.) et les autres acteurs du système d’information .

Au-delà de l’action quotidienne et collaborative pour la gestion des incidents de sécurité, l’essentiel de l’activité de Serge Aumont consiste à formaliser et à mettre en place des procédures.

Ses actions

Par exemple, c’est lui qui aide à définir la gestion des connaissances utiles à l’administration du SI de Rennes 1, selon le “besoin d’en connaître” de chacun des acteurs. Cette expression, propre aux métiers de la sécurité, signifie qu’une personne habilitée à connaître un secret d’exploitation ne doit effectivement connaître que la portion de ce secret nécessaire à l’exercice de ses fonctions. L’objectif est de limiter la “surface d’exposition” de l’information.

Ainsi, lorsque Serge Aumont nous a fait visiter la salle des machines de la DSI à Beaulieu, il nous a fait passer par le “circuit de notoriété” autorisé aux visiteurs, celui qui nous a permis de prendre ces photos, sans pour autant nous montrer ce qui devait rester confidentiel.

Concrètement ?

Serge Aumont supervise les mesures de sécurisation de l’infrastructure et veille à leur cohérence. Citons-en quelques unes :

  • Redondance des salles de machines sous accès restreint
  • Cryptographie des flux (gestion des certificats avec RENATER)
  • Sauvegarde et historique des données de chaque utilisateur
  • Filtres anti-spam de RENATER, déploiement d’antivirus à l’échelle du réseau
  • Tests aléatoires d’ingénierie sociale (“phishing”) pour sensibiliser les utilisateurs à ce type d’attaque, redoutable quand elle est réalisée avec précision.
  • Essai annuel d’arrêt et redémarrage complet de l’infrastructure et des services numériques de l’université.

Serge Aumont contribue à la maîtrise d’ouvrage de la refonte de la gestion des identités, celle-là même qui permet l’authentification des utilisateurs et la vérification de leurs privilèges au moment d’utiliser des services du système d’information. La tâche est complexe, puisque le système doit tenir compte des départs, des arrivées, des mutations, des successions d’inscription… en interface avec les logiciels utilisés par les ressources humaines et les scolarités.

Perception

Les mesures relevant de la politique de sécurité du SI peuvent être perçues comme contraignantes par les utilisateurs, quand on ne prend pas en considération ce qu’elles permettent de prévenir.

Ainsi chaque année à Rennes 1, le temps d’un week-end, se déroule un exercice consistant en l’arrêt complet des serveurs de l’université. Tous les services numériques sont alors indisponibles : téléphonie, courriel, accès aux intranets et à internet, serveurs d’impression, logiciels de gestion… La contrainte, pour une université regroupant plus de 31 000 membres (étudiants et personnels) est très forte. Pourtant, ce test d’arrêt et de redémarrage d’un système très complexe s’avère crucial : en cas d’incident majeur sur les infrastructures, il permettrait d’éviter des semaines de perturbations.

Et pour la recherche ?

L’un des objectifs de Serge Aumont est de développer la sécurité du SI de recherche à Rennes 1 : pour l’heure, la majorité des unités s’appuient de manière hétérogène sur des moyens propres ou sur les offres proposées par les co-tutelles (CNRS, Inserm). Cet état de fait est problématique au regard des impératifs réglementaires de la “Politique de protection du potentiel scientifique et technique de la nation“, dont le coordinateur est le fonctionnaire de sécurité et de défense présent sur les campus.

Liens :

Serge Aumont

RSSI de Rennes 1 depuis 2011, Serge Aumont est titulaire d’un DESS (Master 2 professionnel), spécialité “Systèmes d’information”. Il a participé à la construction de RENATER (il a été membre du comité réseau des universités avant son absorption par RENATER), et il a animé le réseau national des RSSI. Il a publié un article sur les certificats de cryptographie au format X.509, et a participé au développement de SYMPA, outil de gestion de listes de diffusion.
Origines de la cybersécurité

Pour commencer, concentrez-vous... visualisez vos :

Ordinateurs, smartphones, tablettes, télévisions

Montres, capteurs de fitness, voiture connectée…

Mais aussi pass de transport, carte bancaire...

Ensuite, imaginez-les sans aucune connexion, suite à une panne complète et définitive d’Internet et de tous les réseaux de données.

Au mieux, leur usage serait sévèrement limité. Mais le plus souvent, il ne resterait plus qu’à les encadrer sur le mur du salon en souvenir d’une époque révolue : celle du cyberespace.

À les utiliser tous les jours, nous oublions le lien essentiel de ces objets du quotidien avec le monde numérique virtuel : ils deviennent des portes par où nous nous projetons dans le cyberespace, telle Alice passant de l’autre côté d’un miroir qui a soudain disparu.

Dans ce nouveau Pays des merveilles, les possibilités du réel sont décuplées : les distances sont abolies, le temps du « voyage » le plus lointain se compte en millisecondes, nos données font le tour de la planète en un clin d’oeil. Dans le cyberespace, on échange seul à seul ou avec une foule immense, on séduit de loin, on s’informe, on travaille, on prend part à d'épiques batailles virtuelles ou aux débat les plus enflammés. Toute la connaissance du monde paraît instantanément accessible. Le commerce bat son plein. Ceux qui ont connu le monde d'avant Internet s’étonnent chaque jour. Les plus jeunes adoptent l’innovation sans y penser.

En retour, les prolongements du virtuel dans le réel s’étendent. Certains événements de notre quotidien n’existeraient pas sans un aller-retour entre l’appareil physique et le cyberespace, proche ou lointain. Le moment de la connexion du réel au virtuel est parfois très visible (entrer ses identifiants sur les réseaux sociaux), d’autres fois, il est imperceptible : passer les contrôles à l’entrée du métro, à l’aéroport, payer sans contact chez le boulanger, déverrouiller une voiture avec une clé mains libres. Ces échanges transforment nos vies plus profondément qu’on ne le pense : combien d’enfants sont-ils déjà nés de rencontres mêlant réel et virtuel à travers les réseaux sociaux ?

Le cyberespace, lorsqu'il s'est d'abord déployé hors des laboratoires qui l'avaient vu naître, c'était justement un rêve d'enfant qui se verrait doté de super-pouvoirs : la première grande percée d'Internet dans le grand public date de 1996, année où la NASA plaçait à portée de tous les internautes les images reçues en quasi direct de la planète Mars par le robot Pathfinder, faisant d'eux des explorateurs virtuels de notre système solaire. Et la carte à puce utilisée comme moyen de paiement dématérialisé a déjà trente ans.

Pour bâtir le monde numérique, un extraordinaire jeu de construction s’est développé à l’échelle de la planète. Des milliards de briques (ordinateurs, objets connectés, centres de données) se sont vu progressivement relier par une masse gigantesque de connexions filaires ou radio entrecroisées : l’infrastructure réseau d'Internet. Pour « router » les paquets de données entre les utilisateurs à la meilleure vitesse possible, où qu'ils se trouvent, des exploits technologiques sont réalisés chaque jour : pose de câbles sous-marins, lancement de satellites, construction de centres de données grands comme des villages et regroupant chacun des centaines de milliers d’ordinateurs-serveurs...

On peut toucher la toute dernière extrémité de cette structure tentaculaire : les fameuses prises (ADSL, câble, fibre...) installée dans tout bâtiment physiquement relié au “net”. On peut aussi la percevoir quand on cherche le « réseau » dans une zone d'accès difficile en orientant son portable à la recherche de l'antenne-relais la plus proche. Pourtant, on ne perçoit du cyberespace qu’une infime proportion, bien moindre que la fameuse « partie émergée de l'iceberg ». Le domaine numérique est aujourd’hui dimensionné à l’échelle de la planète, épousant et parfois amplifiant ses disparités.

Or il existe une autre dimension encore plus mal connue sans laquelle l'internet d’aujourd'hui n'existerait plus : la cybersécurité.

Le rêve d'enfant des débuts de l'internet grand public a vite été rattrapé par des réalités plus intéressées et par le développement du cybercrime : plus le réseau s'enrichissait des données et des richesses dématérialisées qu'y déposaient individus et collectifs de toutes échelles, plus cette masse d'information prenait de valeur susceptible d'attirer les convoitises de voleurs en ligne. À l'origine, toutes les transmissions de données sur l'internet des scientifiques se faisaient « en clair », c'est-à-dire que toute personne branchée sur le même réseau pouvait y avoir accès et les lire. Qui imaginerait aujourd'hui se connecter sur ses comptes en ligne sans nom d'utilisateur, mot de passe, voire authentification à deux facteurs ?

Trois usages surtout ont imposé le chiffrement des données des individus : le commerce et les finances dits électroniques, les réseaux sociaux (dont les jeux en ligne) et l'administration dématérialisée. Le courriel, toujours majoritairement consulté et rédigé « en clair » est une remarquable exception, appelée sans doute à disparaître sous sa forme non sécurisée.

Les liens entre notre vie réelle et nos activités virtuelles sont devenus tellement essentiels qu’une atteinte à leurs données numériques créera d'importantes difficultés dans le monde réel. Les trois risques les plus fréquents aujourd'hui pour une personne donnée (et on les rencontre souvent ensemble dans les scénarios d’attaque) sont la fraude bancaire, l'usurpation d'identité et le harcèlement ou le chantage numérique.

À plus grande échelle, ces menaces se transposent en risques pour :

  • les sites et infrastructures industrielles, qui doivent se protéger contre une prise de contrôle par des attaquants extérieurs (centrales nucléaires, réseau électrique, transports publics) ;
  • les entreprises (dont les bases de données et les actifs sont des cibles privilégiées) ;
  • les États (le cyberespionnage étant devenu pratique courante) ;

La cybersécurité est ainsi devenue en quelques années un enjeu majeur aux yeux des politiques, des militaires, des économistes comme des journalistes, des associations non gouvernementales…

Aujourd'hui, c'est une affaire d'État. Dans un contexte géopolitique difficile lié à la résurgence du terrorisme, de fortes tensions sont apparues entre les citoyens soucieux de leur droit à la confidentialité d'une part, et d'autre part les gouvernements souhaitant étendre leur surveillance du cyberespace. Entre les deux, les grands opérateurs économiques (Google, Apple, Facebook…) tirent leurs revenus de l’exploitation des données personnelles de leurs utilisateurs. Pour gagner leur confiance, ils doivent préserver leur confidentialité, tout en se conformant aux lois des pays où ils exercent leur activité.

Liens :

Le dilemme de la cybersécurité

Centrales nucléaires, transports, hôpitaux, unités de recherche, banques mais aussi gouvernement et administration en ligne… les prolongements des infrastructures d'un pays dans le monde numérique le rendent vulnérable aux attaques des hackers, de plus en plus organisés voire mandatés par des gouvernements étrangers. La cybersécurité est devenue une affaire d'État.

Les défis de cybersécurité qu'affrontent les nations se répercutent à notre échelle individuelle dès lors que nous utilisons Internet, cet enchevêtrement de réseaux et de bases de données où nous avons déposé un grand nombre d'informations très personnelles.

Or, ni Internet ni le web n'ont été conçus à l'origine de manière sécurisée. Par exemple, connaissez-vous BGP ? Ce protocole décentralisé est l'un des piliers du fonctionnement d'Internet. Il permet d'aiguiller le gigantesque trafic du réseau des réseaux à travers les innombrables routes disponibles à un instant donné. Peu connu du grand public, ce « Border Gateway Protocol », d'une importance cruciale et qui relie l'immense majorité des fournisseurs d'accès dans le monde, n'est aujourd'hui absolument pas sécurisé.

Dans ces conditions, la sécurité sur le réseau ne dépend pas du réseau lui-même, mais de ses utilisateurs. Quand on dissecte Internet, on s'aperçoit que la partie « intelligente » se trouve en périphérie (les ordinateurs connectés), et pas dans le cœur de réseau (liaisons à très grande vitesse, routeurs). Il est donc extrêmement difficile, et coûteux, de prendre des mesures efficaces pour sécuriser l'ensemble.

Mais quels sont au juste ces défis posés par la cybersécurité ?

Une ambiguïté majeure.

Confidentialité maximale pour tous ?...

Les utilisateurs du web ont objectivement intérêt à ce que leurs données demeurent aussi confidentielles que possible : que soit respecté le secret de leur correspondance, de leurs dossiers médicaux, administratifs, financiers. Qu'il puissent exercer leur droit à l'oubli, à l'information libre, aux outils de la démocratie participative et qu'ils puissent choisir en toute maîtrise ce qu'ils révèlent d'eux-mêmes au cercle de leurs intimes, à leurs assureurs ou à leurs employeurs.

À l'échelle d'un pays, c'est par exemple la nécessité de pouvoir protéger l'accès aux systèmes industriels à large échelle (production d'énergie, transports), à l'administration dématérialisée, aux communications interministérielles et militaires. Les opérateurs économiques, de leur côté, cherchent à contrôler l'usage des biens immatériels qu'ils produisent.

Ces besoins encouragent la mise en œuvre d'outils permettant d'assurer la confidentialité des données, leur intégrité, leur authenticité et au besoin leur traçabilité : c'est le domaine des cryptographes.

ou libre accès universel ?

Mais d'autre part, les gouvernements argumentent sur la nécessité de pouvoir suivre et prévenir les évolutions des bandes criminelles, des organisations terroristes, des cercles pédophiles ou de traquer les cyberespions : c’est la mission des cryptanalystes. Les opérateurs économiques souhaitent pouvoir exploiter au maximum les données des internautes. La presse et différentes organisations ou mouvements s'engagent pour le droit à l'information librement partagée. De très nombreux internautes, les plus jeunes en particulier, souhaitent accéder avec le minimum de freins à l'abondance numérique et diffuser largement leurs propres informations sur les réseaux sociaux…

Autant de souhaits qui plaident en faveur d'une accessibilité très large des transmissions numériques… et qui semblent d'une certaine manière s'opposer aux exigences précédentes. L'un des objets de la recherche en cybersécurité n'est-il pas alors d'inventer des moyens de réconcilier ces deux tendances ?

Alice, Bob, authentification, sécurisation : petit vocabulaire cyber

Voici quelques termes que vous rencontrerez souvent en liaison avec la cybersécurité

Identification : processus permettant de communiquer son identité à un service (par exemple en utilisant nom d’utilisateur et mot de passe, clé personnelle...

Authentification : vérification de l’identité déclarée par l’utilisateur

L’intégrité, c’est-à-dire garantir que les données sont bien celles que l’on croit être ;

La confidentialité, consistant à assurer que seules les personnes autorisées aient accès aux ressources échangées ;

La disponibilité, permettant de maintenir le bon fonctionnement du système d’information ;

La non répudiation, permettant de garantir qu’une transaction ne peut être niée ;

L’authentification, consistant à assurer que seules les personnes autorisées aient accès aux ressources.

Cryptologie : science du secret

  • Cryptographie : étude des moyens de rendre un écriture secrète
  • Cryptanalyse : analyse de l’écriture secrète visant à la révéler
  • Chiffrer : transformer à l’aide d’une clé un message en clair pour le rendre secret
  • Déchiffrer : retrouver le message en clair à partir de sa forme secrète, en se servant de la clé de chiffrement
  • Décrypter : à l’aide de la cryptanalyse, réussir à passer un message chiffré en clair en reconstituant sa clé de déchiffrement.

Pour expliquer comment fonctionnent leurs systèmes d’échange sécurisés, les cryptologues mettent volontiers en scène des personnages jouant chacun un rôle bien précis. Voici les quatre principaux :

  • Alice : émettrice de messages secrets qu’elle souhaite adresser à Bob.
  • Bob/Bernard : destinataire des messages d’Alice, il lui répond.
  • Ève : cette indiscrète cherche à espionner la conversation d’Alice et Bob.
  • Mallory : comme Ève, il espionne Alice et Bob. Mais de plus, cet individu particulièrement dangereux cherche à manipuler l’information échangée (intercepter la clé publique d’Alice et la remplacer par la sienne propre, par exemple).

ANSSI : Agence nationale de la sécurité des systèmes d’information. L’ANSSI a mission d’autorité nationale en matière de sécurité et de défense des systèmes d’information. Pour ce faire, elle déploie un large panel d’actions normatives et pratiques, depuis l’émission de règles et la vérification de leur application, jusqu’à la veille, l’alerte et la réaction rapide face aux cyberattaques — notamment sur les réseaux de l’État.

CNIL : Commission nationale de l’informatique et des libertés. La CNIL accompagne les professionnels dans leur mise en conformité et aide les particuliers à maîtriser leurs données personnelles et exercer leurs droits. Elle analyse l’impact des innovations technologiques et des usages émergents sur la vie privée et les libertés. Enfin, elle travaille en étroite collaboration avec ses homologues européens et internationaux pour élaborer une régulation harmonisée.