31 janvier 2006

La surveillance de masse

L’enjeu du scandale des écoutes téléphoniques sans mandat conduites par la National Security Agency contre des citoyens étasuniens concerne moins le respect de normes juridiques élaborées dans les années 1970 que le déploiement d’un dispositif de surveillance de masse. L’objectif de la NSA n’est pas à proprement parler d’écouter le contenu de millions d’heures de conversations qui doivent être traduites par des linguistes en sous-effectifs, mais de dresser une carte relationnelle des personnes dont les habitudes d’appel méritent plus ample considération. Cette technique, connue sous le nom « d’analyse de trafic » s’appuie sur les travaux des sociologues et des mathématiciens qui étudient les réseaux sociaux et leurs structures. Il est en effet possible de déduire la hiérarchie d’un groupe, ou du moins d’identifier les individus clés de celui-ci, par la seule analyse des liens qu’ils entretiennent avec leurs contacts. La difficulté de ce type d’analyse réside dans le choix des critères permettant de délimiter le groupe de référence, c'est-à-dire de décider qui doit être inclus ou exclus des analyses. Il semblerait que la NSA ait axé ses efforts sur l’automatisation de cette procédure, à partir d’un échantillon de départ extrêmement large (tous les appels en provenance d’Afghanistan par exemple), et sur l’identification dans une population composée majoritairement de personnes respectueuses des lois de profils atypiques laissant présager des visées terroristes.

Le danger de travailler à une telle échelle et de traiter de façon « aveugle » une telle masse d’informations est bien entendu de prendre dans le filet de la surveillance des personnes totalement innocentes. La théorie bien connue des six degrés de séparation insiste sur la taille réduite de nos univers sociaux, qui permet à chacun d’entre nous de contacter n’importe quelle personne (y compris les plus célèbres) en utilisant un nombre réduit d’intermédiaires. Appliquée à la lutte contre le terrorisme et combinée à la puissance de calcul et d’interception déployées par les agences de renseignement, cette théorie fait de nous tous des « connaissances » d’Oussama Ben Laden. Le programme NORA (Non Obvious Relationship Awareness), de la société SRD (rachetée récemment par IBM) permet ainsi d’analyser les liens entre individus jusqu’à 30 degrés de séparation, ce qui est amplement suffisant pour nous mettre tous sur la liste des suspects par association des services de renseignement et de police, à quelque titre que ce soit.

Le potentiel d’erreur élevé constitue un problème de taille. Dans les mois qui ont suivi les attentats du 11 septembre, la collaboration accrue entre la NSA et le FBI a conduit ce dernier à lancer des enquêtes sur des milliers d’individus identifiés comme de potentiels suspects par la NSA. Ces enquêtes ont rapidement été considérées comme une perte de temps par les agents du FBI en raison des critères de sélection trop bas utilisés par la NSA. Le programme d’identification des passagers aériens à risques CAPPS s’est également fait connaître aux USA pour sa propension à interdire l’accès aux avions de toutes les personnes portant le même nom qu’un individu recherché, ce qui a valu au sénateur Kennedy quelques déboires à l’aéroport de Boston. L’avocat de l’Oregon converti à l’Islam Brandon Mayfield a aussi été la victime d’une analyse de liens erronée : ses empreintes digitales ont été faussement identifiées comme celles retrouvées sur les débris d’une des bombes placées dans le métro de Madrid, mais le fait qu’il ait défendu un sympathisant d’Al Qaeda dans une affaire de garde d’enfant et qu’il ait placé des encarts publicitaires dans des revues islamistes a suffi à lui conférer le statut de terroriste potentiel au yeux des enquêteurs qui l’ont arrêté. Les lois du hasard et le nouveau déterminisme relationnel qui semblent émerger continueront de produire des erreurs en nombre croissant, à mesure qu’augmentent les capacités de collecte et d’analyse des services de renseignement.
Le fait que la NSA et la CIA construisent dans la banlieue de Denver de nouvelles installations pour mener ce type d’opérations semble signaler l’enracinement durable du concept de surveillance de masse aux États Unis[1].
[1] http://blogs.washingtonpost.com/earlywarning/2006/01/nsa_expands_its.html, consulté le 31 janvier 2006.

21 janvier 2006

Moteurs de recherche et conservation des données

Le mercredi 18 janvier 2006, on apprenait que le ministère de la justice américain avait demandé un an plus tôt à Google, le moteur de recherche le plus utilisé par les internautes, de lui communiquer le contenu de ses bases de données[1]. Les avocats du ministère désiraient obtenir la liste de tous les termes ayant fait l’objet d’une recherche pendant une semaine typique d’activité, afin de démontrer le peu de protections offertes en ligne aux mineurs qui souhaitaient accéder à des sites pornographiques. Le refus de Google d’obtempérer rendit l’affaire publique, mais d’autres moteurs de recherche (Yahoo, Microsoft et AOL) n’eurent pas les mêmes états d’âme.

Un article publié par le site internet Wired nous apprend comment nos recherches sur ces moteurs sont conservées en mémoire et peuvent être utilisées à notre insu[2]. La conservation et l’analyse de l’ensemble des données reliées à nos recherches servent initialement à raffiner les résultats qui nous sont retournés, ainsi que les publicités qui les accompagnent. La mise en relation de nos recherches présentes et passées permet ainsi à ces entreprises de contextualiser nos intérêts et d’en dresser une liste exhaustive. Afin d’y parvenir, un identifiant unique (le célèbre cookie) est implanté par la plupart des sites commerciaux sur notre ordinateur afin de suivre chacun de nos mouvements. La durée de vie de ces programmes est variable, mais le cookie actuellement utilisé par Google expire en 2038 et celui des sites du gouvernement du Québec en 2034.

La plupart des moteurs de recherche offrent également des services additionnels de courrier électronique gratuit ou de messagerie instantanée, qui requièrent des utilisateurs qu’ils ouvrent un compte après avoir fourni quelques renseignements obligatoires tels que leur nom, leur date de naissance, leur adresse et certains de leurs goûts personnels. Les fréquences et durées de connexion des utilisateurs, ainsi que les adresses de leurs contacts et les recherches effectuées peuvent être mises en relation afin de produire des profils beaucoup plus détaillés.

Bien que la motivation principale de ce souci de connaissance soit avant tout commerciale, les services de police et de renseignement ne sont pas insensibles à leur potentiel. Un homme jugé en novembre 2005 en Caroline du Sud pour le meurtre de sa femme a ainsi du expliquer au tribunal les traces de recherches qui avaient été découvertes dans ses ordinateurs portant sur le meilleur moyen de briser le cou de quelqu’un, et sur les marées et les accès nautiques au lac dans lequel on a retrouvé le corps de sa conjointe[3]. Dans les pays où la liberté d’expression n’est pas garantie, de telles informations peuvent constituer un puissant outil de contrôle pour les forces de l’ordre.

Les utilisateurs d’internet qui souhaitent garder privée la nature de leurs recherches peuvent supprimer périodiquement les cookies se trouvant sur leur ordinateur, ou faire usage d’un système de connexion internet anonyme tel que les logiciels TOR[4] ou Anonymizer[5]. Le site www.anonymat.org offre également de nombreuses solutions de préservation de la vie privée lors de nos incursions dans le monde virtuel.


[1] http://www.mercurynews.com/mld/mercurynews/news/13669361.htm, consulté le 21 janvier 2005.
[2] http://www.wired.com/news/technology/1,70051-0.html, consulté le 21 janvier 2005.
[3] http://www.wral.com/news/5287261/detail.html, consulté le 21 janvier 2006.
[4] http://tor.eff.org/index.html.fr.
[5] http://www.anonymizer.com/.