L’enjeu du scandale des écoutes téléphoniques sans mandat conduites par la National Security Agency contre des citoyens étasuniens concerne moins le respect de normes juridiques élaborées dans les années 1970 que le déploiement d’un dispositif de surveillance de masse. L’objectif de la NSA n’est pas à proprement parler d’écouter le contenu de millions d’heures de conversations qui doivent être traduites par des linguistes en sous-effectifs, mais de dresser une carte relationnelle des personnes dont les habitudes d’appel méritent plus ample considération. Cette technique, connue sous le nom « d’analyse de trafic » s’appuie sur les travaux des sociologues et des mathématiciens qui étudient les réseaux sociaux et leurs structures. Il est en effet possible de déduire la hiérarchie d’un groupe, ou du moins d’identifier les individus clés de celui-ci, par la seule analyse des liens qu’ils entretiennent avec leurs contacts. La difficulté de ce type d’analyse réside dans le choix des critères permettant de délimiter le groupe de référence, c'est-à-dire de décider qui doit être inclus ou exclus des analyses. Il semblerait que la NSA ait axé ses efforts sur l’automatisation de cette procédure, à partir d’un échantillon de départ extrêmement large (tous les appels en provenance d’Afghanistan par exemple), et sur l’identification dans une population composée majoritairement de personnes respectueuses des lois de profils atypiques laissant présager des visées terroristes.
Le danger de travailler à une telle échelle et de traiter de façon « aveugle » une telle masse d’informations est bien entendu de prendre dans le filet de la surveillance des personnes totalement innocentes. La théorie bien connue des six degrés de séparation insiste sur la taille réduite de nos univers sociaux, qui permet à chacun d’entre nous de contacter n’importe quelle personne (y compris les plus célèbres) en utilisant un nombre réduit d’intermédiaires. Appliquée à la lutte contre le terrorisme et combinée à la puissance de calcul et d’interception déployées par les agences de renseignement, cette théorie fait de nous tous des « connaissances » d’Oussama Ben Laden. Le programme NORA (Non Obvious Relationship Awareness), de la société SRD (rachetée récemment par IBM) permet ainsi d’analyser les liens entre individus jusqu’à 30 degrés de séparation, ce qui est amplement suffisant pour nous mettre tous sur la liste des suspects par association des services de renseignement et de police, à quelque titre que ce soit.
Le potentiel d’erreur élevé constitue un problème de taille. Dans les mois qui ont suivi les attentats du 11 septembre, la collaboration accrue entre la NSA et le FBI a conduit ce dernier à lancer des enquêtes sur des milliers d’individus identifiés comme de potentiels suspects par la NSA. Ces enquêtes ont rapidement été considérées comme une perte de temps par les agents du FBI en raison des critères de sélection trop bas utilisés par la NSA. Le programme d’identification des passagers aériens à risques CAPPS s’est également fait connaître aux USA pour sa propension à interdire l’accès aux avions de toutes les personnes portant le même nom qu’un individu recherché, ce qui a valu au sénateur Kennedy quelques déboires à l’aéroport de Boston. L’avocat de l’Oregon converti à l’Islam Brandon Mayfield a aussi été la victime d’une analyse de liens erronée : ses empreintes digitales ont été faussement identifiées comme celles retrouvées sur les débris d’une des bombes placées dans le métro de Madrid, mais le fait qu’il ait défendu un sympathisant d’Al Qaeda dans une affaire de garde d’enfant et qu’il ait placé des encarts publicitaires dans des revues islamistes a suffi à lui conférer le statut de terroriste potentiel au yeux des enquêteurs qui l’ont arrêté. Les lois du hasard et le nouveau déterminisme relationnel qui semblent émerger continueront de produire des erreurs en nombre croissant, à mesure qu’augmentent les capacités de collecte et d’analyse des services de renseignement.
Le fait que la NSA et la CIA construisent dans la banlieue de Denver de nouvelles installations pour mener ce type d’opérations semble signaler l’enracinement durable du concept de surveillance de masse aux États Unis[1].
[1] http://blogs.washingtonpost.com/earlywarning/2006/01/nsa_expands_its.html, consulté le 31 janvier 2006.
31 janvier 2006
La surveillance de masse
Libellés :
anti-terrorisme,
datamining,
police,
renseignement,
surveillance
S'abonner à :
Publier des commentaires (Atom)
Aucun commentaire:
Publier un commentaire