Avril 2021
Les technologies biométriques sont très intrusives, violent la vie privée des personnes, échouent à protéger correctement les données personnelles et empêchent les individus de jouir de leur droit à la liberté d’expression.
Dans sa dernière note de politique, ARTICLE 19 soulève ses préoccupations quant à l’utilisation rapide et croissante des technologies biométriques par les pouvoirs publics et le secteur privé.
Les États et les acteurs privés recourent de plus en plus aux technologies biométriques pour analyser la façon dont les personnes agissent, se présentent physiquement et s’expriment dans la sphère publique et privée. Ces technologies sont utilisées tant par les patrouilles aux frontières que pour déverrouiller un smartphone, mais une chose est claire : leur usage est en voie de normalisation.
Fait inquiétant, les droits humains ont quasiment été oubliés dans le déploiement des technologies biométriques alors qu’ils devraient être au cœur des modalités de leur développement et de leur utilisation.
Les utilisations abusives de ces technologies conduisent au profilage et à une catégorisation des individus selon leur âge, leur sexe et leur couleur de peau. En d’autres termes, les technologies biométriques peuvent être utilisées de manière fondamentalement discriminatoire et continuer à désavantager les personnes historiquement exclues.
De plus, ces technologies peuvent être utilisées pour surveiller ce que les gens font, avec qui, comment ils se sentent, ou encore comment ils sont susceptibles de se comporter à l’avenir. Ces pratiques sont profondément invasives.
En conséquence, l’usage de ces technologies viole les droits du public à la vie privée et à la protection des données, à la dignité humaine, à la non-discrimination, à l’autodétermination et le droit d’accéder à des recours efficaces.
ARTICLE 19 demande donc un moratoire sur le développement et le déploiement de toutes les technologies biométriques jusqu’à la mise en place de garanties essentielles en matière de droits humains.
Nous demandons également une interdiction complète de la surveillance biométrique de masse dans les espaces publics, une interdiction totale des technologies de reconnaissance des émotions et une plus grande protection des droits humains dans la conception, le développement et l’utilisation des technologies biométriques.
Interdire le déploiement de toutes les technologies biométriques jusqu’à la mise en place de garanties essentielles des droits humains.
Technologies biométriques: questions-réponses
Les technologies biométriques sont utilisées pour recueillir et analyser des données personnelles permettant d’identifier une personne sans équivoque. Cela comprend l’ADN, les empreintes digitales, les modèles vocaux et les signatures cardiaques.
L’une des formes les plus connues de la technologie biométrique est la reconnaissance faciale.
Face à la disponibilité croissante de grands ensembles de données, ainsi qu’à la baisse des coûts et à l’amélioration de l’apprentissage automatique, on observe une croissance rapide du développement et du déploiement des technologies biométriques. Leur déploiement a connu une accélération avec la poussée des réponses technologiques à la pandémie de COVID-19.
Les gouvernements et les acteurs privés justifient généralement l’usage des technologies biométriques avec deux arguments :
- Premièrement, la protection de la sécurité nationale, la lutte contre le terrorisme, la prévention ou le contrôle de la criminalité et la protection de la sécurité publique.
- Deuxièmement, des autorités étatiques ou privées peuvent utiliser ces technologies pour fournir des services publics tels que le développement de « villes intelligentes » ou de systèmes de transport public.
Les arguments selon lesquels les technologies biométriques augmenteront la sécurité, réduiront la criminalité et les coûts ou offriront de plus grandes commodités ne sont actuellement pas prouvés.
De plus, ces arguments ne permettent pas de mesurer le coût de ces technologies en termes de droits humains des individus. Nul ne doit être forcé de renoncer à sa vie privée et à sa sécurité en échange de promesses d’une sécurité ou de commodités améliorées.
De même, lorsqu’ils déploient un système biométrique, les États ne doivent pas renoncer à leurs responsabilités en matière de respect des normes des droits humains et des principes de légalité, d’objectif légitime et de nécessité et proportionnalité.
Les États et les acteurs privés utilisent régulièrement les technologies biométriques pour recueillir ou générer de grandes quantités de données personnelles sensibles telles que des empreintes digitales, des scanners oculaires, ou des données sur les origines raciales ou ethniques, le sexe, etc.
Sachant que ces données peuvent révéler des informations intimes sur une personne, des garanties supplémentaires et une protection renforcée s’imposent pour préserver la sécurité des données – et du public.
Cependant, les États et les acteurs privés stockent généralement ces informations dans des bases de données massives, souvent bien plus longtemps que nécessaire, ce qui engendre de graves problèmes pour la vie privée des individus.
En effet, les acteurs étatiques ou privés peuvent facilement réutiliser ces données dans un autre but que celui initialement prévu, ou à des fins non approuvées. Cela soulève la question du « glissement de la mission », ou le risque que ces technologies soient sujettes à des failles de sécurité massives et à des abus.
Sur le plan juridique, des personnes peuvent consentir à l’utilisation de leurs données biométriques dans un but unique. Toutefois, ce consentement ne couvre pas une éventuelle réutilisation, qui devient alors illégale.
De plus, il n’existe pas aujourd’hui de cadres juridiques suffisants et mis à jour pour réglementer l’usage des technologies biométriques.
Les États et les acteurs privés ne réalisent pas des évaluations de risque ou d’impact et ignorent généralement les principes de nécessité et proportionnalité, essentiels à la protection des droits à la liberté d’expression et à la vie privée. Pour répondre à cette exigence, toute technologie doit constituer le seul moyen d’atteindre l’objectif légitime prétendu, et le moyen le moins invasif d’y parvenir – ce qui n’est souvent pas le cas.
De ce fait, les technologies biométriques peuvent être utilisées à mauvais escient et faire l’objet d’abus pour enraciner les préjugés et la discrimination.
ARTICLE 19 a trois préoccupations principales :
- La surveillance biométrique de masse a un effet dissuasif sur la liberté d’expression.
La surveillance de masse est une surveillance indiscriminée du public – par exemple, l’utilisation de la reconnaissance faciale à l’aide de caméras placées dans les métros, les centres commerciaux et les rues.
Si la reconnaissance faciale est utilisée pour identifier des individus dans des espaces publics, cela affecte leur capacité à rester anonyme et à communiquer de manière anonyme dans ces espaces sans être identifiés.
Il a été démontré que cela affecte le comportement des individus, par exemple en les dissuadant de participer à des réunions publiques, ou d’exprimer leurs idées ou leurs croyances religieuses en public.
- Cet effet dissuasif est plus grave pour les journalistes, les activistes, les opposants politiques et les groupes minoritaires.
Le recours à ces technologies peut être particulièrement préjudiciable pour les journalistes, les défenseurs des droits humains et les personnes issues de groupes minoritaires menacés de discrimination.
Ces technologies peuvent être utilisées pour cibler et surveiller des catégories spécifiques de populations, suivre de près leur comportement et réaliser leur profilage en fonction de leurs caractéristiques ou de leur comportement.
Cela peut avoir un effet dissuasif, empêchant les journalistes de mener leur travail librement et en sécurité, ou décourageant des activistes ou des opposants politiques d’organiser ou de se joindre à des manifestations.
- Le caractère secret du déploiement de ces technologies limite la capacité du public à contrôler la manière dont elles sont utilisées.
Les individus ont le droit de savoir quelles informations sont recueillies à leur sujet et comment elles sont utilisées. Cependant, il n’existe aujourd’hui aucun moyen suffisamment accessible de savoir qui développe ces technologies et comment et pourquoi elles sont déployées.
Les partenariats public-privé et les contrats signés avec les gouvernements sont rarement divulgués. De même, les demandes d’informations sur l’utilisation de ces technologies par le gouvernement sont souvent rejetées. Les informations ne sont généralement divulguées qu’après des recours judiciaires généralement longs et coûteux.
Ces tactiques privent les journalistes, activistes, scientifiques et le public de leur droit à l’information et réduisent leur capacité à examiner et rendre compte de l’utilisation des technologiques biométriques dans la société.
Étude de cas : la reconnaissance faciale
La reconnaissance faciale est une technologie consistant à traiter des images numériques des visages des personnes afin de les identifier, de vérifier leur identité par rapport aux données existantes, ou d’évaluer certaines caractéristiques telles que l’âge, la race, le genre, etc.
Sa capacité à réaliser certaines de ces évaluations avec précision n’a pas été démontrée, mais elle soulève toujours d’importantes préoccupations en matière de droits humains.
Pourquoi devrions-nous nous inquiéter de la reconnaissance faciale ?
La reconnaissance faciale est souvent utilisée à l’insu des usagers ou sans leur consentement. Il y a peu de transparence sur son déploiement et son exactitude. Les données personnelles des individus sont par conséquent susceptibles de faire l’objet d’abus et d’être utilisées à mauvais escient. La reconnaissance faciale peut avoir des impacts significatifs sur la liberté d’expression et d’autres droits tels que :
Le droit à l’anonymat
Les individus ont le droit de préserver leur anonymat dans les espaces publics et en ligne. L’usage généralisé de la reconnaissance faciale dans les espaces publics, par exemple via des caméras de surveillance ou des caméras portatives de policiers, constitue une violation de ce droit et peut empêcher les personnes de se sentir en sécurité quand elles communiquent et s’expriment en public.
Droit de manifester:
Si les individus sont soumis à des technologies de reconnaissance faciale pendant les manifestations, cela peut avoir un effet dissuasif sur leur désir de participer à ces manifestations, par crainte des répercussions éventuelles.
Liberté de religion:
Outre les risques de profilage, des technologies comme la reconnaissance faciale peuvent porter atteinte à la liberté de religion des personnes qui pourraient être contraintes de retirer des signes religieux couvrant leur visage ou leur tête.
Non-discrimination:
La reconnaissance faciale peut distinguer des caractéristiques protégées en vertu du droit international telles que la race, la religion, le sexe et autres, permettant ainsi une discrimination potentielle.
ARTICLE 19 estime que les gouvernements et les entreprises devraient adopter une approche fondée sur les droits humains dans la conception, le développement et l’utilisation des technologies biométriques.
Recommandations
Jusqu’à ce que des garanties claires soient mises en place, il devrait y avoir un moratoire sur le développement et le déploiement des technologies biométriques par les États et les acteurs privés.
Nous demandons:
Les États devraient interdire l’utilisation généralisée et non ciblée des technologies biométriques pour traiter des données biométriques dans des espaces publics et accessibles au public, à la fois en ligne et hors ligne.
Les États devraient également suspendre tous les financements des programmes et systèmes de traitement biométriques qui pourraient contribuer à une surveillance de masse dans les espaces publics.
De par leur conception, les technologies de reconnaissance des émotions sont fondamentalement défectueuses et reposent sur des méthodes discriminatoires contestées par les chercheurs en informatique affective et en psychologie. Elles ne peuvent jamais satisfaire aux critères étroitement définis de légalité, légitimité, nécessité et proportionnalité.
Les États devraient établir des normes internationales interdisant la conception, le développement, le déploiement, la vente, l’exportation et l’importation de ces technologies en raison de leur incompatibilité fondamentale avec les droits humains.
Les États ainsi que les acteurs privés doivent réaliser une évaluation adéquate au cas par cas de la légitimité, proportionnalité et nécessité du recours aux technologies biométriques.
Les États doivent veiller à ce que ni eux ni les acteurs privés n’utilisent les technologies biométriques pour cibler des individus ou des groupes qui jouent un rôle important dans la promotion des valeurs démocratiques, par exemple les journalistes et les activistes.
Pour des utilisations légitimes conformes aux critères de nécessité et proportionnalité, les États doivent élaborer un cadre législatif adéquat pour le développement et le déploiement des technologies biométriques.
Au minimum, ce cadre doit inclure des règles protégeant les données des individus ; des exigences relatives à la qualité des données, dont des tests d’exactitude et sur les préjugés raciaux ; des obligations en matière d’évaluation d’impact sur les droits humains et la protection des données ; des obligations pour les développeurs de minimiser les risques ; un code de pratique contraignant pour les forces de l’ordre ; et des dispositions spécifiques pour éviter une double utilisation ou un glissement de mission avec ces technologies.
Dans la mesure où les technologies biométriques ciblent de plus en plus de multiples processus sociétaux critiques et des valeurs démocratiques, leur conception, leur déploiement et leur développement ne devraient être autorisés qu’à l’issue d’un débat public et ouvert, avec notamment des avis d’experts et de la société civile.
Les États doivent divulguer publiquement toutes les activités et déploiements existants et prévus des technologies biométriques. Ils doivent également assurer la transparence dans les processus de passation des marchés publics, et garantir le droit d’accès à l’information, y compris une publication proactive, sur les activités liées aux technologies biométriques.
Les États et les acteurs privés doivent publier régulièrement leurs évaluations d’impact sur la protection des données et sur les droits humains et leurs rapports d’évaluation des risques, ainsi qu’une description des mesures prises pour atténuer les risques et protéger les droits humains des individus.
Les cadres législatifs pour le développement et le déploiement des technologies biométriques doivent prévoir des structures de redevabilité précises et des mesures de contrôle indépendant.
Les États doivent conditionner la participation du secteur privé aux technologies biométriques utilisées à des fins de surveillance – recherche et développement, marketing, vente, transfert et maintenance – à une diligence raisonnable en matière de droits humains et à un historique de conformité aux normes relatives aux droits humains.
Le cadre législatif doit également garantir un accès à des recours efficaces aux individus dont les droits sont violés par l’utilisation de technologies biométriques.
Les entreprises engagées dans la conception, le développement, la vente, le déploiement et la mise en œuvre des technologies biométriques doivent :
- Garantir la protection et le respect des normes relatives aux droits humains en adoptant une approche centrée sur l’humain et en réalisant des évaluations d’impact sur les droits humains.
- Mettre en place des procédures d’évaluation des risques adéquates et régulières pour identifier les risques pour les droits et libertés des individus, en particulier leur droit à la vie privée et à la liberté d’expression, découlant de l’utilisation des technologies biométriques.
- Fournir des recours efficaces en cas de violation des droits humains des individus.
« Au lieu de mettre la technologie au service des êtres humains ou de concevoir des solutions qui servent à résoudre des problèmes existants, les efforts visant à développer des outils et des produits pour eux-mêmes sont totalement erronés. Quand nous ne nous centrons pas sur les personnes, nous omettons de réfléchir suffisamment aux risques que ces technologies présentent pour les individus ou aux dommages qu’elles peuvent causer. »
Interdire le déploiement de toutes les technologies biométriques jusqu’à la mise en place de protections des droits humains.
Dans l’UE, nous participons à la campagne Reclaim your Face visant à interdire la surveillance biométrique de masse dans les espaces publics.