Abril 2021
Tecnologias biométricas são altamente invasivas, violam a privacidade, falham em proteger dados pessoais adequadamente e impedem que as pessoas exerçam o direito à liberdade de expressão.
No seu mais recente informe, a ARTIGO 19 levanta preocupações sobre o rápido e gradativo uso de tecnologias biométricas pelas autoridades públicas e pelo setor privado.
Governos e empresas crescentemente empregam tecnologias biométricas para mensurar e analisar aparências, comportamentos e expressões das pessoas nas esferas pública e privada. O uso dessas tecnologias varia desde o patrulhamento de fronteiras até o desbloqueio de smartphones, mas uma coisa é nítida: essas ferramentas estão sendo naturalizadas.
Preocupantemente, os direitos humanos individuais e coletivos têm sido quase esquecidos na implementação dessas tecnologias, ainda que devesse ser adotada uma abordagem baseada nos direitos humanos para concepção, projeto, desenvolvimento e implementação de tecnologias biométricas
O uso indevido e o abuso das tecnologias biométricas resultam em caracterização e categorização das pessoas com base em idade, sexo e cor da pele, por exemplo. Em outras palavras, tecnologias biométricas podem ser usadas de maneiras fundamentalmente discriminatórias frente a grupos marginalizados, vítimas de preconceitos estruturais, sub-representados ou historicamente desfavorecidos.
Isso é particularmente problemático em contextos nos quais o controle público de corpos se mostra tendencioso e desigual. No caso brasileiro, o fato de 75% dos mortos pela Polícia serem negros (2020), que a proporção de negros detidos no sistema prisional aumentou 14% em 15 anos enquanto a de brancos caiu 19% (2020) e que negros são mais frequentemente condenados do que brancos por porte de drogas, mesmo em menor quantidade, mostra que sistemas biométricos podem intensificar preconceitos e práticas discriminatórias já presente nas sociedades.
De maneira similar, as tecnologias biométricas podem ser utilizadas para controlar o que as pessoas estão fazendo e com quem o fazem, como elas estão se sentindo e até mesmo como provavelmente se comportarão no futuro. Trata-se de práticas profundamente invasivas.
Como resultado, o uso dessas tecnologias viola os direitos à privacidade e à proteção de dados, à dignidade humana, à não discriminação, à autodeterminação, o direito de acesso a uma reparação adequada e de usufruto do espaço público.
A ARTIGO 19, portanto, exige uma moratória para o desenvolvimento e o uso de todas essas tecnologias até que salvaguardas essenciais aos direitos humanos estejam em vigor.
Também demandamos a proibição completa da vigilância biométrica em massa em espaços públicos, a proibição total das tecnologias de reconhecimento de emoções e uma maior proteção dos direitos humanos na concepção, no projeto, no desenvolvimento e no uso de tecnologias biométricas.
Proibir a implantação de todas as tecnologias biométricas até que salvaguardas essenciais dos direitos humanos estejam em vigor
Tecnologia biométrica: Perguntas e Respostas
As tecnologias biométricas são usadas para coletar e analisar dados pessoais que podem permitir a identificação de uma pessoa por suas características únicas. Isso inclui DNA, impressões digitais, padrões de voz ou frequência cardíaca.
Uma das formas mais conhecidas de tecnologia biométrica é o reconhecimento facial.
Devido à crescente disponibilidade de bases de dados gigantescas, bem como os custos mais baixos e o aprimoramento do machine learning, isto é, do aprendizado de máquina, o desenvolvimento e implementação de tecnologias biométricas aumentou rapidamente. Esse processo foi acelerado por um modelo de resposta à pandemia da COVID-19 com base em soluções tecnológicas. Além disso, o mercado para tecnologias biométricas cresce intensamente no mundo todo. A América Latina foi o mercado que mais cresceu até 2014 e é esperado que o mercado global supere os 52 bilhões de dólares até 2023. Bancos, finanças, governos e desenvolvedores de aparelhos de consumo pessoal são os principais agentes da implementação e do uso das tecnologias, o que pressiona a sociedade para sua aplicação.
Os governos e o setor privado muitas vezes justificam o uso de tecnologias biométricas com duas narrativas:
- A primeira é a defesa nacional e a segurança pública, com objetivos de combate ao terrorismo, prevenção de crimes, vigilância e controle;
- A segunda é que autoridades públicas ou empresas podem usar tais tecnologias para fornecer serviços públicos, como o desenvolvimento das “cidades inteligentes” ou de sistemas de transporte público.
As alegações de que as tecnologias biométricas aumentariam a segurança, reduziriam a criminalidade, diminuiriam os custos ou proporcionariam maior comodidade não são comprovadas.
Além disso, estas reivindicações não consideram o impacto para os direitos humanos dos indivíduos. As pessoas não devem ser obrigadas a abrir mão da sua privacidade e segurança em troca de aperfeiçoamento em segurança ou por conveniência.
Da mesma maneira, os Estados não podem abdicar de suas responsabilidades de respeitar normas internacionais de direitos humanos e os princípios da legitimidade, necessidade e proporcionalidade quando implementam um sistema biométrico.
Estados e atores privados usam constantemente as tecnologias biométricas para coletar e gerar imensas quantidades de dados pessoais sensíveis como impressões digitais, padrões de retina e da íris, origem étnico-racial, sexo, entre outros.
Como esses dados podem revelar informações íntimas sobre uma pessoa, são necessárias salvaguardas adicionais e proteção ampliada para mantê-los – e, como consequência, as pessoas – em segurança.
No entanto, agentes públicos e privados geralmente armazenam esses dados em bases gigantescas, frequentemente por muito mais tempo do que é necessário, o que gera sérias preocupações a respeito da privacidade dos indivíduos e do poder de autonomia que as pessoas e países têm sobre essas bases. No caso de países do Sul Global, em função de sua defasagem tecnológica e infraestrutural, este ponto é ainda mais sensível, com o risco de perda de independência e soberania sobre dados e informações de seus cidadãos e cidadãs.
Isso se dá porque o Estado e o setor privado podem facilmente reutilizar os dados para um propósito diferente do originalmente previsto ou para o qual eles não foram autorizados. Isso levanta a questão do potencial de expansão da aplicação dessas tecnologias para a coleta de dados e/ou para executar funções que não haviam sido originalmente planejadas, o que se relaciona ao que se chama de mission creep, além do fato que essas tecnologias estão vulneráveis a enormes falhas de segurança e propícias a abusos.
Legalmente, quando as pessoas consentem que seus dados biométricos sejam utilizados para um determinado fim, esse consentimento não se transfere se houver alteração desse propósito. Caso isso ocorra, a utilização dos dados biométricos coletados anteriormente passa a ser ilegal.
Além disso, há inexistência ou insuficiência de marcos legais para regulamentar o uso de tecnologias biométricas. A Lei Geral de Proteção de Dados – LGPD foi aprovada no Brasil em 2018 e classifica os dados biométricos como dados pessoais sensíveis, sendo esta última categoria objeto de especial proteção pela lei. Adicionalmente, é importante destacar que o tratamento de dados no âmbito da segurança pública, defesa nacional, segurança do Estado e atividades de investigação e repressão de infrações penais não é regulamentado pela LGPD, que determina que essas hipóteses deverão ser regulamentadas por lei específica.
Os Estados e o setor privado não realizam avaliações de risco ou de impacto e normalmente desconsideram os princípios de necessidade e proporcionalidade, centrais para a proteção dos direitos à liberdade de expressão e à privacidade. Para atender a essa exigência, qualquer tecnologia deve representar a única forma de alcançar o suposto objetivo legítimo e ser a forma menos invasiva de fazê-lo – ocorre que, muitas vezes, não é esse o caso.
Como resultado, as tecnologias biométricas podem ser usadas indevida e abusivamente para reforçar preconceitos e discriminação.
A ARTIGO 19 se preocupa principalmente com três pontos:
2. A vigilância biométrica em massa tem um efeito inibidor na liberdade de expressão.
A vigilância em massa é a vigilância indiscriminada do público sem um alvo específico – por exemplo, o uso da tecnologia de reconhecimento facial em câmeras instaladas em metrôs, shoppings e ruas.
Se as tecnologias de reconhecimento facial forem utilizadas para identificar indivíduos em espaços públicos, isso afeta a capacidade desses e de outros indivíduos de permanecerem anônimos e de se comunicarem anonimamente nesses espaços.
Isso tem mostrado impacto no comportamento das pessoas, por exemplo, desencorajando que elas participem de reuniões públicas ou expressem suas idéias ou crenças religiosas em público.
2. Esse efeito inibidor é mais acentuado em jornalistas, ativistas, políticos de oposição e grupos marginalizados.
O uso dessas tecnologias pode ser particularmente prejudicial para jornalistas, defensores dos direitos humanos e pessoas que pertencem a grupos marginalizados, que sofrem maior risco de discriminação.
As tecnologias podem ser usadas para identificar e monitorar categorias específicas de pessoas, rastrear seu comportamento e traçar seu perfil com base em suas características ou comportamento.
Isso pode ter um efeito inibidor, impedindo que jornalistas trabalhem com liberdade e segurança ou desencorajando ativistas e opositores políticos de se organizarem ou aderirem a protestos.
3. O sigilo em torno da implementação dessas tecnologias limita a capacidade do público de analisar a forma como são utilizadas.
As pessoas têm o direito de saber quais informações estão sendo coletadas sobre elas e como estas estão sendo utilizadas. No entanto, atualmente não existe uma maneira suficientemente acessível de descobrir quem está desenvolvendo essas tecnologias, como e por que elas estão sendo implementadas.
Detalhes sobre parcerias público-privadas e contratos com governos muitas vezes não são divulgados. Da mesma forma, o acesso à informação sobre o uso dessas tecnologias pelo governo encontra frequentes dificuldades. As informações podem só ser divulgadas após a interposição de recursos judiciais, que normalmente são demorados e custosos. Nesse contexto, vale mencionar que, em 2020, um grupo de entidades tentou obter por via judicial explicações a respeito de um projeto que envolvia reconhecimento facial a ser implementado no metrô de São Paulo. No ano anterior, entidades provocaram o Judiciário paraguaio diante de negativas de acesso a informações sobre a vigilância por meio de câmeras com tecnologia biométrica implementada pelo governo no país.
Essas táticas negam a jornalistas, ativistas, cientistas e ao público o direito à informação e reduzem suas capacidades de analisar e de se manifestar sobre o uso de tecnologias biométricas na sociedade.
Estudo de caso: reconhecimento facial
A tecnologia de reconhecimento facial envolve o processamento de imagens digitais dos rostos das pessoas para identificá-las e verificar sua identidade em relação a dados biométricos já existentes, ou ainda aferir certas características como idade, raça, gênero etc. A capacidade das tecnologias biométricas em realizar essas análises com precisão não está comprovada, além de levantar preocupações significativas em relação aos direitos humanos. Em relação ao contexto brasileiro, é especialmente preocupante que esse tipo de mecanismo potencialize a reprodução de discriminações relacionadas à raça, classe e gênero, especialmente em casos de violações e repressões conduzidas por forças de segurança pública e agentes privados. Por que deveríamos nos preocupar com o reconhecimento facial? O reconhecimento facial é frequentemente utilizado sem o conhecimento ou consentimento das pessoas. Há pouca transparência sobre a implementação e precisão desses mecanismos, deixando dados pessoais vulneráveis a abusos e usos indevidos. Tal tecnologia pode ter impactos significativos na liberdade de expressão e outros direitos, como: Direito ao anonimato: As pessoas têm direito ao anonimato em espaços públicos e virtuais. O uso indiscriminado do reconhecimento facial em espaços públicos – por exemplo, por meio de câmeras nas ruas ou nos uniformes de policiais – é uma violação desse direito e pode impedir que as pessoas se sintam seguras para se comunicarem e se expressarem em público. Direito de protesto: Se as pessoas estiverem sujeitas às tecnologias de reconhecimento facial em protestos, isso pode ter um efeito inibidor em seu desejo de fazer parte desse tipo de manifestação, temendo repercussões. Liberdade religiosa: Além dos riscos do perfilamento, tecnologias como as de reconhecimento facial podem ferir a liberdade religiosa de pessoas quando elas são obrigadas a remover adereços ou itens religiosos que sejam usados no rosto ou na cabeça. Não discriminação: O reconhecimento facial pode especificar características protegidas por parâmetros internacionais, como raça/etnia, religião e sexo, dentre outras, possibilitando potenciais discriminações. |
A ARTIGO 19 acredita que governos e empresas devem adotar uma abordagem baseada nos direitos humanos durante a concepção, o projeto, o desenvolvimento e a implementação de tecnologias biométricas.
Recomendações
Até que haja salvaguardas explícitas em vigor, deve haver uma moratória sobre o desenvolvimento e a implementação de tecnologias biométricas, tanto pelos Estados como pelo setor privado.
Nós requeremos:
Os Estados devem proibir o uso indiscriminado e não direcionado de tecnologias biométricas para processar dados biométricos em espaços públicos e de acesso público, tanto offline como online.
Os Estados também deveriam interromper todo financiamento de programas e sistemas de processamento biométrico que possam contribuir para a vigilância em massa nos espaços públicos e privados, quando acessados pelo público em geral.
Por princípio, as tecnologias de reconhecimento de emoções são fundamentalmente falhas e baseiam-se em métodos discriminatórios contestados por pesquisadores dos campos da computação afetiva e da psicologia. Elas nunca conseguem cumprir os testes estritamente definidos de necessidade, proporcionalidade, legalidade e legitimidade.
Os Estados devem estabelecer normas internacionais que proíbam a concepção, o projeto, o desenvolvimento, a implementação, a venda, a exportação e a importação dessas tecnologias, reconhecendo sua inconsistência fundamental com os direitos humanos.
Tanto os Estados como o setor privado devem realizar uma avaliação caso a caso adequada de legitimidade, proporcionalidade e necessidade no uso de tecnologias biométricas.
Os Estados devem garantir que tanto eles quanto o setor privado jamais usem tecnologias biométricas tendo como alvo indivíduos ou grupos que desempenham papéis significativos na promoção dos valores democráticos (por exemplo, jornalistas e ativistas).
Nos usos legítimos que atendam ao teste de necessidade e proporcionalidade, os Estados devem estabelecer um marco legislativo adequado para o desenvolvimento e a implementação de tecnologias biométricas.
No mínimo, a legislação deve incluir regras de proteção de dados pessoais; requisitos relativos à qualidade dos dados, incluindo testes de precisão e de vieses raciais; obrigações para avaliações de impacto aos direitos humanos e proteção de dados; obrigações para desenvolvedores e usuários visando a minimização de riscos; um código de conduta vinculante para os órgãos cujo papel é fazer cumprir a lei; e disposições específicas para evitar uso para mais de uma finalidade, usos diferentes daqueles originalmente declarados e/ou a expansão dos objetivos iniciais no uso de tais tecnologias.
Como o uso de tecnologias biométricas atinge cada vez mais diversos processos sociais fundamentais e valores democráticos, sua concepção, projeto, implementação e desenvolvimento só devem ser permitidos após um debate público e aberto, incluindo vozes de especialistas e da sociedade civil.
Os Estados devem divulgar publicamente todas as atividades existentes e planejadas e os usos de tecnologias biométricas. Também devem assegurar a transparência nos processos de compras públicas e garantir o direito de acesso à informação, incluindo a transparência ativa, sobre atividades relacionadas a essas ferramentas.
Os setores público e privado devem publicar regularmente suas avaliações de impacto sobre a proteção de dados, avaliações de impacto sobre os direitos humanos e relatórios de avaliação de risco, juntamente com uma descrição das medidas tomadas para mitigar os riscos e proteger os direitos humanos das cidadãs e cidadãos.
Os marcos legislativos para o desenvolvimento e implementação de tecnologias biométricas devem prever estruturas claras de responsabilização, prestação de contas, obrigações públicas relativas à transparência e medidas de auditoria independentes.
Os Estados devem condicionar a participação do setor privado nas tecnologias biométricas utilizadas para fins de vigilância – desde a pesquisa e desenvolvimento até a comercialização, a venda, a transferência e a manutenção – à devida diligência e a um histórico de cumprimento das normas de direitos humanos.
O marco legislativo também deve assegurar o acesso a reparações adequadas para grupos e indivíduos cujos direitos forem violados pelo uso de tecnologias biométricas.
As empresas envolvidas na concepção, no projeto, no desenvolvimento, na venda, no uso e na implementação de tecnologias biométricas devem:
- Garantir a proteção e o respeito aos padrões de direitos humanos, adotando uma abordagem centrada nas pessoas e realizando avaliações de impacto nos direitos humanos;
- Estabelecer procedimentos adequados e contínuos de avaliação de riscos para identificar as ameaças aos direitos e liberdades individuais, em particular o direito à privacidade e à liberdade de expressão, decorrentes do uso de tecnologias biométricas;
- Fornecer reparações adequadas e eficazes em caso de violação dos direitos humanos das pessoas.
“Em vez de colocar a tecnologia a serviço do ser humano ou de projetar soluções que de fato resolvam os problemas existentes, a pressão em desenvolver ferramentas e produtos justificadas em si mesmas é fundamentalmente falha. Se não estamos centrados nas pessoas, não refletimos suficientemente sobre os riscos que estas tecnologias representam para elas ou os danos que podem causar”
Proibição da implementação de todas as tecnologias biométricas até que salvaguardas essenciais dos direitos humanos estejam em vigor.
Na União Europeia, somos parte da campanha “Reclaim your Face” para banir vigilância biométrica em massa nos espaços públicos
Na América do Sul, por meio do escritório sediado no Brasil, fomos uma das organizações que apresentaram ação judicial contra o metrô de São Paulo, questionando a implementação de tecnologias de reconhecimento facial em suas dependências. Também acompanhamos de perto a ação judicial relacionada à obtenção de informações sobre vigilância por reconhecimento facial conduzida pelo governo no Paraguai.