Por Luiza F. Martins – 30/11/2023
Conheça os sombrios impactos do reconhecimento facial, as complexidades desse sistema intrusivo e suas implicações para as liberdades civis
O filme Coded Bias investiga o viés racista no algoritmo de reconhecimento de face l Crédito: Reprodução/Netflix
No dia 24 de setembro, a TV Globo divulgou imagens onde pessoas recrutadas pelo tráfico aparecem fazendo treinamento militar no Complexo da Maré, no Rio de Janeiro, em meio a espaços públicos da comunidade como escolas e creches. Em resposta, o governador Cláudio Castro iniciou uma megaoperação na favela da Maré, zona norte do Rio, sem prazo definido para acabar e em parceria com a Força Nacional. Um dos principais objetivos da operação, além de bloqueios de entrada pela Força Nacional por tempo indeterminado, é o uso de drone e a instalação de câmeras de reconhecimento facial em toda a comunidade.
Você provavelmente já ouviu falar de reconhecimento facial, já que essa tecnologia tem se tornado cada dia mais comum no dia a dia das pessoas ao redor mundo e mais recentemente aqui no Brasil. Mas você sabe de fato o que isso representa e por que ela tem sido largamente utilizada na segurança pública?
Quem nos ajuda a entender o que são essas tecnologias e para que elas são usadas é Horrara Moreira, educadora popular, pesquisadora, advogada e atual coordenadora da campanha Tire meu Rosto da Sua Mira, um dos principais movimentos da sociedade civil pelo banimento das tecnologias de reconhecimento social das forças de segurança pública do Brasil.
“As tecnologias de reconhecimento facial funcionam através de algoritmos. Algoritmos são regras matemáticas para processamento de dados e informações. Mas tem um propósito definido. São criadas por seres humanos. Então esses algoritmos vão identificar pontos no nosso rosto como o espaço entre os olhos, o tamanho do nariz, da boca, do seio face, isso tudo vai ser convertido em número e à essa medida da nossa face é dado o nome de biometria facial”, diz.
Segundo Horrara, existem alguns tipos de aplicações mais usuais para esse tipo de tecnologia: a comparação humano/objeto, que vai definir o que é uma pessoa e o que é um objeto, leitura de emoções, utilizada geralmente em contextos de pesquisa de mercado relacionada a publicidade e propaganda e a satisfação dos usuários, a leitura biométrica para confirmação de dados como visto nos aparelhos telefônicos para acesso à aplicativos e o uso comparativo na segurança pública.
“O reconhecimento facial vai coletar a biometria e com outro banco de dados de referência, ele vai pegar essa biometria e dizer o quanto uma pessoa se parece com alguém naquele banco de dados onde está sendo procurado, e aí mora o perigo: é onde nossos direitos começam a ser violados”, aponta.
A pesquisadora afirma que tecnologias como esta são capazes de nos identificar, nos classificar, classificar o nosso comportamento, e dizer se o que estamos fazendo é algo suspeito ou não. Além disso, elas também são programadas para coletar dados de vigilância e identificar onde estivemos, onde passamos e o que estivemos fazendo, tornando-se capaz de criminalizar nossos corpos e nossas práticas.
Sabemos que os sistemas de reconhecimento facial são alimentados por imagens. E quem alimenta esse banco de imagens? Bem, se você pensou que só o Estado é capaz disso, está apenas na metade do caminho do problema. Essas imagens podem ser cedidas por particulares, empresas, condomínios, entre outros.
“Toda a cidade, todo esse aparato de vigilância vai compor esse sistema de reconhecimento facial em prol da segurança pública. E aí a gente vai sempre questionar: segurança pra quem? Pra que? Quem é o inimigo? De quem que a gente tem que se defender?”, questiona Horrara.
Quais direitos estão sendo violados através do uso reconhecimento facial?
Para Moreira, a nossa liberdade de expressão e associação é facilmente comprometida com o uso da tecnologia. No Brasil, não são raros os casos de criminalização do ativismo e da atividade política de oposição minoritária, como o que aconteceu em Alter do Chão. Até o protesto, enquanto exercício da própria democracia, está sujeito a violações com o uso de sistemas de reconhecimento facial.
“Como que você vai fazer um protesto? Como é que você vai reunir um grupo de pessoas mesmo que seja em praça pública? Se toda a sua atividade política, a sua identidade está exposta ali”, contesta.
Ela ainda aponta a discriminação de gênero e de raça como pontos urgência na discussão, como investiga o pesquisador Tarzício Silva em seu livro que cunha o racismo algorítimico presente em mecanismos como o reconhecimento facial, filtros para selfies, moderação de conteúdo, chatbots, policiamento preditivo, escore de crédito, entre outros.
Um estudo realizado pela Rede de Observatórios de Segurança em 2019 corrobora com o apontamento: 90,5% dos presos por monitoramento facial no Brasil são pessoas negras.
Para além das consequências dos algoritmos que reforçam o preconceito e a discriminação, o próprio mercado se encaminha da aprimoração e da precisão das tecnologias a todo o tempo, inclusive para que “não tenhamos mais argumentos para dizer que essas tecnologias são danosas para diversos grupos de pessoas”. Ainda segundo Moreira, é o aumento dessa precisão que vai expandir o superencarceramento da população jovem, da população negra e periférica no Brasil.
“Uma vez que o seu rosto e sua biometria facial são capturados, eles também podem ser combinados com outros dados e outras informações que o governo já tem sobre você através de outros cadastros: onde você mora, o que você faz, o quanto você ganha, qual é a sua cor, dados de saúde, dados de mobilidade, tudo isso pode ser combinado gerando um painel de controle muito sofisticado que vai ser utilizado pelo estado”, alerta.
Toda a combinação dessas potenciais violações lançam luz sobre a necessidade de banimento das tecnologias de reconhecimento facial.
Sistema de reconhecimento facial na Serrinha l Crédito: Divulgação/Goiás
Histórico tecnoautoristarista brasileiro
No Brasil, o autoritarismo é atemporal, e embora marcado pelo período ditatorial, persegue movimentos sociais muito antes da ditadura militar, utilizando das tecnologias para vigiar e desarticular organizações de esquerda e outros movimentos, bem como para criminalizá-los.
Tecnoautoritarismo é um termo cunhado pelo projeto “Defendendo o Brasil do Tecnoautoritarismo”, do DataPrivacy Brasil, e ilustra esse cenário de ampliação do poder estatal para o fortalecimento das capacidades de vigilância e supervisão da população, muitas vezes à custa da violação de direitos fundamentais. Para Horrara, as tecnologias de reconhecimento facial seguem a mesma lógica, apenas potencializando práticas de governos autoritários.
“Tem uma capacidade, uma habilidade dessas tecnologias que chamam de trekking, que é justamente conseguir traçar um perfil de onde você passou. Uma linha do tempo de onde você esteve, com quem você esteve, o que você disse”, diz.
Por isso mesmo, ativistas de direitos humanos integram os grupos mais vulneráveis às essas tecnologias, suas falhas e seus algoritmos racistas, seja ao realizar protestos, encontros, reuniões “ou até mesmo criticar um governo que tenha a mão uma tecnologia como esta”.
O dossiê antifascista, produzido pela Secretaria de Operações Integradas (Seopi) do Ministério da Justiça do governo Bolsonaro, é um exemplo dessa perseguição em curso, e que utilizou das bases de dados que são cruzadas dentro do reconhecimento facial através de osintes, tecnologias que buscam informações de fontes abertas disponíveis na internet, onde pelo menos 579 servidores que se alinhavam ao movimento antifascista e contra o governo à época, tiveram os seus nomes, seus endereços e dados pessoais organizados em um grande dossiê, implementando-se a partir disso uma perseguição à esses servidores, lembra Moreira.
Posteriormente o dossiê foi barrado pelo entendimento do Supremo Tribunal Federal de que ali se conformava um claro desvio de finalidade da máquina pública para a produção e o compartilhamento de informações pessoais de servidores, afrontando o direito fundamental da livre manifestação de pensamento e de associação.
Reconhecimento facial nas escolas: tecnologia educacional ou boicote à juventude e educadores?
“Eu desafio um professor a dizer no que o reconhecimento facial auxilia na prática pedagógica ou melhora na vida da comunidade escolar”, questiona a educadora.
Em março deste ano, o Internetlab identificou em um relatório pelo menos 15 escolas públicas que utilizam a tecnologia de reconhecimento facial em todo o Brasil. Grande parte das inovações em tecnologia digital aplicadas à segurança surgem aliadas ao discurso da inovação, em respostas aos acontecimentos que são vivenciados em espaços públicos. Recentemente, as escolas brasileiras têm enfrentado uma onda de violência sem igual, com um aumento aterrorizante de ataques armados promovidos contras essas instituições – prática de grupos de extrema-direita que circulam sem muito controle na Internet – e a aplicação do reconhecimento facial se dá nesse contexto. No entanto, “o reconhecimento facial é uma tecnologia que vai ser utilizada posteriormente para fins de identificação”, como alegam argumentos favoráveis à sua aplicação, “o que é possível ser feito através de outros meios”, afirma Moreira.
Outro argumento é a validação da entrada de pessoas dentro das escolas, sendo utilizado inclusive para controle de frequência dos alunos.
“É uma tecnologia extremamente cara, que erra muito e que tem todos esses vieses de coleta de dados que vão estar sob guarda do poder público, sendo usada para controlar frequência. Não existe ainda uma pesquisa sobre a destinação desses dados de crianças e adolescentes ”, diz.
Carecem ainda pesquisas sobre a destinação dos dados de crianças e adolescentes no contexto escolar. Para a pesquisadora, existem muitas perguntas a serem feitas sobre o tratamento de dados nesse cenário, e todas apontam para uma criminalização da juventude.
Para ela, os argumentos que o poder público traz não se sustentam:
“Já tem dados também que mostram que só as públicas implementam, as escolas particulares não entendem isso como uma alternativa boa ou como um ganho pro ambiente escolar”, lança outro alerta.
Enquanto faltam pesquisas, os relatos de perseguição aos professores através da biometria facial é que tendem a se tornar mais comuns com o avanço das tecnologias nas escolas.
“No sul existem relatos de professores que estão sendo vigiados, está sendo feito um controle ideológico daquilo que o professor pode ou não apresentar dentro de sala de aula. Existem louças mágicas, quadros digitais interativos equipados com câmeras de reconhecimento facial, que fazem a leitura das emoções dos alunos a partir do conteúdo que o professor apresenta, e que criam um score de como a criança reage àquilo ali que foi apresentado”, diz.
Para Horrara, a extensão do problema é a perseguição ao professor que ousar ensinar sobre gênero e sexualidade dentro das escolas, inevitável nesse contexto de utilização do reconhecimento facial como uma tecnologia educacional.
Banir de vez o reconhecimento facial é possível?
No mundo inteiro, o movimento contra a utilização de sistemas de reconhecimento facial tem lutado pelo banimento da tecnologia na segurança pública. Nos Estados Unidos, a Câmara Municipal de Minneapolis, no estado norte-americano de Minnesota, epicentro dos protestos contra o racismo no país depois que George Floyd foi assassinado brutalmente por um policial em 2020, baniu por unanimidade o uso de software de reconhecimento facial pela polícia no ano seguinte.
“Existem também relatórios da Inteligência norte-americana, que declarou utilizar o reconhecimento social contra manifestantes do movimento Black Lives Matter”, comenta.
Cinco anos antes, a tecnologia já tinha sido utilizada para rastrear e prender os manifestantes de outro estado norte-americano, que reagiram ao assassinato de Freddie Gray, sob custódia policial.
Para Horrara, é importante destacar não só o banimento da tecnologia como resultado da luta em muitos lugares, mas também como no próprio processo de luta, ela foi utilizada contra ativistas.
“Também em Buenos Aires, na Argentina, a Corte julgou que o sistema era anticonstitucional e a polícia foi obrigada também a destruir todos os bancos de dados dessa vigilância massiva. Então a argumentação do controle da cidade não se sustentou diante das violações que foram identificadas”, diz.
No Brasil a questão é um pouco mais complexa já que a matéria de segurança pública, de acordo com a Constituição Federal, é separada por competências sobre aquilo que pode ser legislado e executado pela União e pelos Estados. A responsabilidade pela segurança pública é dos Estados, consequentemente estão no controle das polícias: “a gente tem vinte e seis estados e o Distrito Federal, esse é o tamanho do nosso desafio”.
“Pra além disso, as tecnologias de reconhecimento facial na segurança pública também têm sido utilizadas pelas prefeituras, pelas guardas municipais, pelos grandes centros de comando e controle. Aí temos um debate também sobre a técnica legislativa, sobre até onde vai a competência de um ente. E aí, quem vai comprar essa briga?”, questiona.
No último ano, a proteção de dados pessoais se tornou um direito fundamental, previsto pelo artigo 5° da Constituição Federal como um direito de todo cidadão brasileiro.
Para Moreira e outros ativistas defendem firmemente a federalização do debate da proteção de dados a partir de uma visão estratégica de banimento, pois levar a discussão e a regulação para dentro da Câmara dos Deputados e do Senado Federal acende outros alertas.
“A gente tem ali a construção do Senado e da Câmara cada vez mais reacionária, cada vez mais fascista, e cada vez mais complicado pra pautas de direitos humanos avançarem, então não pode ser um tiro no pé do movimento, porque se a gente legaliza os usos, que tipo de argumento a gente vai ter pra combater as prisões? Se está tudo dentro do verniz da legalidade?”, diz.
Há quem acredite que o movimento pelo banimento do reconhecimento facial está radicalizando o debate, mas a ativista rebate:
“Não tem um meio termo, é necessário ser radical, não existe um uso possível ou um uso seguro desta tecnologia. A gente está falando sobre dados pessoais de milhões de pessoas. É um ideal radical à nossa liberdade também, como a abolição da escravatura já foi algo radical e a gente não deixou de optar por ele”, finaliza.