Aliado na segurança, reconhecimento facial abre debate sobre riscos de falhas e sigilo de dados

 


Apresentadas por governos estaduais como importantes ferramentas de apoio na segurança pública, as tecnologias de reconhecimento facial espalham-se por ruas de grandes capitais, aplicativos, estádios de futebol, prédios e condomínios, com aplicações que vão da vigilância à verificação de identidades. Nas últimas semanas, casos como as prisões, na Bahia, do empresário paulista Sérgio Nahas, foragido pelo assassinato da mulher em 2002, e da irmã do prefeito de São Paulo, Ricardo Nunes, redobraram o foco nesse tipo de ferramenta.

Instaladas em lugares públicos, as câmeras com capacidade de reconhecer rostos podem ajudar na localização de pessoas desaparecidas. Em bancos, servem para dar segurança ao próprio usuário, garantindo a confiabilidade do sistema e criando mais uma etapa para dificultar fraudes. No entanto, a principal e mais controversa aplicação se dá mesmo no campo da segurança. No momento, existem em todo o país 506 projetos com reconhecimento facial, pondo sob vigilância 87 milhões de brasileiros. Os dados são do Panóptico, monitor de novas tecnologias vinculado ao Centro de Estudos de Segurança e Cidadania (CESeC), da Universidade Candido Mendes.

Professor da Fundação Getúlio Vargas (FGV) e especialista em Direito Digital, Filipe Medon alerta que a tecnologia ainda está se aperfeiçoando e, portanto, apresenta falhas decisivas e perigosas, que podem afetar sobretudo grupos historicamente vulneráveis. Ele se refere a casos nos quais as câmeras “erram”, levando, por exemplo, à prisão de pessoas confundidas com foragidos da Justiça.

Segundo pesquisadores, uma série de fatores faz com que pessoas negras tenham mais chance de serem vítimas dos chamados falsos positivos. Entre eles, está a natureza dos bancos de imagens com os quais os algoritmos são treinados — que podem não ser condizentes com a diversidade brasileira e reunir poucos rostos não brancos — e a menor eficiência das câmeras em captar tons de pele mais escuros, que refletem menos a luz.

“É preciso um número gigantesco de faces (para treinar a tecnologia). E nem sempre eles são facilmente encontrados com rostos diversos, o que aumenta o viés. Há ainda o tipo de câmera e onde elas são instaladas. Quando colocadas em ambientes que não recebem muita luz, têm viés maior”, detalha o pesquisador e cientista político Pablo Nunes, à frente do Panóptico.

Nunes destaca que o aspecto humano é outro elemento que tem peso na incidência de falsos positivos. Como os sistemas funcionam indicando o grau de semelhança, o pesquisador avalia ser necessária a existência de um protocolo rígido.

“Na Bahia, por exemplo, encontramos casos de pessoas sendo presas com nível de semelhança de 70%, e outras com 98%”, exemplifica ele, frisando ser contrário ao uso da tecnologia. “São muito caras para um resultado pífio, mesmo quando atreladas a um sistema bem desenhado.”

Em agosto, o CESeC divulgou um estudo sobre o Smart Sampa, programa que é vitrine do prefeito Ricardo Nunes em São Paulo na área de segurança pública, no qual se concluiu que o sistema de vigilância não reduziu os índices de criminalidade na capital. Além da ausência de queda significativa em furtos, roubos ou homicídios, os pesquisadores não identificaram um aumento no número de prisões em flagrante ou cumprimento de mandados judiciais.

Na época, a Prefeitura de São Paulo contestou os resultados e criticou a metodologia empregada. A gestão defendeu o sistema, que diz alcançar uma assertividade de 99,5% e conta com 31 mil câmeras espalhadas pela cidade. Segundo a gestão, mais de 2,9 mil pessoas foram presas em flagrante e outros 1,5 mil foragidos acabaram capturados com apoio da tecnologia.

Fora da seara da segurança pública, o reconhecimento facial também se espraiou. Prédios residenciais e comerciais passaram a dispensar senhas, crachás e chaves para substituí-los pelas faces de seus frequentadores e moradores. A tecnologia também aparece em aplicativos de namoro, como um mecanismo para garantir aos usuários que aquela pessoa do outro lado da tela é quem diz ser. Nos serviços públicos, traz facilidades como na prova de vida do INSS, que passou a poder ser feitas via aplicativo.

O Instituto de Defesa do Consumidor (Idec) aponta, contudo, que determinados grupos enfrentam dificuldades com a biometria facial. Enquanto idosos podem precisar de ajuda de parentes mais novos para lidar com a tecnologia, outros recortes, como pessoas negras, indígenas e trans, narram episódios nos quais não têm o rosto reconhecido pelos aparelhos.

“Quando sistemas como o gov.br, que atende toda a população, trazem uma tecnologia que apresenta falhas, é preciso pensar em outras maneiras de garantir o acesso a serviço público de forma ideal”, diz Julia Abad, do Programa de Telecomunicações e Direitos Digitais do Idec.

Os problemas afetam também pessoas com deficiência (PCDs), como crianças autistas, que, por conta do comportamento agitado que acompanha o transtorno, têm dificuldade em realizar a validação. Desde que o uso da tecnologia se alastrou, queixas de pais de pacientes têm ido parar nos Procons estaduais e na Justiça. A decisão mais recente sobre o tema partiu da Vara de Interesses Difusos e Coletivos de São Luís (MA) no dia 21 de janeiro, que proibiu um plano de saúde de exigir que a biometria facial fosse coletada a cada 30 minutos de pacientes com Transtorno do Espectro Autista (TEA).

Quando bem-sucedida, a biometria facial gera um conjunto de informações classificadas como dado pessoal sensível pela Lei Geral de Proteção de Dados (LGPD), o que implica um grau maior de proteção conferido pela legislação. Apesar disso, especialistas destacam que, tanto no âmbito público quanto no privado, nota-se uma falta de transparência quanto a coleta, armazenamento e destino conferido a esses dados, o que, aliado a um vácuo de regulamentação, cria um cenário propício a risco de vazamentos.

“No Brasil, a gente banaliza o reconhecimento facial por não termos uma cultura consolidada de proteção de dados. As pessoas não reconhecem os dados biométricos com a importância que eles deveriam ter, considerando o potencial de risco de serem usados em crimes”, pontua Filipe Medon.

Medon afirma que, no caso dos condomínios, o ideal seria não obrigar moradores e frequentadores a cederem seus dados biométricos, garantindo a eles o direito de acessar o espaço de formas menos invasivas. O tempo em que esses dados ficam armazenados também deveria ser avaliado.

“Não é razoável esperar que os dados pessoais de um encanador, que vai lá prestar um serviço, fiquem guardados permanentemente. Deve existir um descarte. A manutenção por tempo maior do que o necessário não é proporcional”, opina o professor. As informações são do jornal O Globo.

Fonte: Jornal O Sul