SmartSampa: o reconhecimento facial em uma sociedade tão diversa como a nossa

Por Antonielle Freitas e Jessica Fernandes Rocha* – Edital da prefeitura de São Paulo prevê a implantação de sistema de monitoramento por câmeras que identifica cor e comportamento intitulado como ‘vadiagem’. Inspirado em exemplos de cidades como Nova York, Chicago e Dallas, o projeto, chamado de SmartSampa, visa unificar a administração da cidade, integrando os sistemas de serviços como a CET, SAMU, Guarda Municipal e Defesa Civil, e atuar em tempo real. Estima-se que sejam instaladas 20 mil câmeras até 2024, sob um aporte de recursos públicos no valor estimado de 70 milhões de reais por ano.

O SmartSampa projeta a leitura automática de placas de veículos e o monitoramento de movimentos e atividades de indivíduos suspeitos, identificando características como cor, face, dentre outras, contudo, a utilização, neste caso, da inteligência artificial tem gerado críticas no exterior e aqui no Brasil em razão dos problemas gravíssimos que podem ocasionar, principalmente violando direitos fundamentais.

A cidade de San Francisco proibiu o uso do reconhecimento facial pela polícia e outras agências públicas em 2019, seguida por Portland, Boston  e Cambridge em 2020, onde, não por coincidência, estão localizados Harvard e o MIT. Na Europa, em 2021, o Parlamento Europeu também decidiu pelo banimento após manifestação da Autoridade Europeia de  Proteção de Dados (AEPD).  

Em junho deste ano, 50 parlamentares de diferentes partidos em todo o Brasil acompanharam a tendência, apresentando projetos de lei pelo banimento do reconhecimento facial em espaços públicos. A iniciativa que ficou conhecida como #SaiDaMinhaCara é um movimento multipartidário em oposição a esta tecnologia, devido ao seu caráter invasivo, discriminatório e nocivo quando aplicada sob uma suposta narrativa de tutela da segurança pública. 

Inicialmente, é necessário esclarecer que, no caso em análise, haveria a captação de ao menos duas categorias de dados sensíveis, segundo o Art. 5º, II da Lei Geral de Proteção de Dados brasileira, quais sejam, dado biométrico e dado referente à cor/etnia. Entretanto, segundo o art. 4°, III da LGPD, “esta Lei não se aplica ao tratamento de dados pessoais realizado para fins exclusivos de segurança pública” e, no seu§ 1º dispõe que “O tratamento de dados pessoais previsto no inciso III será regido por legislação específica, que deverá prever medidas proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido processo legal, os princípios gerais de proteção e os direitos do titular previstos nesta Lei”, o que é seriamente questionável no caso concreto. 

Neste sentido, caso esta espécie de monitoramento não se justificasse e não se amparasse perante os demais valores juridicamente tutelados, bem como o modus operandi da tecnologia em questão não fosse estritamente pertinente ao propósito que se anuncia, haveria aplicação da LGPD e todas as possibilidades sancionatórias decorrentes.

Ademais, não se pode negligenciar que parcela expressiva das medidas públicas discriminatórias vivenciadas pela humanidade foram “justificadas” sob suposta defesa da segurança pública, tutela do interesse nacional ou outros institutos expiatórios semelhantes.

Não é demais relembrar, também, que o termo “vadiagem”, foi largamente utilizado no século XIX para a criminalização da capoeira, elemento típico da cultura africana, cultivado em território brasileiro por escravizados e seus descendentes. Assim, o primeiro Código Penal do Brasil Império, assinado por Dom Pedro Primeiro, em 1830, criminalizava “vadios”, ou seja, quem fosse encontrado nas ruas sem ocupação “honesta e útil”, tipo penal no qual os capoeiras foram implicitamente enquadrados. 

Vê-se que o elemento racial/étnico, em momentos históricos de menor evolução social, foi colocado sob olhares de suspeita e criminalização, e que o viés da tecnologia em comento pode incentivar o resgate destas temidas estruturas mentais – as quais se busca veementemente superar. Principalmente, porque lesam valores constitucionalmente tutelados, como a não discriminação e a presunção de inocência. Ademais, entendendo pela aplicabilidade da LGPD, haveria cenário agravado pelo tratamento de dados sensíveis em contrariedade ao princípio da não discriminação, abrangendo inúmeros titulares. 

Ainda que em contexto social dissociável do elemento cultural da capoeira, a vadiagem atualmente é prevista na lei de contravenções penais. Neste sentido, o Projeto de Lei. n. 3158/2021 pretende revogar a determinação sob uma perspectiva de que a “pretensão punitiva da ‘vadiagem’ configura senão um deboche, uma dupla punição a milhares de brasileiras e brasileiros até hoje vitimados pelo desemprego, fome e descaso”1.

Ressalta-se, ainda, que tecnologias de inteligencia artificial não possuem parâmetros de precisão satisfatórios e sistemas de reconhecimento facial não devem ser usados como verdade absoluta, pois apresentam muitas problemáticas, como:

1) Falso positivo e falso negativo – em estudo realizado em 2019 pelo Instituto Nacional de Padrões e Tecnologia (NIST, na sigla em inglês) dos EUA, foi constatado tanto “falsos positivos”,  quando um indivíduo é identificado erroneamente, como “falsos negativos”, quando os algoritmos não conseguem definir com precisão a identidade de uma pessoa a partir de uma base de dados.

2) Discriminação algorítmica – ainda que não tenha sido aberto à sociedade o exato modus operandi do sistema SmartSampa, a melhor doutrina em discriminação algorítmica é incisiva em pontuar que tecnologias, em suas métricas e classificações, possuem políticas implícitas e explícitas. É aclamado o ensinamento da pesquisadora Shannon Vallor ao pontuar: “As máquinas não possuem valores independentes. Os valores das máquinas são valores humanos”. O mesmo estudo acima mencionado, constatou que sistemas de reconhecimento facial apresentavam taxas de erro mais altas de falsos positivos para grupos asiáticos, negros e nativos americanos e, segundo pesquisas realizadas pelo Instituto de Tecnologia do Massachusetts (MIT, na sigla em inglês), a taxa de erro é 49 vezes maior para mulheres negras do que para homens brancos. E, boa parte desse erro está na alimentação da base de dados, pois, para que as máquinas ou os algoritmos aprendam e sejam treinados, eles necessitam de uma larga e diversa base de dados, especialmente em países de alta diversidade étnica, como o Brasil, contudo,  esse processo é complexo, trabalhoso e oneroso.

3) Além de se enganar, o sistema pode ser enganado, inclusive para fins criminosos – em 2021 um grupo conseguiu hackear o sistema de reconhecimento facial do governo Chinês e, usando fotos e dados pessoais  emitiram notas fiscais falsas para clientes de uma empresa que não existia, ganhando muito dinheiro com isso. O sistema também pode ser usado para produzir deepfakes, utilizando a inteligência artificial para manipular imagens de rostos e criar movimentos, simulando expressões e falas e para trocar o rosto de pessoas em vídeos.

4) Falta de privacidade – o sistema coletará muitos dados pessoais, especialmente dados sensíveis, sem a ciência e consentimento dos titulares. Essas informações poderão ser alvo de incidentes de segurança, como vazamento de dados, acessos indevidos e violação dos direitos humanos.

Ainda, pretende-se monitorar as mídias sociais e tal fato, além de uma afronta a privacidade do indivíduo, pode dar margem, inclusive, para uma eventual perseguição política ou de grupos vulneráveis.

O Escritório de Política Científica e Tecnológica da Casa Branca publicou recentemente o “Blueprint for an AI Bill of Rights” (Projeto para uma Declaração de Direitos da IA)[1]. O documento traz diretivas muito úteis e esclarecedoras para esta espécie de tratamento de dados, referindo-se a estas como 5 princípios básicos, quais sejam: “I- Você deve estar protegido contra sistemas inseguros ou ineficazes; II- Você não deve enfrentar discriminação por algoritmos e os sistemas devem ser usados ​​e projetados de forma equitativa; III- Você deve estar protegido contra práticas abusivas de dados por meio de proteções integradas e deve ter controle sobre como os dados sobre você são usados; IV- Você deve saber que um sistema automatizado está sendo usado e entender como e por que ele contribui para os resultados que o afetam; V- Você deve poder optar por não participar, quando apropriado, e ter acesso a uma pessoa que possa considerar e solucionar rapidamente os problemas que encontrar.” 

Em suma, apesar de ser um tema inovador e com muito potencial, é certo que a tecnologia não é perfeita e não pode ser utilizada como se fosse, é preciso, antes de aplicá-la em massa, identificar e gerir os riscos impostos para evitar problemas maiores e, não se deve permitir que a evolução tecnológica implique em medidas de retrocesso humano e social, institucionalizando a criminalização de determinados grupos.

*Antonielle Freitas Membro da Comissão Especial de Privacidade e Proteção de Dados da OAB/SP, DPO e Head da Área de Proteção de Dados do Viseu Advogados. É formada pela Universidade Estadual de Ponta Grossa – UEPG, pós graduada em Direito Digital pela Escola Brasileia de Direito – EBD e em Direito Processual Civil pela Pontificia Universidade Católica de São Paulo – PUC/SP e certificada como DPO pela EXIN.    

*Jessica Fernandes Rocha –  Advogada da Área de Proteção de Dados do Viseu Advogados, Bacharel em Direito pela UFMG, Pós-graduanda em Direito Digital do Trabalho, Compliance Trabalhista e LGPD.


[1] https://www.whitehouse.gov/ostp/ai-bill-of-rights/