*Por Felipe Senise – Inteligências Artificiais sempre nos fascinaram, desde que eram uma fantasia da ficção científica. Eis que estamos vivendo em plena ficção, com as AIs sendo uma realidade no nosso dia a dia. Mas, tem algo para o que os produtos culturais não nos prepararam: os efeitos colaterais dessas tecnologias sobre uma parcela mal representada da sociedade.
No começo do ano, por exemplo, Nijeer Parks foi o terceiro homem negro erroneamente preso nos EUA após a utilização de uma IA pela força policial, que associou o seu rosto ao de um criminoso. Assim como é preciso considerar que essa tecnologia ainda está nos seus primeiros estágios e apresenta falhas naturais, também é preciso entender que a maneira pela qual as estamos programando é reflexo dos nossos vieses estruturais. Isso porque toda IA é fruto de uma programação, criada por seres humanos. E todos nós carregamos conosco percepções de mundo – e muitas delas são frutos de preconceitos estruturais e enraizados na sociedade.
Em 2019, o Instituto Nacional de Padrões e Tecnologias (NIST) divulgou um estudo que apresentou que esse tipo de tecnologia de reconhecimento facial tende a falhar 10 a 100 vezes mais na hora de identificar rostos de pessoas negras ou de descendência asiática do que quando comparado com pessoas caucasianas. No mesmo ano, a Rede de Observatório da Segurança, aqui no Brasil informou que 90% das 151 pessoas apreendidas com base no reconhecimento facial eram negras.
No mesmo ano, ocorreu outro caso emblemático, dessa vez, envolvendo a Apple, que sofreu acusações de liberar uma quantidade menor de crédito às usuárias do cartão Apple Card, mesmo com rendas similares às de homens. Até mesmo o seu cofundador, Steve Wozniak, tweetou que sua esposa passou pelo problema. O caso precisou ser investigado pelo Departamento de Serviços Financeiros do Estado de Nova York.
Um dos grandes motivos pelos quais essas falhas ocorrem é a falta de diversidade na área de tecnologia. Isso faz com que uma visão de mundo homogênea “infecte” os algoritmos, tornando sua eficácia no mínimo questionável e, no limite, um instrumento de aumento de desigualdade.
Temendo o fortalecimento da segregação, lugares como Nova Iorque já estão avançando nos debates para avaliar as formas mais éticas de uso das IAs. Lá, por exemplo, está sendo debatido um projeto de lei que, caso aprovado, fará com que as empresas revelem aos candidatos quando um processo seletivo estiver sendo realizado via inteligência artificial. Já no velho continente, a Comissão Europeia anunciou recentemente uma proposta que proíbe companhias de utilizar ferramentas de reconhecimento facial para analisar emoções humanas e traços de personalidade de seus funcionários ou candidatos a vagas de emprego.
A medida segue a tendência do território europeu de limitar impactos danosos na sociedade causados pela IA. Vale lembrar que, não há muito tempo, eles se propuseram a estudar a possibilidade de proibir por cinco anos esse tipo de tecnologia em locais públicos durante. No Brasil, ainda estamos lentamente dando os primeiros passos sobre o assunto no Senado Federal.
É fato que o ser humano sempre terá falhas e elas serão naturalmente levadas para suas IAs. Então, para que usemos o melhor da tecnologia e mitiguemos seus efeitos negativos, a sociedade precisa participar do debate. Como seu representante, o Estado precisa criar iniciativas de regulamentação, com pressupostos éticos e uma transparência muito maior do ponto de vista das empresas. Isso aliado a criação de normas e boas práticas, fará com que desfrutaremos do melhor que a tecnologia tem a oferecer, mas de forma harmoniosa, ética e igualitária.
*Felipe Senise é Partner & Head of Strategy da Ilumeo e Sócio Diretor na Sandbox Escola de Estratégia