Coded Bias e a Liga da Justiça Algorítmica

Por Evandro Oliveira – “Coded Bias” é um documentário de 2020. Um título de difícil tradução para o português porque o conceito ainda está sendo assimilado. A produção trata, primordialmente, de um problema que acontece na ChinaEstados Unidos e Reino Unido. Analogamente, em “Privacidade Hackeada” fiz algumas comparações que, três anos depois, se confirmam.

Uma das sinopses destaca a questão de gênero e racial como a principal. Entretanto, a partir deste viés, é possível traçar histórias paralelas, como nas telenovelas existem núcleos secundários.

Sinopse de Filmow.com

Os sistemas de reconhecimento facial de grandes empresas de tecnologia, geralmente classifica incorretamente mulheres negras como homens, incluindo Michelle Obama, Serena Williams e Sojourner Truth. A pesquisadora Joy Buolamwini, do MIT Media Lab, mostra uma descoberta surpreendente do viés racial nos algoritmos de reconhecimento facial.”

A pesquisadora Buolamwini criou e avança na criação da Liga da Justiça Algorítmica – uma alusão à Liga da Justiça dos quadrinhos ( DC Comics ). Pouco após o lançamento da série Black Mirror, comecei a escrever textos(1) em que o mundo distópico era realçado. Este documentário ( Coded Bias ) é, com toda a certeza, a prova de que Black Mirror não é ficção.

Liga da Justiça Algorítmica

Existem diversos pontos importantes a serem captados do documentário. Muito mais do que uma Liga da Justiça será necessário para mostrar aos cidadãos do mundo o tamanho do problema. De um lado, pessoas que concordam com o Big Brother, por outro lado, existem algoritmos que são mal feitos e injustos.

Além disso, abordarei alguns dos temas que destaco na produção Coded Bias. Certamente, cada um dos temas será objeto de textos específicos e mais detalhados.

Algumas abordagens:

  • Questão racial e étnica
  • Quebra de privacidade global
  • Aprendizagem de máquina (Machine Learning)
  • Algoritmos tendenciosos e parciais
  • Influenciadores eleitorais

Coded Bias (Viés racial, étnico e social)

A principal temática é a questão de erros de algoritmos com a questão racial, de gênero e étnica predominando. Primordialmente, o eixo do documentário é preciso na abordagem destas questões. Por outro lado, fica até engraçado quando grandes “players” mundiais fazem das suas e não admitem. AmazonMicrosoft e outras grandes corporações fazem algoritmos com viés racial e chamam de inteligência ou aprendizado de máquina.

Privacidade

Neste contexto, o antagonismo entre China e EUA é absurdo. No país considerado comunista, eles avaliam as pessoas e avisam que elas estão sendo avaliadas. Cada um vale pelo que faz ( um episódio de Black Mirror reflete exatamente isso). Por outro lado, nos EUA, as empresas fazem pior no sentido de usar para as grandes corporações venderem mais. A crueldade é que no país dito mais democratizado, pobres, negros e mulheres são cobaias. Assim sendo, os ricos, caucasianos e homens usufruem do melhor dos mundos.

Importante citar o movimento Big Brother Watch, (@BigBrotherWatch) em curso no Reino Unido, defendendo a privacidade das pessoas.

Aprendizagem de Máquina

Pouco antes do início da pandemia, cogitei a hipótese de fazer um doutorado que precisava de pesquisa de informação e “data science“. Fiz uma disciplina isolada para a finalidade de preparação ao doutorado. É assustador o direcionamento dado aos alunos para que façam  algoritmos de IA de viés consonante às estratégias de marketing. Ética passa longe dos algoritmos e seus engenheiros e cientistas de dados.

Alguns poucos especialistas preocupados em como obter mais informação privada e usar para melhorar vendas, sem o cidadão saber de nada. A Microsoft, por exemplo, fez um sistema destes, em poucas horas, o sistema “aprendeu” a defender o nazismo, a homofobia e misoginia. O sistema saiu do ar e não se fala mais nisso.

Algoritmos Tendenciosos

Em 2010 o Facebook fez alguns experimentos. Publicou chamadas para as eleições e fez funcionar alguns algoritmos de “machine learning“. As observações indicaram que ao menos trezentas mil pessoas que, a princípio, não votariam, exerceram o voto, após verem as chamadas. Quando estas pessoas viram que seus “amigos” de rede social anunciavam que votaram, foram lá fazer o mesmo. Seis anos depois, as eleições estadunidenses foram decididas por menos de 100 mil votos de diferença. Em outras palavras, um algoritmo tendencioso e bem manipulado, como provado em alguns documentários, pode decidir eleições por pequenas margens.

Desse modo, passados doze anos dos experimentos do Facebook, eleições com grandes margens podem ser decididas também, depende do aprendizado da máquina e dos algoritmos. É provável que, desde então, muitas eleições tenham sido decididas não pelos sistemas eleitorais, mas por redes sociais e algoritmos. E, como no documentário, não adianta discutir com o Facebook.

Recursos Humanos

Um aspecto interessante na abordagem sobre algoritmos tendenciosos, com abordagem interessante no documentário, é na área de recrutamento de pessoas. Grandes corporações, com alto envolvimento em tecnologia, utilizam algoritmos que privilegiam caucasianos masculinos. Sem dúvida, só poderíamos esperar que se homens caucasianos fizessem os algoritmos, eles seriam à sua imagem e semelhança. O mais assustador é verificar que profissionais de RH, que habitam redes sociais como o LinkedIn, ignoram os algoritmos destas plataformas.

Influenciadores Eleitorais

A profusão de perfis falsos já provocou muitos estragos e não existe mecanismo que possa limitar este problema. Autoridades no mundo inteiro, e no Brasil não é diferente, não sabem como fazer quando a sociedade perde. Até em casos individuais, nada tem sido feito e tudo cai no esquecimento. Dessa forma, as autoridades metem os pés pelas mãos, não aplicam a LGPD e deixam perfis falsos disseminarem as fake news.

Nas eleições brasileiras, do mesmo modo que nas estadunidenses, perfis com informações falsas têm se notabilizado em provocar o caos. Instalada a confusão, não tem processo de julgamento, eleitoral ou não, que reverta os malefícios praticados. A invasão de perfis, claramente indicados para conturbar redes sociais e grupos, já provocou problemas e vai piorar nas eleições de 2022.

Matrix, Black Mirror, Coded Bias num mundo distópico

Desde Hal 9000(2), uma produção ficcional que projetava um mundo em 2001, não víamos algo tão real e documentário como “Code Bias“. Surpreendentemente, o que mais assusta não é o que foi previsto para as ações dos computadores no filme. É aterrorizante ver as pessoas serem cooptadas pelo sistema.

A ignorância da maioria dos cidadãos não vê limites nos erros que os algoritmos de inteligência artificial (IA) cometem. O conceito de aprendizagem de máquina, mesmo com os absurdos casos relatados no documentário, são vistos como “pequenos erros”. Como se não bastasse, as grandes empresas de tecnologia no mundo estão nos países que mais se enfrentam: China e Estados Unidos.

Enfim, a briga pela informação e privacidade, mesmo que com objetivos diferentes, como demonstrados para chineses e estadunidenses, não tem fim, apenas começou.

A tradução para “Coded Bias” como viés codificado ou algoritmos tendenciosos ou com viés parcial ainda vai dar muito o que falar. Nem a LGPD(3) dá conta do que vem por aí. A informação está sendo agregada e cresce a cada minuto. Aqueles que imaginam que apagando o  perfil em determinada rede se livram de dissabores estão enganados, completamente iludidos.

É inevitável que alguns pequenos spoilers estejam neste texto. Entretanto, recomendo fortemente atenção ao tema. As eleições gerais brasileiras de 2022 serão muito complicadas. Além da manutenção do poder das oligarquias, o futuro e a possibilidade de recuperação estão em jogo. Tudo isso a partir de algoritmos que podem atender a quem tem mais dinheiro.

Em suma, a tirania e opressão dos algoritmos não tem fim, e afirmo que não tem volta !

(1) “Milhões de Méritos – Black Mirror

(2) “2001 -A space odissey

(3) “LGPD – A que foi sem nunca ter sido

*Evandro Oliveira – Sociall Br Participações, Empreendimentos e Consultorias Ltda