Enquanto o Congresso avança na discussão e apresenta uma nova versão de marco regulatório para a Inteligência Artificial, a ministra da Ciência, Tecnologia e Inovação, Luciana Santos, anuncia um novo “Plano Brasileiro de Inteligência Artificial – PBIA”. Ontem criou um “Grupo de Trabalho de Apoio Operacional” que terá por função desenvolver esse plano. Desde 2021 o MCTI conta com uma “Estratégia Brasileira de Inteligência Artificial” (EBIA), criada na gestão do astronauta e ex-minstro, Marcos Pontes. Luciana, pelo visto, quer um novo plano para poder chamar de “seu”.
Em Brasília uma velha piada que corre na burocracia federal sempre diz que, quando se quer empurrar com a barriga e postergar a aprovação de determinado assunto, basta criar um “Grupo de Trabalho”. Há vários exemplos da inutilidade do uso desse instrumento dentro do governo, não cabe aqui listá-los.
A ministra apenas está cumprindo esse ritual da malandragem administrativa. Luciana Santos nada fez até agora sobre esse tema, embora saiba que a Inteligência Artificial vem revolucionando o mundo e pisando com força em solo brasileiro. A ministra chegou a enrolar o presidente Lula, deixando que ele falasse sobre o Brasil ter uma estratégia para o uso da Inteligência Artificial, que sequer chegou ao papel. O MCTI andou de lado sobre tema nesse ano e meio de governo. Além de não ter criado nada na área, a ministra sequer se deu ao trabalho de revisar a proposta de Marcos Pontes, que merecia uma atualização após os avanços da IA nos últimos anos.
O pomposo “Grupo de Trabalho de Apoio Operacional” do MCTI, será formado pelos seguintes membros:
I – Secretário-Executivo do Ministério da Ciência, Tecnologia e Inovação, que coordenará o grupo;
II – Secretário da Secretaria de Ciência e Tecnologia para Transformação Digital;
III – Chefe da Assessoria do Conselho Nacional de Ciência e Tecnologia; e
IV – Um Assessor Especial da Ministra de Estado da Ciência, Tecnologia e Inovação, a ser designado pelo Secretário-Executivo.
Eventualmente chamará “para fins de assessoramento”, porém sem direito a voto, alguns representantes de outros órgãos da esfera federal, entidades públicas e privadas e especialistas no tema.
Ou seja, esse “GT” vai refazer todo o trabalho já feito pelo MCTI em 2021. Mesmo sabendo que o Legislativo Federal está bastante avançado na tramitação de uma proposta de regulamentação da Inteligência Artificial, que vem sendo relatada pelo senador Eduardo Gomes (PL/TO). O parlamentar transformou num texto único, uma série de propostas de lei que tramitavam no parlamento brasileiro desde 2020. No útimo ano e meio de Governo Lula, o senador chamou todos os setores interessados em discutir a implantação da IA no Brasil. Até o governo federal se fez presente nos debates, uma prova do tamanho da inutilidade do MCTI de Luciana Santos, que somente agora acorda para o problema.
Na semana passada, por exemplo, o senador Eduardo Gomes apresentou a sua nova versão de texto substitutivo, no qual ele fez ajustes para empoderar as agências reguladoras e autarquias na regulação da IA, dentro do campo de suas competências. Quem do governo tinha o interesse de discutir a IA e participar desse marco regulatório, já se mexeu. Não ficaram esperando Luciana Santos ter a grande ideia de criar um “Grupo de Trabalho”, para formular algo que já está quase pronto.
O texto do senador Eduardo Gomes, por exemplo, traz no Artigo 14, os riscos inerentes ao uso da Inteligência Artificial em determinados setores, que merecerão uma maior atenção do Estado:
I – aplicação como dispositivos de segurança na gestão e no funcionamento de infraestruturas críticas, tais como controle de trânsito e redes de abastecimento de água e de eletricidade, quando houver risco relevante à integridade física das pessoas e à interrupção de serviços essenciais;
II – educação e formação profissional, para a determinação de acesso a instituições de ensino ou de formação profissional ou para avaliação e monitoramento de estudantes;
III – recrutamento, triagem, filtragem, avaliação de candidatos, tomada de decisões sobre promoções ou cessações de relações contratuais de trabalho, repartição de tarefas e controle e avaliação do desempenho e do comportamento das pessoas nas áreas de emprego, gestão de trabalhadores e acesso ao emprego por conta própria;
IV – avaliação de critérios de acesso, elegibilidade, concessão, revisão, redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços públicos de assistência e de seguridade;
V – avaliação e classificação de chamadas, ou determinação de prioridades para serviços públicos essenciais, tais como de bombeiros e assistência médica;
VI – administração da justiça, no que toca o uso sistemas que auxiliem autoridades judiciárias em investigação dos fatos e na aplicação da lei, quando houver risco às liberdades individuais e ao Estado democrático de direito, excluindo-se os sistemas que auxiliem atos e atividades administrativas;
VII – veículos autônomos em espaços públicos, quando seu uso puder gerar risco relevante à integridade física de pessoas;
VIII – aplicações na área da saúde para auxiliar diagnósticos e procedimentos médicos, quando houver risco relevante à integridade física e mental das pessoas;
IX – estudo analítico de crimes relativos a pessoas naturais, permitindo às autoridades policiais pesquisar grandes conjuntos de dados, disponíveis em diferentes fontes de dados ou em diferentes formatos, no intuito de identificar padrões e perfis comportamentais;
X – investigação por autoridades administrativas para avaliar a credibilidade dos elementos de prova no decurso da investigação ou repressão de infrações, para prever a ocorrência ou a recorrência de uma infração real ou potencial com base na definição de perfis de pessoas singulares;
XI – sistemas de identificação e autenticação biométrica para o reconhecimento de emoções, excluindo-se os sistemas de autenticação biométrica cujo único objetivo seja a confirmação de uma pessoa singular específica.
XII – gestão da imigração e controle de fronteiras para avaliar o ingresso de pessoa ou grupo de pessoas em território nacional; e
XIII – produção, curadoria, difusão, recomendação e distribuição, em grande escala e significativamente automatizada, de conteúdo por provedores de aplicação, com objetivo de maximização do tempo de uso e engajamento das pessoas ou grupos afetados;
Gomes também estabeleceu dos artigos 32 ao 35, as hipóteses de responsabilizaçao civil por danos decorrentes da aplicação da Inteligência Artificial, com base em diversas legislações já em uso no país, como no caso do Código de Defesa do Consumidor, por exemplo.
No Artigo 34 ele também assegurou a possibilidade do juiz inverter o ônus da prova, quando a vítima não tiver condições financeiras de provar o dano causado pela IA ao seu bem-estar.
Especialistas criticaram o texto, mas o grande mérito é o fato do senador ter colocado a mão na massa para dar ao país um mínimo de regulação na área. Coisa que o MCTI não fez e, pelo andar da carruagem, nada fará.