87% das empresas brasileiras adotaram IA sem governança, e a conta vai chegar

Por Christianne Pimenta*

Levantamento recente da IBM revelou que 87% das organizações brasileiras não têm qualquer política de governança de inteligência artificial em vigor. No mesmo período, uma pesquisa da Associação Brasileira de Recursos Humanos mostrou que 79% dos profissionais do país já utilizam ferramentas de IA em suas tarefas diárias. A distância entre os dois números é o retrato honesto do momento que vivemos: empresas adotaram a tecnologia muito antes de aprender a governá-la, e essa assimetria já está produzindo efeitos.

Pergunte hoje ao CEO de qualquer empresa de médio porte quantos sistemas de IA operam na sua organização e a resposta vem com hesitação, números aproximados, ou silêncio constrangedor seguido da promessa de verificar com a área de tecnologia. Marketing contratou ferramenta que personaliza ofertas, recursos humanos adotou sistema que tria currículos, atendimento colocou chatbot na linha de frente. Cada decisão, isoladamente, parecia pequena, mas somadas alteraram silenciosamente o sistema decisório das empresas. Tecnologias invisíveis não são governáveis, e o que não é governável, mais cedo ou mais tarde, governa quem deveria estar no comando.

O risco não está no algoritmo, está no vácuo entre o que a tecnologia já faz e o que a organização ainda não entende sobre o que ela faz. Inteligência artificial não se trata de tecnologia no sentido clássico, é um sistema sociotécnico que combina dados, algoritmos, pessoas, processos e contexto. Avaliar modelos apenas pela acurácia equivale a avaliar pilotos apenas pelo tempo de reação, ignorando avião, tripulação, clima e destino. Modelos com excelente desempenho técnico produzem resultados inadequados quando o ambiente operacional não foi considerado, e o ambiente operacional, quase sempre, é o ponto cego.

E no que se refere ao conhecimento das pessoas sobre IA, existe a confusão recorrente entre treinar e capacitar. Treinar é ensinar a usar a ferramenta; capacitar é desenvolver a capacidade de fazer perguntas certas sobre ela. A literacia em IA não é monolítica: a alta direção precisa entender risco, impacto e responsabilidade institucional, enquanto equipes técnicas precisam dominar ciclo de vida, drift e validação contínua. Áreas de negócio precisam reconhecer onde a IA influencia suas decisões, e compliance precisa traduzir norma em controle operacional. Quando se aplica o mesmo treinamento genérico a todos, o resultado é previsível: ninguém sabe o suficiente para decidir, e todos acham que outro alguém está cuidando.

E é assim que se descobre, tarde, que a responsabilidade não pode ser atribuída ao sistema, ela é sempre institucional. Quando algo dá errado, o algoritmo não comparece à audiência, não responde processo regulatório, não conversa com cliente nem se explica diante do conselho. Quem responde é gente, com nome e cargo.

Existe resistência cultural em equiparar governança a entrave, e esse é equívoco caro. Governança bem desenhada não freia a IA, ela é o que permite usá-la em escala sem que cada novo sistema se torne aposta cega. Três movimentos resolvem o problema mais recorrente que observo na prática: inventariar o que existe para que sistemas saiam da invisibilidade, classificar por risco para diferenciar o que merece atenção aprofundada, e avaliar impacto antes da escala, porque avaliar tarde demais transforma a análise em justificativa do que já foi decidido.

A regulação está se consolidando, com o AI Act na Europa, a ISO/IEC 42001 como referência global, projeto de lei em curso no Brasil e a LGPD sendo aplicada com mais profundidade sobre inferências e decisões automatizadas. Quem tratar a governança como reação à norma chegará atrasado, mas a multa regulatória é o menor dos custos. O maior é o erosivo: decisões enviesadas que comprometem a relação com clientes, resultados inexplicáveis em momentos decisivos, incidentes sem rastro auditável. Multa se paga e se encerra. Reputação não.

O ponto agora não é mais discutir se a organização adota IA. Todas adotam, inclusive as que ainda não perceberam. A pergunta, e essa eu repito para todo conselho que assessoro, é se ela sabe onde a IA está operando, sob qual responsabilidade, e com que capacidade de revisão quando o sistema errar. 

Porque ele vai errar.

*Christianne Pimenta é Superintendente de Inovação e Transformação Digital e Professora PUC-GO.