É hora de repensar a estratégia da IA generativa?

Por Claudio Bannwart* – A curva de adoção de uma nova tecnologia disruptiva segue uma trajetória semelhante: um pico inicial impulsionado pela curiosidade, atingindo o ápice antes de diminuir à medida que as organizações implementam controles de segurança e/ou os usuários, em geral, não veem vantagem com tantos controles de proteção e compliance – e migram para a próxima tendência.

A chegada das aplicações baseados em IA generativa, como o ChatGPT, Google Gemini e, mais recentemente, o DeepSeek não foi diferente e estamos assistindo seu hype e ascensão. Este último, conforme observou o Laboratório de Ameaças da Netskope, teve em apenas 48 horas, um aumento impressionante de 1.052% no uso na base de clientes da empresa.

Esse pico de adoção dispara um alerta para os CISOs, ilustrando a rapidez com que novas ferramentas de IA podem se infiltrar na empresa e reforça a necessidade de controles robustos de segurança com a IA.

Aqui vale destacar que o Laboratório da Netskope analisou também as tendências de adoção do DeepSeek de 24 a 29 de janeiro, passado em diferentes regiões do mundo, e observou os seguintes aumentos: +415% nos Estados Unidos, +1,256% na Europa e +2,459% na Ásia. Eles refletem a velocidade com que as ferramentas baseadas em IA generativa se espalham globalmente, muitas vezes superando a capacidade de reação das equipes de segurança das empresas.

A adoção generalizada dessas ferramentas levanta preocupações de segurança cruciais, como: privacidade e governança de dados. Pois, os funcionários e/ou usuários podem, sem saber, inserir dados confidenciais em ferramentas de IA e expor propriedade intelectual e informações protegidas por regulamentação. Ainda, há riscos regulatórios e de conformidade com a adoção descontrolada da IA que pode levar a não-conformidade com GDPR, CCPA, LGPD e regulamentos específicos do setor.

A Shadow IA é outro grande mal às equipes de segurança. Pois, sem visibilidade e governança, aplicativos de IA não-sancionados podem criar pontos cegos em relação à segurança.

Fica clara a necessidade de adoção de uma abordagem estratégica estruturada e com controles proativos para gerenciar o uso de IA e garantir a governança. Nesse sentido, ter visibilidade por meio de monitoramento da IA a fim de entender: quem está usando esses aplicativos? qual finalidade? Tudo isso evidencia a importância de aplicar políticas de compartilhamento de dados e de restrição ao acesso não-autorizado às ferramentas de IA.

Outro fator vital é a criação de uma cultura de “Não” para “Sim”. Ou seja, vale impulsionar o progresso, mas com cuidado e ressalvas. Dessa forma, cabe identificar as necessidades da força de trabalho, entretanto é preciso dar orientações claras sobre casos de uso, ferramentas aceitáveis, como treinamento sobre os riscos de inserir dados confidenciais em aplicativos de genAI.

A onda de adoção do DeepSeek é um vislumbre do futuro da IA generativa. Vários fatores como a oferta de chips de IA e poder de computação mais baratos, expansão da inovação fora dos EUA, bem como implementações mais rápidas de modelos de IA, poderão impulsionar ondas de ciclos de adoção ainda mais rápidos no ambiente corporativo.

Até o momento a IA não está estagnada, pois a cada dia vemos mais aplicativos ofertados ao mercado, o que leva a crer que os profissionais de segurança não podem esmorecer em sua estratégia de proteção das informações.

A rápida adoção do DeepSeek serve como um estudo de caso em segurança de IA. Por isso, os CISOs precisam se preparar para o desafio de navegar a próxima onda de aplicativos de IA e analisar medidas proativas a fim de proteger os dados corporativos sem comprometer a evolução da inovação.

*Claudio Bannwart, country manager Brasil da Netskope.