
Por Luiz Carlos Campelo e Samuel Lucas de Almeida* – Vivemos na era da Inteligência Artificial. É uma situação semelhante à primeira revolução industrial, no qual as máquinas surgiram para substituir o esforço físico dos seres humanos. Hoje, as pessoas são, em grande parte, trabalhadores da informação, que passaram a contar com ajuda da IA para refinar mensagens, utilizar melhor os dados, realizar tarefas burocráticas mais rápidas e, assim, ser mais produtivos. Vivemos um caminho sem volta, mas será que as organizações estão fazendo uso da IA de maneira segura? É preciso haver uma série de precauções.
Uma pesquisa recente do Boston Consulting Group (BCG) revelou que 76% dos executivos de alto escalão reconhecem que suas estratégias de cibersegurança para IA ainda precisam ser aprimoradas. Isso decorre, muitas vezes, da forma como a jornada em inteligência artificial é construída. No ambiente corporativo temos duas realidades. De um lado, o trabalhador, que vem buscando essas tecnologias para ser mais produtivo. A intenção em geral é fazer de maneira mais assertiva tarefas rotineiras a fim de dedicar mais tempo a serviços estratégicos. Muitas vezes, isso acontece de maneira empírica e extraoficialmente. Do outro lado, as companhias passaram a estudar as diversas soluções de IA, visando encontrar aquelas mais aplicáveis ao seu cotidiano por funcionários e clientes.
Nesse cenário, existe a preocupação de informações confidenciais chegarem ao conhecimento de pessoas que não deveriam. Não é razoável, por exemplo, que um documento fiscal da empresa, um planejamento ou qualquer outra informação de uso confidencial sejam inseridos em inteligências artificiais gratuitas ou com online.
Parece óbvio, mas não é. Para se ter uma ideia, a ManageEngine, divisão da Zoho Corporation, divulgou um relatório sobre o uso não autorizado de IA em corporações e os dados são impactantes: 93% dos funcionários admitem inserir informações em ferramentas de IA sem aprovação. O mesmo levantamento aponta que 63% dos gerentes de TI consideram o vazamento ou a exposição de dados o principal risco com a utilização de IA de maneira não autorizada.
Dessa forma, se faz necessário que as companhias tentem antecipar alguns movimentos. Um deles é realizar uma comunicação clara com seus funcionários acerca da utilização da IA para tarefas corporativas. Além disso, se coloca como uma tarefa da companhia fornecer ferramentas seguras aos seus funcionários, pois isso se coloca como uma medida mais segura do que delegar aos colaboradores o entendimento aprofundado acerca de políticas de privacidade ou sobre plataformas de IA online.
Outro ponto é envolver as pessoas na jornada da Inteligência Artificial. As companhias precisam buscar no nivelamento entre colaboradores, a fim de que a utilização das ferramentas aconteça de maneira assertiva. Com o aprimoramento da jornada, as empresas estarão maduras o suficiente a ponto de desenvolver sua política de uso de IA – e assim incluir as ferramentas dentro da cultura organizacional.
Mais do que nunca, profissionais que utilizam bem a IA se diferenciam daqueles sem tanta familiaridade. Por isso, a velocidade com que a inteligência artificial avança impõe às companhias as adequações necessárias a fim de que os benefícios sejam potencializados e a privacidade das organizações seja mantida.
* Luiz Carlos Campelo, gerente de Arquitetura e Sucesso do Cliente da Lanlink, e Samuel de Almeida, especialista de Sucesso do Cliente da Lanlink.