top of page

93% dos funcionários inserem dados em IA sem aprovação

Atualizado: 28 de ago.



ree

A ManageEngine, divisão da Zoho Corporation, divulgou ontem um detalhado relatório sobre o uso de “shadow AI”, ou seja, o uso não autorizado de IA em corporações. Intitulado “The Shadow AI Surge in Enterprises”, o relatório indica que os funcionários estão trazendo ferramentas de IA para as empresas em um ritmo mais rápido do que a capacidade da TI de realizar avaliações de risco. O estudo foi feito em Maio deste ano, com cerca de 350 decisores de TI nos EUA e Canadá, e identifica brechas que as organizações precisam fechar se quiserem reduzir os riscos da shadow AI e transformá-la em uma vantagem estratégica. Entre as principais descobertas:


  • O aumento: 60% dos funcionários estão usando ferramentas de IA não aprovadas há mais de um ano, e 93% dos funcionários admitem inserir informações em ferramentas de IA sem aprovação.

  • Os riscos: 63% dos gerentes de TI consideram o vazamento ou a exposição de dados o principal risco da shadow AI. Por outro lado, 91% dos funcionários acreditam que a shadow AI não representa risco algum, pouco risco ou algum risco, que é compensado pelas vantagens no uso.

  • As vantagens: resumir notas ou conversas de telefone (55%), fazer brainstorming (55%) e analisar dados ou relatórios (47%) são as principais tarefas que os funcionários realizam com a IA paralela. Ferramentas de texto com IA generativa (73%), ferramentas de escrita com IA (60%) e assistentes de código (59%) são as principais ferramentas de IA aprovadas pelos ITDMs para uso dos funcionários.


“A IA paralela representa tanto maior risco de governança quanto a maior oportunidade estratégica nas empresas”, disse Ramprakash Ramamoorthy, diretor de pesquisa de IA da ManageEngine. “As organizações que vão prosperar serão aquelas que abordarem as ameaças à segurança e reformularem a IA paralela como um indicador estratégico das necessidades genuínas dos negócios. Os líderes de TI devem deixar de atuar na defensiva e passar a construir proativamente ecossistemas de IA transparentes, colaborativos e seguros, que os funcionários se sintam capacitados a usar.”


A falta de educação sobre treinamento de modelos de IA, comportamento seguro do usuário e impacto organizacional estão impulsionando o uso indevido sistemático, diz o relatório. Pontos cegos continuam a crescer nas organizações, mesmo com as equipes de TI se mobilizando para aprovar e integrar ferramentas de IA o mais rápido possível. Enquanto isso, a IA paralela prolifera devido à aplicação inadequada das políticas de governança estabelecidas.


  • 85% dos gestores relatam que os funcionários estão adotando ferramentas de IA mais rápido do que suas equipes de TI conseguem avaliá-las.

  • 32% dos funcionários inseriram dados confidenciais de clientes em ferramentas de IA sem confirmar a aprovação da empresa, enquanto 37% inseriram dados privados e internos da empresa.

  • 53% dos gestores dizem que o uso de dispositivos pessoais pelos funcionários para tarefas de IA relacionadas ao trabalho está criando um ponto cego na postura de segurança de sua organização.

  • Apenas 54% dos gestores relatam que suas organizações implementaram políticas de governança de IA claras e aplicadas e monitoram ativamente o uso não autorizado, enquanto 91% implementaram políticas em geral.


Metodologia da Pesquisa

Em maio de 2025, a ManageEngine contratou a agência independente de pesquisa de mercado Censuswide para realizar um estudo com 350 gerentes de TI e 350 profissionais atuantes nos EUA e Canadá, empregados em organizações com pelo menos 500 funcionários e US$ 10 milhões em receita anual. A pesquisa explorou padrões de uso de IA, preocupações com segurança e lacunas de governança, com foco em comportamentos reais em organizações de diversos portes e setores.


Fonte: Portal CISO






bottom of page