O dilema do Shadow AI nas organizações: segurança versus produtividade

Por Thalles Ferreira Costa, Especialista em IA (Instituto Oswaldo Cruz) e Head de E-commerce


Com a explosão de ferramentas de IA generativa, aumentou também o uso não sancionado destas tecnologias por colaboradores (“Shadow AI”), gerando tensões entre produtividade e segurança. Estudos recentes indicam que praticamente todas as grandes empresas já têm funcionários experimentando IA sem orientação formal. No entanto, essa prática acarreta riscos extras: dados sensíveis vazam em servidores de terceiros, decisões sem rastreabilidade e violações de conformidade que frameworks tradicionais não contemplam.

Neste artigo, revisamos sistematicamente a literatura e casos reais, detalhando os riscos específicos da Shadow AI em relação à IA corporativa em geral. Propomos um framework de governança baseado em pilares integrados – políticas, inventário de casos de uso, controles técnicos e cultura organizacional – alinhado a normas como NIST AI RMF e ISO/IEC 42001. Abordamos também diferentes modalidades de IA por meio de tabela comparativa, realçando como planos corporativos mitigam vazamentos de dados. Concluímos que a solução não é a proibição reativa, mas a integração da IA sob uma governança ativa que reconheça a inevitabilidade da inovação.

1. Introdução

As ferramentas de IA generativa (como ChatGPT, DALL-E e Copilot) entraram rapidamente no cotidiano corporativo, transformando a dinâmica de trabalho. Pesquisas econômicas recentes indicam que o uso dessas ferramentas pode aumentar a produtividade em tarefas de escrita e programação de forma expressiva, o que justifica a adoção acelerada por parte dos trabalhadores[1]. No entanto, esse movimento ocorre frequentemente à margem da supervisão de TI. Estudos de segurança cibernética apontam que o uso de “sistemas fantasmas” de IA introduz vulnerabilidades críticas nas redes empresariais[2].

A realidade do Shadow AI reflete a busca por eficiência usando recursos pessoais em vez de soluções aprovadas. Apesar dos benefícios imediatos, essa prática cria novos vetores de risco além dos da IA licenciada. O dilema central é equilibrar a proteção da propriedade intelectual com a demanda por agilidade. Este trabalho revisa a literatura técnica e casos concretos, com o objetivo de clarificar riscos específicos — como a extração de dados de treinamento — e propor um framework de governança que incorpore a IA de forma segura.

2. Metodologia

Esta pesquisa caracteriza-se como uma revisão bibliográfica sistemática com abordagem mista (qualitativa e documental). A coleta de dados abrangeu bases acadêmicas reconhecidas, especificamente IEEE Xplore, ACM Digital Library e Scopus, além de repositórios de normas técnicas (ISO e NIST) e relatórios de institutos de pesquisa de mercado.

A estratégia de busca priorizou palavras-chave diretas e suas combinações, tais como: Shadow AI, Generative AI Risks, Data Leakage e AI Governance. O recorte temporal concentrou-se no período de 2021 a 2025, acompanhando a ascensão dos Grandes Modelos de Linguagem (LLMs). Embora um extenso corpus documental tenha sido analisado durante a fase exploratória, aplicou-se um critério de curadoria rigoroso para a seleção final. Foram descartados artigos de opinião sem fundamentação técnica e textos focados apenas em IA preditiva (Machine Learning tradicional), priorizando-se aqueles que abordam a IA Generativa. Ao final, selecionaram-se 14 referências centrais, compostas por papers científicos que comprovam vulnerabilidades técnicas, normas globais de governança e relatórios oficiais que quantificam o impacto financeiro dos incidentes.

3. O que é Shadow AI? (uma perspectiva evolutiva)

O termo Shadow AI refere-se à adoção não sancionada de ferramentas de inteligência artificial por funcionários, sem o conhecimento ou controle do departamento de TI[2]. Teoricamente, o Shadow AI deve ser entendido como uma evolução do Shadow IT clássico, definido na literatura como o uso de hardware ou software não oficial para contornar limitações percebidas nos sistemas centrais[3].

Contudo, o Shadow AI apresenta uma diferença fundamental em relação ao Shadow IT tradicional: o aprendizado do modelo. Enquanto usar um armazenamento em nuvem não autorizado (ex: Dropbox pessoal) expõe o arquivo, usar uma IA generativa pública expõe o conteúdo do arquivo ao processamento e potencial retenção para treinamento futuro do modelo[4]. O funcionário percebe a ferramenta como um atalho para eficiência, criando uma dissonância onde o risco de segurança é subestimado em prol do benefício imediato de produtividade[5]. Diferente da IA corporativa licenciada — que possui controles de acesso e auditoria — o Shadow AI opera na obscuridade, gerando decisões automatizadas sem trilhas de auditoria e exposição irreversível de propriedade intelectual[6].

4. Riscos e impactos nas organizações

O uso informal de IA nas organizações traz riscos concretos comprovados cientificamente. O principal é o vazamento de dados sensíveis e a possibilidade de “ataques de extração”. Pesquisadores já demonstraram ser possível extrair dados de treinamento específicos de modelos de linguagem, provando que informações inseridas por usuários podem, teoricamente, ser recuperadas por terceiros mal-intencionados[7].

Em um caso emblemático ocorrido em 2023, engenheiros da Samsung utilizaram o ChatGPT para otimizar códigos e resumir atas de reuniões, resultando no vazamento involuntário de propriedade intelectual sensível[8]. Embora a reação imediata da empresa tenha sido o bloqueio total – uma medida compreensível para contenção de danos –, argumentamos que essa abordagem puramente restritiva é insustentável a longo prazo. O bloqueio rígido tende a falhar sociologicamente: a IA Generativa hoje é vista pelo colaborador como uma ferramenta de empoderamento profissional. Políticas punitivas criam uma “cultura do medo”, onde o uso não cessa, mas migra para dispositivos pessoais totalmente fora do radar corporativo, ampliando a superfície de ataque.

Além do risco técnico, há o impacto financeiro. Relatórios de 2024 indicam que o custo médio de uma violação de dados aumentou significativamente quando envolve ambientes de TI não gerenciados e complexidade de sistemas de terceiros[9]. Além dos prejuízos diretos (multas regulatórias, perda de receita), há custos intangíveis, como danos à reputação e viés algorítmico não detectado que pode afetar a tomada de decisão estratégica[10].

5. Governança e políticas de IA

Diante desse cenário, a solução não é a proibição cega, mas a estruturação de uma governança pragmática. Baseando-nos em normas internacionais, propomos os seguintes pilares:

• Políticas e Responsabilidades (Governança Organizacional): A função “GOVERN” do framework NIST AI RMF estabelece que a gestão de riscos deve ser transversal[11]. Isso envolve criar papéis definidos e políticas de Acceptable Use que especifiquem quais dados podem trafegar em IAs públicas e quais são estritamente proibidos.

Inventário de Casos de Uso (Em vez de Softwares): Normas como a ISO/IEC 42001 sugerem inventários de sistemas[12], mas reconhecemos a dificuldade prática de mapear cada nova ferramenta SaaS que surge semanalmente. Sugerimos evoluir para um Inventário de Casos de Uso. É mais eficaz mapear “processos que usam IA” (ex: geração de código, tradução técnica) e homologar ferramentas seguras para esses fins, do que tentar bloquear a internet inteira.

Controles Técnicos: Adoção de gateways de segurança e uso de versões corporativas. As versões Enterprise de ferramentas populares oferecem garantias contratuais de que os dados não serão usados para treinamento do modelo (no-training policy)[13], além de criptografia avançada e controles de acesso (SSO)[14].

• Cultura e Conscientização: A educação deve focar na natureza probabilística e pública da IA. Os colaboradores devem entender que colar um dado em um chatbot gratuito é equivalente a publicá-lo em um fórum aberto.

O Quadro 1 a seguir compara riscos e controles do uso de IA em planos gratuitos versus ofertas corporativas gerenciadas. Nele, observa-se que soluções empresariais distinguem-se pela não utilização dos dados do usuário para treinar os modelos e pela criptografia avançada.

6. Conclusão

O Shadow AI não é apenas um problema de segurança, mas um sintoma de demanda reprimida por inovação. Como demonstrado pela revisão bibliográfica, os riscos técnicos de vazamento de dados em LLMs são reais e comprovados[7], e os

custos de remediação são altos[9]. No entanto, a tentativa de banir a tecnologia é fútil e contraproducente.

A resposta eficaz reside na governança ativa: trazer o uso para a luz através do fornecimento de ferramentas corporativas seguras e da educação contínua. As organizações que conseguirem transitar do bloqueio reativo para o monitoramento proativo de casos de uso estarão melhor posicionadas para capturar os ganhos de produtividade da IA[1][5], mantendo a integridade de seus ativos informacionais.


REFERÊNCIAS

[1] BRYNJOLFSSON, E.; LI, D.; RAYMOND, L. R. Generative AI at Work. National Bureau of Economic Research (NBER), Working Paper 31161, nov. 2023. Disponível em: https://www.nber.org/papers/w31161. Acesso em: 11 dez. 2025.

[2] COHEN, J. et al. Phantom of the Opera: The Rise of Shadow AI in Enterprise Environments. In: IEEE International Conference on Cyber Security and Protection of Digital Services (Cyber Security), 2024, London. Proceedings… London: IEEE, 2024. Acesso em: 11 dez. 2025.

[3] HAAG, S.; ECKHARDT, A. Shadow IT. Business & Information Systems Engineering, v. 59, n. 6, p. 469–473, 2017.

[4] OPENAI. GPT-4 System Card. OpenAI Technical Report, mar. 2023. Disponível em: https://cdn.openai.com/papers/gpt-4-system-card.pdf. Acesso em: 11 dez. 2025.

[5] DAVENPORT, T. H.; MITTAL, N. How Generative AI Is Changing Productivity. Harvard Business Review, v. 101, n. 6, 2023.

[6] WEIDINGER, L. et al. Taxonomy of Risks posed by Language Models. In: ACM Conference on Fairness, Accountability, and Transparency (FAccT ’22), 2022, Seoul. Proceedings… New York: ACM, 2022. p. 214-229. Disponível em: https://dl.acm.org/doi/10.1145/3531146.3533088. Acesso em: 11 dez. 2025.

[7] CARLINI, N. et al. Extracting Training Data from Large Language Models. In: USENIX Security Symposium, 30., 2021, Vancouver. Proceedings… Berkeley: USENIX             Association,    2021.  p.      2633-2650.                             Disponível em: https://www.usenix.org/conference/usenixsecurity21/presentation/carlini-extracting. Acesso em: 11 dez. 2025.

[8] PARK, C. Samsung bans use of generative AI tools like ChatGPT after April internal data leak. TechCrunch, San Francisco, 2 maio 2023. Disponível em: https://techcrunch.com/2023/05/02/samsung-bans-use-of-generative-ai-tools-like-cha tgpt-after-april-internal-data-leak/. Acesso em: 11 dez. 2025.

[9] IBM INSTITUTE FOR BUSINESS VALUE. Cost of a Data Breach Report 2024. Armonk:     IBM      Corporation,  2024.            Disponível                  em: https://www.ibm.com/reports/data-breach. Acesso em: 11 dez. 2025.

[10] SILBERG, J.; MANYIKA, J. Notes from the AI frontier: Tackling bias in AI (and in humans). McKinsey Global Institute, Technical Report, jan. 2024. Disponível em: https://www.mckinsey.com/featured-insights/artificial-intelligence/notes-from-the-ai-fro ntier-tackling-bias-in-ai-and-in-humans. Acesso em: 11 dez. 2025.

[11] NATIONAL INSTITUTE OF STANDARDS AND TECHNOLOGY (NIST). AI Risk Management Framework (AI RMF 1.0) – NIST AI 100-1. Gaithersburg: U.S. Department of Commerce, jan. 2023. Disponível em: https://www.nist.gov/itl/ai-risk-management-framework. Acesso em: 11 dez. 2025.

[12] INTERNATIONAL ORGANIZATION FOR STANDARDIZATION (ISO). ISO/IEC 42001:2023 – Information technology — Artificial intelligence — Management system. Geneva: ISO, 2023.

[13] OPENAI. Enterprise privacy at OpenAI. OpenAI Security Portal, 2024. Disponível em: https://openai.com/enterprise-privacy. Acesso em: 11 dez. 2025.

[14] MICROSOFT. Microsoft 365 Copilot Data Protection and Privacy Architecture. Microsoft Technical Documentation, Redmond, 2024. Disponível em: https://learn.microsoft.com. Acesso em: 11 dez. 2025.

Notícias Relacionadas