Sitemap

A Crise de Identidade Não-Humana (NHI) na Era da IA

5 min readJun 2, 2025
Press enter or click to view image in full size

A proliferação de agentes de IA, bots de CI/CD e contas de serviço tem levado a um aumento massivo de NHIs (Identidade Não-Humana) em ambientes de nuvem corporativos. Estima-se que muitas empresas gerenciem pelo menos 45 identidades de máquina para cada usuário humano [3]. Essas NHIs requerem segredos (como chaves de API, tokens e certificados) para autenticação e acesso a outros sistemas, criando uma enorme e complexa teia de dependências.

A raiz do problema é a “proliferação de segredos”, onde credenciais são frequentemente expostas ou mal gerenciadas. Relatórios indicam que milhões de segredos foram encontrados em plataformas públicas, e repositórios com IA assistida (como GitHub Copilot) mostraram uma propensão maior a vazamentos [3]. Ao contrário das identidades humanas, as NHIs frequentemente carecem de políticas robustas para rotação de credenciais, escopo de permissões e desativação de contas, resultando em vulnerabilidades que podem ser exploradas por atacantes por longos períodos [3, 8].

Tipos de IA e Seus Riscos de Identidade

A medida que a IA se torna mais sofisticada, é crucial entender os diferentes tipos e seus riscos de segurança de identidade [10]:

  • Fluxos de Trabalho de IA (AI Workflows): Automações estruturadas que seguem regras predefinidas, usando IA para processamento de dados ou reconhecimento de padrões.
    - Risco: Baixo, mas com visibilidade limitada devido ao uso de contas de serviço compartilhadas e potencial para permissões excessivas ou lacunas no ciclo de vida [10].
  • Agentes de IA (AI Agents): Tomam decisões em tempo real dentro de um escopo predefinido, ajustando o comportamento com base em entradas de dados.
    - Risco: Médio a alto, com o perigo de identidades superprivilegiadas e a manipulação de ferramentas de segurança por agentes comprometidos [10].
  • IA Agêntica (Agentic AI): O nível mais avançado, onde os sistemas definem seus próprios objetivos e evoluem dinamicamente com mínima intervenção humana.
    - Risco: Alto a crítico, com a capacidade de contornar políticas de segurança, proliferação imprevisível de identidades e amplificação de ameaças em caso de comprometimento [10].

Possíveis Controles para Reduzir o Risco de NHI Relacionado à IA

Para mitigar os riscos associados às NHIs impulsionadas pela IA, práticas essenciais incluem [3]:

  1. Auditar e Limpar Fontes de Dados: Remover ou revogar segredos de fontes de dados acessadas por LLMs para evitar a exposição acidental de credenciais [3].
  2. Centralizar a Gestão de NHIs Existentes: Criar um inventário e gerenciar centralmente todas as NHIs e seus segredos. Isso permite a rotação automatizada de credenciais e a aplicação de políticas. Ferramentas como HashiCorp Vault, CyberArk ou AWS Secrets Manager podem auxiliar [3].
  3. Prevenir Vazamentos de Segredos em Implementações de LLM: Implementar salvaguardas no ciclo de vida do desenvolvimento de software para evitar segredos codificados. Ferramentas de detecção de segredos podem ser usadas em fluxos de trabalho de desenvolvedores [3, 9].
  4. Melhorar a Segurança dos Logs: Higienizar os logs antes do armazenamento ou envio para ferramentas de terceiros, pois logs podem conter múltiplas cópias de segredos vazados [3, 9].
  5. Restringir o Acesso a Dados da IA: Aplicar o princípio do menor privilégio aos agentes de IA, concedendo-lhes apenas o acesso estritamente necessário aos dados. Conceder acesso excessivo pode levar a abusos e incidentes de segurança [3].

Riscos Comuns e Perguntas Essenciais para Líderes de Segurança

Além dos riscos específicos por tipo de IA, desafios comuns afetam todas as identidades movidas pela IA [10]:

  • Descoberta e Gestão de Inventário: Falta de visibilidade sobre quantas identidades de IA existem e seus acessos.
  • Governança de Identidade e Gestão do Ciclo de Vida: Identidades de IA frequentemente carecem da mesma supervisão que contas humanas, levando a privilégios excessivos e contas órfãs.
  • Detecção de Ameaças: Contas de IA comprometidas podem ser usadas para manipular fluxos de trabalho ou exfiltrar dados.
  • Identificação de Propriedade Humana: A falta de propriedade clara dificulta a responsabilização.
  • Desafios de Remediação: Incidentes com agentes de IA podem escalar em segundos, exigindo respostas em tempo real.
  • Falta de Documentação: Falha em documentar a finalidade original de uma identidade de IA.

Líderes de segurança devem fazer perguntas cruciais antes de adotar a IA, abrangendo gestão de identidade e controle de acesso, detecção de ameaças e mitigação de riscos, ciclo de vida e propriedade, e conformidade e governança [10].

O OWASP Top 10 para LLMs e Gen AI Apps é uma ferramenta essencial que destaca as vulnerabilidades mais críticas em aplicações que utilizam LLMs [11]. Embora o foco não seja apenas em NHIs, muitos pontos têm correlação direta.

Pontos de Vista Complementares

  • Adoção do Modelo Zero Trust: Um modelo de segurança Zero Trust é crucial. Ele rejeita a confiança implícita, exigindo verificação contínua de usuários e dispositivos, incluindo NHIs, com acesso just-in-time e just-enough-access [1, 2, 10]. Soluções como Token Security oferecem controles de acesso Zero Trust para agentes de IA [10].
  • Gestão Automatizada do Ciclo de Vida: A automação no provisionamento, rastreamento e desativação de contas de NHI é fundamental para evitar erros manuais e garantir que o acesso seja concedido e revogado de forma eficiente [1, 10].
  • Monitoramento Aprimorado e Detecção de Anomalias: A vigilância constante é vital. Sistemas de monitoramento de identidade ativos podem detectar rapidamente comportamentos suspeitos e acionar alertas. Isso inclui a identificação de padrões de uso de recursos incomuns ou tentativas de acesso anormais [1, 10]. Soluções como o GitGuardian Non-Human Identity Security Platform e Token Security oferecem descoberta e visibilidade de identidades de IA, monitoramento comportamental e detecção de ameaças [9, 10].
  • Governança de IA e Diretrizes Éticas: A segurança da IA também se estende a uma governança abrangente, incluindo o desenvolvimento de diretrizes éticas e estruturas regulatórias [6, 7].
  • Segurança da Cadeia de Suprimentos da IA: É essencial testar ferramentas de terceiros em ambientes isolados antes da integração e evitar integrações não verificadas para garantir que apenas componentes examinados sejam usados em produção [2, 11].

Conclusão

A segurança das identidades não-humanas é um pilar fundamental para o sucesso e a segurança das implementações de IA em larga escala. Ao adotar uma abordagem proativa que inclui auditoria de dados, centralização da gestão de NHIs, prevenção de vazamentos de segredos, segurança de logs, restrição de acesso e a integração de princípios como o Zero Trust e a automação do ciclo de vida, as organizações podem construir uma base sólida para escalar suas iniciativas de IA com confiança. A conscientização dos desenvolvedores e a colaboração entre equipes de segurança e desenvolvimento são igualmente cruciais para navegar neste novo panorama de ameaças e liberar todo o potencial da automação inteligente sem comprometer a segurança.

Referências

  1. 15 Identity and Access Management (IAM) Best Practices — Reco
  2. What Are Non-Human Identities? Challenges and Best Practices — Legit Security
  3. AI Agents and the Non‑Human Identity Crisis: How to Deploy AI More Securely at Scale — The Hacker News
  4. Doppler — Relevance AI
  5. CyberArk Announces Identity Security Solution to Secure AI Agents At Scale
  6. AI Governance in 2025: A Full Perspective on Governance for Artificial Intelligence — Splunk
  7. The future of AI: Why trust and governance matter — Issue 2 2025 — SMART Security Solutions
  8. The Identities Behind AI Agents: A Deep Dive Into AI & NHI — The Hacker News
  9. Non-Human Identity Security in the Age of AI — GitGuardian Blog
  10. NHI and the Rise of AI agents: The Security Risks Enterprises Can’t Ignore — Token Security Blog
  11. OWASP Top 10 for Large Language Model Applications

--

--

Fernando Silva
Fernando Silva

Written by Fernando Silva

Application Security Engineer | OWASP Chapter Leader | AppSec | MSc CyberSecurity | Systems Development Analyst

No responses yet