Sitemap

O Guia Essencial do AppSec para o Mundo dos LLMs: O Que Você Precisa Dominar

5 min readMay 24, 2025
Press enter or click to view image in full size

Nos últimos anos, o universo da tecnologia foi sacudido por uma onda de inovação: os Large Language Models (LLMs). De assistentes de codificação a ferramentas de geração de conteúdo, os LLMs estão se tornando parte das nossas aplicações. E com essa integração, surgem novas e complexas ameaças que nenhum Application Security Engineer pode ignorar.

Se você, assim como eu, vive e respira AppSec, este é o momento de expandir o seus conhecimentos. Tenho mergulhado neste assunto, e a segurança de LLMs não é apenas mais um item na sua lista, é uma disciplina emergente que exige um domínio aprofundado de novos conceitos e abordagens. É com base nos meus estudos e na minha experiência que compartilho aqui o que considero essencial para segurança no desenvolvimento de aplicações LLM.

Vamos mergulhar no que realmente precisamos saber para ser um contribuidor para a segurança no desenvolvimento de aplicações LLM.

1. Dominando o OWASP Top 10 para Aplicações LLM: A Sua Nova Bíblia

Esqueça por um momento a lista tradicional. A OWASP, nossa eterna aliada, reconheceu a urgência e lançou um Top 10 focado especificamente em LLMs. Este é o ponto de partida, o alicerce do conhecimento. Não basta apenas ler, precisamos internalizar cada um desses riscos e suas implicações.

  • LLM01: Prompt Injection: A “nova injeção SQL”. Entenda como inputs maliciosos podem sequestrar o comportamento do LLM, forçando-o a ignorar instruções, revelar informações ou realizar ações indesejadas. Desde a manipulação direta do prompt até a injeção indireta (quando o LLM “lê” dados maliciosos de fontes externas como um e-mail ou documento).
  • LLM02: Insecure Output Handling: O LLM gerou algo. E agora? Uma saída não tratada pode reintroduzir vulnerabilidades clássicas como XSS, SSRF ou até RCE em sistemas downstream. A validação e sanitização da saída são cruciais.
  • LLM03: Training Data Poisoning: A base de tudo. Se os dados de treinamento forem contaminados, o modelo pode aprender a se comportar de forma maliciosa ou ter vieses perigosos.
  • LLM04: Model Denial of Service: Ataques que visam exaurir os recursos do LLM, seja por prompts excessivamente complexos ou volume massivo, impactando a disponibilidade e gerando custos exorbitantes.
  • LLM05: Supply Chain Vulnerabilities: Modelos pré-treinados, bibliotecas, datasets de terceiros. A sua cadeia de suprimentos de IA é tão forte quanto o seu elo mais fraco.
  • LLM06: Sensitive Information Disclosure: LLMs podem, inadvertidamente, vazar dados confidenciais nas suas respostas. A prevenção de vazamento de PII (Informações de Identificação Pessoal) é um desafio constante.
  • LLM07: Insecure Plugin Design: Se a sua aplicação LLM interage com ferramentas ou plugins externos, o design de segurança dessas integrações é vital para evitar brechas.
  • LLM08: Excessive Agency: Um LLM com “agência” (capacidade de tomar ações autónomas) precisa de limites muito claros. Entender os riscos de permitir que o modelo execute ações sem supervisão adequada.
  • LLM09: Overreliance: A dependência excessiva em LLMs sem supervisão humana pode levar a decisões críticas baseadas em informações incorretas (alucinações) ou vieses, com sérias consequências.
  • LLM10: Model Theft: A propriedade intelectual de um modelo de LLM é valiosa. Conheça as técnicas para proteger o modelo contra roubo e inferência.

2. Entendendo a Arquitetura: Os Novos Pontos de Ataque

Nós não estamos mais protegendo apenas um REST API e um banco de dados. A arquitetura de uma aplicação LLM é um ecossistema complexo:

  • Ciclo de Vida do LLM: Desde a coleta de dados, passando pelo treinamento, fine-tuning, até a inferência e o deploy. Cada etapa tem seus riscos inerentes.
  • Interações de Componentes: Mapeie as interações entre o front-end, o backend, as APIs dos LLMs (sejam elas proprietárias ou de terceiros como OpenAI, Gemini, etc.), bancos de dados de vetores (para RAG), e outros serviços. Cada interface é um potencial ponto de ataque.
  • RAG (Retrieval-Augmented Generation): Se a sua aplicação busca informações externas para enriquecer as respostas do LLM, você precisa entender como proteger essa cadeia de recuperação. Uma injeção indireta de prompt pode vir de um documento “seguro” que o LLM busca.
  • Plugins e Ferramentas Externas: Se um LLM pode chamar outras ferramentas ou acessar recursos, a segurança dessas chamadas e as permissões de acesso são cruciais.

3. Técnicas de Mitigação: Novas Ferramentas, Novas Estratégias

As soluções de AppSec tradicionais são um ponto de partida, mas precisamos ir além:

  • Validação e Sanitização Reforçadas: Não apenas sanitizar inputs de utilizadores, mas também prompts complexos e, crucialmente, a saída do próprio LLM antes que ela seja apresentada ao utilizador ou usada em outras partes do sistema.
  • Guardrails e Filtros de Conteúdo: Implemente sistemas que atuem como moderadores, filtrando prompts e respostas para detectar conteúdo prejudicial, ataques de prompt injection ou vazamento de informações sensíveis.
  • Contextualização Segura: Use “system prompts” e técnicas de engenharia de prompt para guiar o LLM a operar dentro de um escopo seguro e restrito, minimizando a chance de desvios.
  • Princípio do Menor Privilégio: Se o LLM pode interagir com sistemas backend ou executar ações, garanta que ele tenha o menor privilégio possível, limitando a sua “agência”.
  • Monitorização e Observabilidade Detalhados: Implemente logs e telemetria robustos para registar prompts, respostas, e o comportamento do LLM. Isso é vital para detectar anomalias, tentativas de ataque e para a auditoria pós-incidente.
  • Human-in-the-Loop (HITL): Entenda quando a revisão humana é indispensável, especialmente em cenários de alto risco ou quando o LLM está a tomar decisões críticas.
  • Técnicas de Hardening de Modelo: Familiarize-se com conceitos como treinamento adversarial para tornar o modelo mais resistente a manipulações.

4. Segurança Responsável da IA: Além dos Bugs, as Implicações Éticas

Como AppSec, a nossa responsabilidade vai além da detecção de vulnerabilidades técnicas. Devemos considerar as implicações éticas e sociais, para apoiar os times de desenvolvimento, privacidade e outras áreas regulatórias:

  • Viés e Equidade: Entenda como vieses nos dados de treinamento podem levar a discriminação ou decisões injustas por parte do LLM, e como mitigar isso.
  • Alucinações e Factualidade: Compreenda o risco de LLMs “inventarem” informações. Isso pode ser explorado em ataques de desinformação ou phishing.
  • Privacidade de Dados: As regulamentações como LGPD/GDPR e a necessidade de proteger dados sensíveis que transitam pelo LLM, aplicando técnicas como anonimização e privacidade diferencial.
  • Transparência e Explicabilidade (XAI): A “caixa preta” dos LLMs dificulta entender por que uma decisão foi tomada. Busque por ferramentas e metodologias que aumentem a explicabilidade para facilitar auditorias e garantir a responsabilidade.

5. Ferramentas, Metodologias e Mentalidade Contínua

  • Threat Modeling: Adapte as suas metodologias de threat modeling (STRIDE, DREAD) para identificar e analisar ameaças específicas de LLMs.
  • Testes de Intrusão Específicos: Saiba como realizar pentests em aplicações LLM, incluindo técnicas de “jailbreak” e exploração de prompt injection.
  • Comunidade e Aprendizado Contínuo: A área de segurança de LLMs está em constante evolução. Participe de comunidades como a OWASP AI Exchange e OWASP Gen AI Security, siga pesquisas e esteja sempre experimentando e aprendendo.

Conclusão

O surgimento dos LLMs não é apenas uma evolução tecnológica, é uma redefinição do cenário de segurança de aplicações. Para um AppSec Engineer, isso significa uma oportunidade de ouro para se tornar uma referência num campo emergente e crítico.

Ao dominar o OWASP Top 10 para LLMs, entender as novas arquiteturas, aplicar técnicas de mitigação avançadas e abraçar a segurança responsável da IA, você estará não apenas protegendo aplicações, mas também moldando o futuro da segurança num mundo cada vez mais impulsionado pela inteligência artificial.

Prepare-se, estude e comece a aplicar. O futuro de AppSec também será garantir a segurança dos LLMs, e essa expertise é mais valiosa do que nunca.

--

--

Fernando Silva
Fernando Silva

Written by Fernando Silva

Application Security Engineer | OWASP Chapter Leader | AppSec | MSc CyberSecurity | Systems Development Analyst

No responses yet