NOVO: Relatório de Cibersegurança SANS ICS/OT 2025 já disponível

Obter o relatório
Utilizamos inteligência artificial para as traduções dos sítios e, embora nos esforcemos por garantir a exatidão, estas podem nem sempre ser 100% precisas. Agradecemos a sua compreensão.

Deteção de malware em modelos de IA com o MetaDefender Sandbox

Por que os modelos maliciosos de IA são a próxima fronteira nos ataques à cadeia de suprimentos - e como MetaDefender Sandbox expõe seus payloads ocultos.
por OPSWAT
Partilhar esta publicação

A inteligência artificial passou a fazer parte da vida quotidiana. De acordo com a IDC, prevê-se que as despesas globais em sistemas de IA ultrapassem os 300 mil milhões de dólares até 2026, o que demonstra a rapidez com que a adoção está a acelerar. A IA já não é uma tecnologia de nicho - está a moldar a forma como as empresas, os governos e os indivíduos funcionam.

Os programadores Software estão a incorporar cada vez mais a funcionalidade de Modelo de Linguagem Grande (LLM) nas suas aplicações. LLMs bem conhecidos, como o ChatGPT da OpenAI, o Gemini da Google e o LLaMA da Meta, estão agora integrados em plataformas empresariais e ferramentas de consumo. Desde os chatbots de apoio ao cliente até ao software de produtividade, a integração da IA está a aumentar a eficiência, a reduzir os custos e a manter as organizações competitivas.

Mas com cada nova tecnologia surgem novos riscos. Quanto mais confiamos na IA, mais apelativa ela se torna como alvo para os atacantes. Uma ameaça em particular está a ganhar força: modelos de IA maliciosos, ficheiros que parecem ferramentas úteis, mas que escondem perigos ocultos.

O risco oculto dos modelos pré-treinados

O treino de um modelo de IA a partir do zero pode demorar semanas, requer computadores potentes e conjuntos de dados enormes. Para poupar tempo, os programadores reutilizam frequentemente modelos pré-treinados partilhados através de plataformas como PyPI, Hugging Face ou GitHub, normalmente em formatos como Pickle e PyTorch.

À primeira vista, isto faz todo o sentido. Porquê reinventar a roda se já existe um modelo? Mas aqui está o senão: nem todos os modelos são seguros. Alguns podem ser modificados para esconder código malicioso. Em vez de simplesmente ajudarem no reconhecimento de voz ou na deteção de imagens, podem executar silenciosamente instruções nocivas no momento em que são carregados.

Os ficheiros Pickle são especialmente arriscados. Ao contrário da maioria dos formatos de dados, o Pickle pode armazenar não apenas informações, mas também código executável. Isto significa que os atacantes podem disfarçar malware dentro de um modelo que parece perfeitamente normal, fornecendo uma porta traseira oculta através do que parece ser um componente de IA fiável.

Da investigação aos ataques no mundo real

Avisos precoces - um risco teórico

A ideia de que os modelos de IA podem ser utilizados de forma abusiva para distribuir malware não é nova. Já em 2018, os investigadores publicaram estudos como o Model-Reuse Attacks on Deep Learning Systems, que mostrava que os modelos pré-treinados de fontes não fiáveis podiam ser manipulados para se comportarem de forma maliciosa.

No início, isto parecia uma experiência de pensamento - um cenário "e se" debatido nos círculos académicos. Muitos pensaram que continuaria a ser um nicho demasiado pequeno para ter importância. Mas a história mostra que todas as tecnologias amplamente adoptadas se tornam um alvo, e a IA não foi exceção.

Prova de conceito - Tornar o risco real

A passagem da teoria à prática aconteceu quando surgiram exemplos reais de modelos de IA maliciosos, demonstrando que os formatos baseados em Pickle, como o PyTorch, podem incorporar não só pesos de modelos, mas também código executável.

Um caso notável foi o star23/baller13, um modelo carregado no Hugging Face no início de janeiro de 2024. Continha um reverse shell escondido dentro de um ficheiro PyTorch e o seu carregamento poderia dar aos atacantes acesso remoto, permitindo ainda que o modelo funcionasse como um modelo de IA válido. Isto mostra que os investigadores de segurança estavam a testar ativamente provas de conceito no final de 2023 e em 2024.

Captura de ecrã da interface do utilizador mostrando um aviso sobre a deteção de malware em modelos de IA com um ficheiro analisado como inseguro e um aviso de metadados YAML
Modelo PoC no Hugging Face
Captura de ecrã do código Python que mostra comandos de shell invertidos, ilustrando a deteção de malware em modelos de IA para prova de conceito
Reverse Shell incorporado no Pytorch

Em 2024, o problema já não estava isolado. A JFrog registou mais de 100 modelos maliciosos de IA/ML carregados no Hugging Face, confirmando que esta ameaça tinha passado da teoria para ataques no mundo real.

Ataques à Supply Chain - dos laboratórios para a selva

Os atacantes também começaram a explorar a confiança criada nos ecossistemas de software. Em maio de 2025, pacotes PyPI falsos, como o aliyun-ai-labs-snippets-sdk e o ai-labs-snippets-sdk, imitavam a marca de IA da Alibaba para enganar os programadores. Embora estivessem em funcionamento há menos de 24 horas, estes pacotes foram descarregados cerca de 1600 vezes, demonstrando a rapidez com que os componentes de IA envenenados se podem infiltrar na cadeia de abastecimento.

Para os responsáveis pela segurança, isto representa uma dupla exposição:

  • Perturbação operacional se os modelos comprometidos envenenarem as ferramentas comerciais alimentadas por IA.
  • Risco regulamentar e de conformidade se a exfiltração de dados ocorrer através de componentes fiáveis, mas trojanizados.
Página do pacote Python SDK que mostra a segurança da cadeia de abastecimento e as pontuações de vulnerabilidade para detetar malware em modelos de IA
Pacotes PyPi maliciosos - exemplo 1
Captura de ecrã da interface do utilizador que mostra o alerta de risco da cadeia de abastecimento para deteção de malware em modelos de IA num pacote Python SDK
Pacotes PyPi maliciosos exemplo 2
Explorador de ficheiros que mostra um pacote PyPi comprometido com um ficheiro model.pt suspeito, ilustrando a deteção de malware em modelos de IA
Pacotes PyPi maliciosos exemplo 3

Evasão avançada - Ultrapassar as defesas do legado

Quando os atacantes viram o potencial, começaram a experimentar formas de tornar os modelos maliciosos ainda mais difíceis de detetar. Um investigador de segurança conhecido como coldwaterq demonstrou como a natureza do "Stacked Pickle" podia ser utilizada para esconder código malicioso.

Ao injetar instruções maliciosas entre várias camadas de objectos Pickle, os atacantes podiam esconder a sua carga útil, de modo a parecer inofensiva aos scanners tradicionais. Quando o modelo era carregado, o código oculto desempacotava-se lentamente, passo a passo, revelando o seu verdadeiro objetivo.

A interface de utilizador da análise de segurança mostra que 0 de 62 fornecedores detectaram malware no ficheiro modelo de IA, destacando a evasão na deteção
Não detectado no VirusTotal

O resultado é uma nova classe de ameaça à cadeia de abastecimento de IA que é simultaneamente furtiva e resiliente. Esta evolução sublinha a corrida ao armamento entre os atacantes que inovam novos truques e os defensores que desenvolvem ferramentas para os expor.

Como é que as detecções Metadefender Sandbox ajudam a prevenir ataques de IA

À medida que os atacantes melhoram os seus métodos, a simples verificação de assinaturas já não é suficiente. Modelos maliciosos de IA podem usar codificação, compressão ou peculiaridades do Pickle para ocultar suas cargas úteis. MetaDefender Sandbox aborda essa lacuna com uma análise profunda e multicamadas criada especificamente para formatos de arquivos de IA e ML.

Utilização de ferramentas de digitalização Pickle integradas

MetaDefender Sandbox integra o Fickling com analisadores OPSWAT personalizados para dividir os ficheiros Pickle nos seus componentes. Isso permite que os defensores:

  • Inspecionar importações invulgares, chamadas de funções não seguras e objectos suspeitos.
  • Identificar funções que nunca devem aparecer num modelo normal de IA (por exemplo, comunicações em rede, rotinas de encriptação).
  • Gerar relatórios estruturados para equipas de segurança e fluxos de trabalho SOC.
Interface de utilizador da ferramenta Fickling que mostra um veredito malicioso para detetar malware em modelos de IA utilizando a análise pickle
Obteve o veredito da análise de Fickling

A análise destaca vários tipos de assinaturas que podem indicar um ficheiro Pickle suspeito. Procura padrões invulgares, chamadas de função inseguras ou objectos que não se alinham com o objetivo de um modelo de IA normal.

Captura de ecrã da interface do utilizador que mostra a deteção de malware no ficheiro pickle do modelo de IA com veredito malicioso e importações Python inseguras listadas
A análise encontrou uma pista interessante num pickle

No contexto da formação em IA, um ficheiro Pickle não deve necessitar de bibliotecas externas para interação de processos, comunicação em rede ou rotinas de encriptação. A presença de tais importações é um forte indicador de intenção maliciosa e deve ser assinalada durante a inspeção.

IU que mostra os resultados da análise de ficheiros pickle para deteção de malware em modelos de IA, listando importações e chamadas de função suspeitas
O ficheiro Pickle chama uma função

Análise estática profunda

Para além da análise, a caixa de areia desmonta os objectos serializados e rastreia as suas instruções. Por exemplo, o código de operação REDUCEdo Pickle , quepode executar funções arbitrárias durante a desmontagem, é cuidadosamente inspeccionado. Os atacantes abusam frequentemente do REDUCE para lançar cargas ocultas, e a caixa de areia assinala qualquer utilização anómala.

Captura de ecrã da interface do utilizador que mostra a análise estática profunda a detetar malware no ficheiro pickle do modelo de IA com veredito malicioso e detalhes do código
Descobrir a concha invertida de star23/baller13

Os actores das ameaças escondem frequentemente o verdadeiro payload por detrás de camadas de codificação extra. Em incidentes recentes na cadeia de fornecimento do PyPI, o payload Python final foi armazenado como uma longa string base64, MetaDefender Sandbox descodifica e descompacta automaticamente estas camadas para revelar o conteúdo malicioso real.

Captura de ecrã da interface do utilizador que mostra a análise estática profunda a detetar malware em modelos de IA através do ficheiro pickle Aviso de opcode REDUCE e saída de código
A execução de código arbitrário contém uma carga útil codificada
Captura de ecrã da interface do utilizador que mostra o veredito da análise estática profunda de um ficheiro pickle malicioso para detetar malware em modelos de IA
O ficheiro Pickle executa comandos codificados em base64
Captura de ecrã do código Python que mostra a análise estática para deteção de malware em modelos de IA, relevante para a análise estática profunda
Carga útil após descodificação. (Encontrado na secção "Extracted Files" no relatório da caixa de areia MD)

Descobrir técnicas de evasão deliberada

O Stacked Pickle pode ser utilizado como um truque para ocultar um comportamento malicioso. Ao aninhar vários objectos Pickle e injetar o payload através das camadas, combinando-o depois com compressão ou codificação. Cada camada parece benigna por si só, pelo que muitos scanners e inspecções rápidas não detectam o payload malicioso.

Sandbox MetaDefender descasca essas camadas uma de cada vez: analisa cada objeto Pickle, descodifica ou descomprime segmentos codificados e segue a cadeia de execução para reconstruir o payload completo. Ao reproduzir a sequência de descompactação num fluxo de análise controlado, a caixa de areia expõe a lógica oculta sem executar o código num ambiente de produção.

Para os CISOs, o resultado é claro: as ameaças ocultas são descobertas antes que os modelos envenenados cheguem aos seus pipelines de IA.

A IU de deteção de malware destaca técnicas de evasão em modelos de IA utilizando ficheiros pickle, veredictos e análise de código suspeito
O ficheiro Pickle pode executar uma carga útil através do opcode REDUCE

Conclusão

Os modelos de IA estão a tornar-se os blocos de construção do software moderno. Mas, assim como qualquer componente de software, eles podem ser transformados em armas. A combinação de alta confiança e baixa visibilidade torna-os veículos ideais para ataques à cadeia de fornecimento.

Como mostram os incidentes do mundo real, os modelos maliciosos já não são hipotéticos - estão aqui agora. Detectá-los não é uma tarefa trivial, mas é fundamental.

MetaDefender Sandbox fornece a profundidade, automação e precisão necessárias para:

  • Detetar cargas ocultas em modelos de IA pré-treinados.
  • Descubra tácticas avançadas de evasão invisíveis aos scanners antigos.
  • Proteja os pipelines de MLOps, os desenvolvedores e as empresas contra componentes envenenados.

As organizações de setores críticos já confiam na OPSWAT para defender suas cadeias de suprimentos. Com o MetaDefender Sandbox, eles agora podem estender essa proteção para a era da IA, onde a inovação não vem à custa da segurança.

Saiba mais sobre MetaDefender Sandbox e veja como ele detecta ameaças ocultas em modelos de IA.

Indicadores de compromisso (IOCs)

star23/baller13: pytorch_model.bin
SHA256: b36f04a774ed4f14104a053d077e029dc27cd1bf8d65a4c5dd5fa616e4ee81a4

ai-labs-snippets-sdk: model.pt
SHA256: ff9e8d1aa1b26a0e83159e77e72768ccb5f211d56af4ee6bc7c47a6ab88be765

aliyun-ai-labs-snippets-sdk: model.pt
SHA256: aae79c8d52f53dcc6037787de6694636ecffee2e7bb125a813f18a81ab7cdff7

coldwaterq_inject_calc.pt
SHA256: 1722fa23f0fe9f0a6ddf01ed84a9ba4d1f27daa59a55f4f61996ae3ce22dab3a

Servidores C2
hxxps[://]aksjdbajkb2jeblad[.]oss-cn-hongkong[.]aliyuncs[.]com/aksahlksd

IPs
136.243.156.120
8.210.242.114

Mantenha-se atualizado com OPSWAT!

Inscreva-se hoje para receber as últimas actualizações da empresa, histórias, informações sobre eventos e muito mais.