As pessoas já estão tentando fazer com que o ChatGPT escreva malware

gettyimages-1245391800.jpg

O chatbot AI ChatGPT tem criado muita emocão no curto período em que está disponível e agora parece que foi recrutado por alguns indivíduos em tentativas de gerar código malicioso.

O ChatGPT é uma ferramenta de processamento de linguagem natural movida por IA que interage com os usuários de forma humana e conversacional. Entre outras coisas, pode ser usado para ajudar com tarefas como compor e-mails, redigir ensaios e código.

Também: O que é o ChatGPT e por que ele é importante? O que você precisa saber

A ferramenta de chatbot foi lançada pelo laboratório de pesquisa em inteligência artificial OpenAI em novembro e gerou ampla interesse e discussão sobre como a IA está se desenvolvendo e como ela poderia ser usada no futuro.

Mas como qualquer outra ferramenta, nas mãos erradas ela pode ser usada para fins nefastos; e pesquisadores de cibersegurança da Check Point dizem que os usuários de comunidades de hacking clandestinas já estão experimentando como ChatGPT pode ser usado para ajudar a facilitar ataques cibernéticos e apoiar operações maliciosas.

"Atacantes com muito poucos conhecimentos técnicos - até mesmo zero conhecimento em tecnologia - podem ser capazes de criar ferramentas maliciosas. Isso também poderia tornar as operações diárias de cibercriminosos sofisticados muito mais eficientes e fáceis - como a criação de diferentes partes da cadeia de infecção", disse Sergey Shykevich, gerente de grupo de inteligência de ameaças da Check Point, à ZDNET.

Os termos de serviço da OpenAI proíbem especificamente a geração de malware, que ela define como "conteúdo que tenta gerar ransomware, keyloggers, vírus ou outro software destinado a impor algum nível de dano". Também proíbe tentativas de criar spam, bem como casos de uso voltados para crimes cibernéticos.

No entanto, a análise da atividade em vários fóruns de hacking underground sugere que os criminosos cibernéticos já estão usando o ChatGPT para desenvolver ferramentas maliciosas — e, em alguns casos, já está permitindo que criminosos cibernéticos de baixo nível, que não possuem habilidades de desenvolvimento ou codificação, criem malware.

Também: O assustador futuro da internet: Como a tecnologia de amanhã apresentará ameaças de cibersegurança ainda maiores

Num tópico de fórum que aparece em finais de dezembro, o utilizador descreveu como estava a utilizar o ChatGPT para recriar variedades de malware e técnicas descritas em publicações de pesquisa e relatórios sobre malware comum.

Ao fazer isso, eles conseguiram criar um malware ladrão de informações baseado em Python que procura por arquivos comuns, incluindo documentos do Microsoft Office, PDFs e imagens, copia-os e depois faz upload para um servidor de protocolo de transferência de arquivos.

O mesmo utilizador também demonstrou como utilizou o ChatGPT para criar malware baseado em Java, que, usando o PowerShell, poderia ser aproveitado para transferir e executar outros malwares em sistemas infetados, de forma encoberta.

Os investigadores notam que o usuário do fórum que criou esses tópicos parece ser "orientado tecnologicamente" e compartilhou as postagens para mostrar a cibercriminosos menos habilidosos como utilizar ferramentas de Inteligência Artificial para fins maliciosos, com exemplos reais de como isso pode ser feito.

Um usuário publicou um script em Python, o qual eles afirmaram ser o primeiro script que eles já criaram. Após discussão com outro membro do fórum, ele disse que ChatGPT os ajudou a criá-lo.

A análise do script sugere que foi projetado para criptografar e descriptografar arquivos, o que, com algum trabalho, poderia ser transformado em ransomware, levando potencialmente à perspectiva de criminosos cibernéticos de baixo nível desenvolverem e distribuírem suas próprias campanhas de extorsão.

"Todos os códigos acima mencionados podem, é claro, ser usados de forma benéfica. No entanto, este script pode ser facilmente modificado para criptografar completamente a máquina de alguém sem qualquer interação do usuário. Por exemplo, pode potencialmente transformar o código em ransomware se os problemas de script e sintaxe forem corrigidos," disse a Check Point.

"Será necessário fazer algumas melhorias no código e na sintaxe, mas conceitualmente, quando estiver operacional, esta ferramenta poderá realizar ações semelhantes às do ransomware", disse Shykevich.

Também: Cibersegurança: Estas são as novas preocupações para 2023

Mas não é só o desenvolvimento de malware que os criminosos cibernéticos estão experimentando com o ChatGPT; na Véspera de Ano Novo, um membro do fórum underground postou um tópico demonstrando como eles usaram a ferramenta para criar scripts que poderiam operar um mercado automatizado na dark web para comprar e vender detalhes de contas roubadas, informações de cartões de crédito, malwares e muito mais.

O criminoso virtual até mostrou um trecho de código que foi gerado usando uma API de terceiros para obter preços atualizados das criptomoedas Monero, Bitcoin e Ethereum como parte de um sistema de pagamento para um mercado na dark web.

É difícil saber se atividades cibernéticas maliciosas geradas com a ajuda do ChatGPT estão funcionando ativamente na natureza, porque, como explica Sykevich, "do ponto de vista técnico, é extremamente difícil saber se um malware específico foi escrito usando ChatGPT ou não".

No entanto, à medida que aumenta o interesse pelo ChatGPT e outras ferramentas de IA, elas vão atrair a atenção de criminosos cibernéticos e fraudadores que procuram explorar a tecnologia para ajudar a realizar campanhas maliciosas a baixo custo e com o mínimo de esforço necessário. A ZDNET entrou em contato com a OpenAI para comentar, mas ainda não recebeu uma resposta no momento da publicação.

Artigos relacionados

Ver mais >>