Hackeando o programador: como a IA está sendo usada por cibercriminosos



Nos últimos anos, a inteligência artificial  deixou de ser apenas uma ferramenta de produtividade e passou a ocupar um espaço estratégico até no cibercrime. Modelos de linguagem, como o ChatGPT, e ferramentas de automação avançada estão sendo explorados não apenas para gerar código útil, mas também para criar ataques sofisticados.

Essa nova realidade levanta uma preocupação séria: até que ponto a IA pode ser usada contra os próprios programadores e empresas que dependem de software seguro?

A ascensão da IA no cibercrime

Ferramentas de IA conseguem produzir códigos prontos para rodar em segundos, desde scripts de automação até exemplos de exploits. Pesquisas recentes já alertam para o uso de modelos de linguagem na criação de malware e campanhas de phishing mais convincentes (KREBS, 2023).


Enquanto antes era necessário conhecimento técnico avançado, hoje até criminosos iniciantes conseguem explorar vulnerabilidades com auxílio da IA. Plataformas como dark web fóruns já discutem abertamente a utilização de modelos de código aberto para desenvolver ataques (BRUNDAGE et al., 2018).

Phishing, malware e engenharia social automatizada

Um dos maiores riscos está no phishing automatizado. A IA consegue redigir mensagens praticamente perfeitas, sem os erros gramaticais que antes entregavam fraudes. Além disso, modelos podem criar malwares polimórficos, capazes de se alterar constantemente para evitar detecção.

De forma ainda mais preocupante, sistemas de IA podem ser usados para engenharia social em larga escala, personalizando mensagens para diferentes perfis de vítimas, o que aumenta drasticamente a taxa de sucesso de ataques.

O programador no alvo: dependência e confiança excessiva

Ao mesmo tempo em que programadores usam IA para acelerar seu trabalho, muitos estão copiando trechos de código sem revisar. Isso abre espaço para injeção de backdoors em pacotes aparentemente legítimos. Como destacam Pearce et al. (2022), a presença de dados contaminados em repositórios públicos pode fazer com que a própria IA propague vulnerabilidades.

Ou seja, a IA não está apenas ajudando cibercriminosos, mas pode estar ensinando más práticas de segurança a programadores desatentos.

O futuro: defesa com IA contra ataque com IA

A tendência é clara: assim como cibercriminosos exploram a IA, empresas de segurança já estão utilizando inteligência artificial para detectar anomalias, prever ataques e automatizar respostas. No entanto, a corrida é desigual, já que a criatividade humana somada ao poder de modelos generativos cria um campo de batalha em constante mutação.

O programador moderno precisará desenvolver não apenas habilidades técnicas, mas também uma visão crítica e ética sobre o uso da IA.

Conclusão

A inteligência artificial representa uma revolução tanto para o desenvolvimento de software quanto para o cibercrime. Se por um lado ela democratiza a programação, por outro amplia o arsenal dos atacantes digitais.

O programador que deseja se proteger precisa assumir uma postura de curador e crítico, revisando o que a IA produz e entendendo como essas tecnologias podem ser manipuladas por agentes mal-intencionados.

Mais do que nunca, segurança e ética caminham lado a lado. No futuro, a grande questão não será apenas como usar a IA, mas como não ser usado por ela.


Por Robson Carrilho
Estudante de Engenharia de Software


Referências

BRUNDAGE, Miles et al. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. arXiv, 2018. Disponível em: https://arxiv.org/abs/1802.07228

Acesso em: 19 ago. 2025.

KREBS, Brian. ChatGPT, AI and the Future of Cybercrime. Krebs on Security, 2023. Disponível em: https://krebsonsecurity.com

 Acesso em: 19 ago. 2025.

PEARCE, Henry et al. Asleep at the Keyboard? Assessing the Security of GitHub Copilot’s Code Contributions. IEEE Symposium on Security and Privacy, 2022. Disponível em: https://arxiv.org/abs/2108.09293

 Acesso em: 19 ago. 2025.

Comentários

Postagens mais visitadas