Hackeando o programador: como a IA está sendo usada por cibercriminosos
A ascensão da IA no cibercrime
Ferramentas de IA conseguem produzir códigos prontos para rodar em segundos, desde scripts de automação até exemplos de exploits. Pesquisas recentes já alertam para o uso de modelos de linguagem na criação de malware e campanhas de phishing mais convincentes (KREBS, 2023).
Enquanto antes era necessário conhecimento técnico avançado, hoje até criminosos iniciantes conseguem explorar vulnerabilidades com auxílio da IA. Plataformas como dark web fóruns já discutem abertamente a utilização de modelos de código aberto para desenvolver ataques (BRUNDAGE et al., 2018).
Phishing, malware e engenharia social automatizada
Um dos maiores riscos está no phishing automatizado. A IA consegue redigir mensagens praticamente perfeitas, sem os erros gramaticais que antes entregavam fraudes. Além disso, modelos podem criar malwares polimórficos, capazes de se alterar constantemente para evitar detecção.
De forma ainda mais preocupante, sistemas de IA podem ser usados para engenharia social em larga escala, personalizando mensagens para diferentes perfis de vítimas, o que aumenta drasticamente a taxa de sucesso de ataques.
O programador no alvo: dependência e confiança excessiva
Ou seja, a IA não está apenas ajudando cibercriminosos, mas pode estar ensinando más práticas de segurança a programadores desatentos.
O futuro: defesa com IA contra ataque com IA
A tendência é clara: assim como cibercriminosos exploram a IA, empresas de segurança já estão utilizando inteligência artificial para detectar anomalias, prever ataques e automatizar respostas. No entanto, a corrida é desigual, já que a criatividade humana somada ao poder de modelos generativos cria um campo de batalha em constante mutação.
O programador moderno precisará desenvolver não apenas habilidades técnicas, mas também uma visão crítica e ética sobre o uso da IA.
Conclusão
A inteligência artificial representa uma revolução tanto para o desenvolvimento de software quanto para o cibercrime. Se por um lado ela democratiza a programação, por outro amplia o arsenal dos atacantes digitais.
O programador que deseja se proteger precisa assumir uma postura de curador e crítico, revisando o que a IA produz e entendendo como essas tecnologias podem ser manipuladas por agentes mal-intencionados.
Mais do que nunca, segurança e ética caminham lado a lado. No futuro, a grande questão não será apenas como usar a IA, mas como não ser usado por ela.
Por Robson Carrilho
Estudante de Engenharia de Software
Referências
BRUNDAGE, Miles et al. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. arXiv, 2018. Disponível em: https://arxiv.org/abs/1802.07228
Acesso em: 19 ago. 2025.
KREBS, Brian. ChatGPT, AI and the Future of Cybercrime. Krebs on Security, 2023. Disponível em: https://krebsonsecurity.com
Acesso em: 19 ago. 2025.
PEARCE, Henry et al. Asleep at the Keyboard? Assessing the Security of GitHub Copilot’s Code Contributions. IEEE Symposium on Security and Privacy, 2022. Disponível em: https://arxiv.org/abs/2108.09293
Acesso em: 19 ago. 2025.

Comentários
Postar um comentário