A Inteligência Artificial (IA) é uma faca de dois gumes: embora seja benéfica e útil em muitos aspetos – nomeadamente para ajudar as empresas a serem mais produtivas e a defenderem-se mais eficazmente contra as ciberameaças -, também está a ser utilizada por hackers como um poderoso veículo para ciberataques.

 

Tal como qualquer outra tecnologia, é importante compreender que a IA também tem pontos fracos e pode ser corrompida. Então, como é que isso acontece exatamente? Que métodos estão a ser utilizados? E o que significa isso para o futuro da cibersegurança, especificamente nas organizações? Vamos descobrir.

 

 

Uma arma para hackers

O especialista em cibersegurança da Alter Solutions Amine Boukar concorda que “estamos a assistir a um novo tipo de ciberataques que utiliza a tecnologia de IA para atingir objetivos maliciosos”. “Nos últimos anos, a IA alcançou um enorme progresso. Embora a maioria dos especialistas e entusiastas concorde que existe um lado negro escondido por detrás dos seus benefícios aparentes, muitos debates sobre as implicações negativas da IA negligenciam o impacto na cibersegurança, centrando-se antes nas suas implicações económicas, éticas e sociais. No entanto, é crescente a preocupação da comunidade de cibersegurança relativamente ao impacto que a IA pode ter na privacidade e na segurança dos nossos sistemas de informação”, salienta Amine.


Teoricamente falando, os sistemas de IA utilizam algoritmos de Machine Learning (ML) para processar grandes quantidades de dados e gerar resultados personalizados. Dependem dos conjuntos de dados utilizados para alimentar esse algoritmo, pelo que, naturalmente, é possível que um sistema de IA possa ter problemas de funcionamento ou expor vulnerabilidades quando os seus dados sofrem qualquer disrupção ou alteração inesperada.


Os hackers olham para estes avanços tecnológicos como uma oportunidade para enganar a IA e utilizá-la para cumprir os seus próprios objetivos. A questão é “como?”. De facto, existem várias formas de os cibercriminosos tirarem partido das tecnologias de IA, como através dos chatbots generativos (por exemplo, o ChatGPT), do preenchimento automático, dos filtros de spam ou dos sistemas de reconhecimento facial. Amine Boukar explica alguns desses métodos:

  • Deepfake
    “Como o nome indica, esta combinação de 'Deep Learning' e 'Fake' consiste na utilização de modelos generativos para falsificar conteúdos de vídeo e áudio, com o objetivo de se fazer passar por outra pessoa ou espalhar desinformação. A tecnologia Deepfake está a ser utilizada em ataques de engenharia social, substituindo a voz ou o rosto de uma pessoa pelo de outra, com o intuito de enganar alguém e levá-la a revelar informações sensíveis. Desde o roubo de identidade à extorsão, as implicações desta tecnologia são infinitas. Hoje em dia, é urgente adotar medidas robustas para detetar e prevenir este tipo de ataques”.

  • Phishing potenciado pela IA
    “A IA não só provocou o aparecimento de novos tipos de ataques, como o deepfake, como também melhorou os tradicionais que já existem há muito tempo. Atualmente, os atacantes estão a utilizar ativamente a IA para gerar mensagens de correio eletrónico convincentes para os seus ataques de phishing, aumentando a probabilidade de enganar os destinatários para que cliquem num link malicioso ou divulguem informações sensíveis.”

  • Malware potenciado pela IA
    “Os malwares alimentados por IA também levantam preocupações sobre a eficácia das soluções de proteção anti-malware contra esta nova ameaça. Ao contrário do malware tradicional, esta nova classe de malware pode adaptar o seu comportamento em tempo real com base no ambiente onde é executado, tornando-o mais difícil de detetar pelas soluções de segurança tradicionais. Um exemplo é o BlackMamba, um malware polimórfico desenvolvido como uma Prova de Conceito (PoC), que conseguiu escapar à deteção de diferentes soluções de segurança. Embora o BlackMamba seja apenas uma PoC, e ainda não tenhamos encontrado um malware alimentado por IA em estado selvagem, é importante mantermo-nos alerta e prepararmo-nos proativamente para o surgimento de ameaças deste tipo”.

 

Além das estratégias mencionadas por Amine, os hackers estão também a tornar-se bastante engenhosos a decifrar CAPTCHAs e a descobrir palavras-passe. Ao navegar na Internet, todos nós já nos deparámos com testes simples para provar a nossa identidade humana, como escrever os caracteres que vemos numa sequência de letras ou números distorcidos, ou identificar quais as imagens (entre várias) que têm carros. Isso é o CAPTCHA (Completely Automated Public Turing test to tell Computers and Humans Apart). No entanto, esta técnica já não é capaz de detetar intrusos mais sofisticados. Com a ajuda da IA e de ML, os hackers podem também realizar tarefas como descobrir palavras-passe, com uma precisão e velocidade notáveis.


Muito recentemente, uma nova ferramenta de IA – uma versão alternativa obscura do modelo GPT – foi concebida especificamente para atividades maliciosas: WormGPT. Diz-se que está otimizada para realizar as atividades acima referidas (criar malware e e-mails de phishing, por exemplo) e, ao contrário do ChatGPT, não restringe qualquer prática ilegal ou pedido de geração de texto. Não há limites.


Embora todo este cenário pareça assustador, o especialista em cibersegurança Amine Boukar esclarece que “aproveitar a IA para ciberataques representa um desafio significativo para os atacantes”. “A complexidade dos ataques conduzidos por IA requer um elevado nível de conhecimentos e recursos, tornando-os acessíveis apenas a atacantes sofisticados e avançados.”

 

Quais são as intenções dos cibercriminosos?

Há uma miríade de possibilidades, mas uma das motivações mais comuns é abrir oportunidades de roubo/extorsão, especialmente com foco em empresas e grandes organizações. Por outras palavras, o objetivo é obter ganhos financeiros.


Os hackers podem também estar à procura de algum tipo de reconhecimento por parte dos seus pares, ou simplesmente desejarem ultrapassar um grande desafio e obter uma sensação de realização.


Também podem existir objetivos militares e políticos, algo conhecido como hacktivismo (por exemplo: influenciar a opinião pública sobre um determinado assunto ou pessoa; sensibilizar para questões de direitos humanos numa organização; entre outros).


Num contexto profissional, pode também existir a intenção de cometer espionagem corporativa, ou seja, obter uma vantagem comercial sobre uma organização concorrente, acedendo aos seus dados.

 

 

Tirar partido da Inteligência Artificial na cibersegurança

Quando se trata de ciberataques impulsionados pela IA, responder na mesma moeda parece ser a abordagem preferencial. Isto significa que as empresas e organizações estão a integrar IA e ML nos seus sistemas de segurança, como forma de desenvolver ferramentas poderosas capazes de detetar ameaças e responder a ciberataques, bem como de aperfeiçoar os dados de treino.


“Existe uma corrida ao armamento contínua tanto de defensores, como de atacantes. Como resultado, o lado defensor está continuamente a desenvolver e a implementar soluções de segurança baseadas em IA para combater as ameaças de IA”, explica Amine.


De facto, um estudo recente realizado pela Acumen Research and Consulting afirma que o mercado global de produtos de segurança baseados em IA deverá crescer 27,8% entre 2022 e 2030, atingindo o valor de mercado de 133,8 mil milhões de dólares (cerca de 120,1 mil milhões de euros).

 

Benefícios da utilização de IA em cibersegurança
  • Melhor e mais rápida resposta a ameaças
    Os sistemas de IA são treinados para analisar grandes quantidades de dados e identificar potenciais ameaças. As respostas também podem ser automatizadas, o que as torna mais rápidas e precisas.

  • Aprendizagem contínua
    Uma das vantagens dos algoritmos de IA é o facto de aprenderem com experiências anteriores para se tornarem mais eficientes em ataques futuros.

  • Menos erros humanos
    O facto de a IA trabalhar com um processo automatizado reduz a necessidade de intervenção humana e, consequentemente, o risco de cometer erros.

  • Redução de custos
    Ao prevenir violações de dados e ciberataques, a cibersegurança baseada em IA ajuda as organizações a evitar despesas desnecessárias. Além disso, podem reduzir custos de mão de obra ou utilizar melhor os seus profissionais para outras atividades essenciais.

 

Onde a IA se cruza com as práticas de segurança tradicionais

Os especialistas afirmam que a IA não consegue neutralizar cibercriminosos por si só, tal como as abordagens mais tradicionais não conseguem. É por isso que a melhor defesa é fazê-las trabalhar em conjunto e complementarem-se mutuamente.


Estas são algumas das práticas de segurança a serem atualmente reforçadas pela IA:

  • Pentesting (testes de penetração);
  • Autenticação Multi-fator (MFA);
  • Tecnologia biométrica: reconhecimento facial, scanner de impressões digitais, etc.;
  • Deteção de vírus/malware;
  • Prevenção de perda de dados;
  • Deteção/prevenção de fraudes;
  • Deteção/prevenção de intrusões;
  • Gestão de identidades e acessos;
  • Gestão de risco de privacidade e de compliance.

 

 

Olhar para o futuro

Tendo em conta o que sabemos até agora, Amine Boukar, especialista em cibersegurança da Alter Solutions, conclui que “a IA representa uma ameaça séria que os profissionais de segurança devem considerar, não sendo sensato descartar totalmente esta ameaça”.


“Por outro lado”, acredita, “não devemos ceder ao exagero. A publicidade excessiva que rodeia a IA pode facilmente levar a conceções erradas e a decisões incorretas em matéria de segurança. A abordagem mais razoável é avaliar os riscos reais da IA, mantendo uma perspetiva equilibrada e racional”.

Partilha este artigo