Blog WatchGuard

A inteligência artificial continua a ser uma questão pendente para os especialistas em cibersegurança?

Num mundo tão tecnologicamente dependente como aquele em que vivemos, os indivíduos e as empresas estão cada vez mais vulneráveis às múltiplas ameaças existentes, desde ataques de ransomware e malware até ao roubo de dados e outras formas de cibercrime. Esta realidade sublinha a importância crescente de intervenção da inteligência artificial na cibersegurança como forma de prevenir, detetar e responder a potenciais violações de segurança que podem resultar na divulgação de informações sensíveis, prejuízos económicos e perda de confiança de parceiros e clientes. No entanto, se olharmos para o impacto específico da IA na cibersegurança, há aspetos positivos e negativos. 

Nem todos os profissionais no sector estão conscientes desta situação. De acordo com um inquérito recente, apenas 46% dos profissionais de segurança inquiridos defendem compreendem os impactos positivos e negativos desta tecnologia na cibersegurança. 

Tendo em conta o impacto crescente que a IA está a ter na cibersegurança, os utilizares devem compreender a magnitude da situação e saber como utilizar as soluções alimentadas por IA, bem como proteger-se de potenciais ataques que exploram esta mesma tecnologia. 

Novos casos de utilização da IA nos ciberataques 

Não é uma surpresa que os cibercriminosos tenham percebido que a IA é uma excelente ferramenta e que tornar os seus ataques mais eficazes. É precisamente por isso que muitos profissionais da cibersegurança têm vindo a estudar e a alertar para potenciais utilizações indevidas da IA há já algum tempo. 

Um bom exemplo é o Morris II. Este worm malicioso não incorpora inteligência artificial no seu funcionamento interno, mas o seu método de propagação explora vulnerabilidades em sistemas de IA generativa. Por outras palavras, embora este worm não seja orientado para a IA, a sua eficácia depende diretamente de sistemas que o são. Este malware foi desenvolvido por um grupo de investigadores do Cornell Tech, um centro de investigação da Universidade de Cornell, em Nova Iorque, com o objetivo de nos alertar para as ameaças que espreitam nos sistemas de IA generativa, enquanto salienta a necessidade de reforçar as medidas de segurança nestes ambientes através da implementação de medidas de controlo da utilização deste tipo de tecnologia. 

Os especialistas em cibersegurança também alertam para a elevada probabilidade de os hackers conseguirem contornar a proteção de ferramentas como o ChatGPT, utilizando-as depois para produzir conteúdos maliciosos e desenvolver novas formas de ataque. A utilização indevida de ferramentas alimentadas por IA pode causar muitos danos ao utilizador. 

Os modelos linguísticos como o ChatGPT podem ser utilizados de forma maliciosa se os utilizadores conseguirem contornar as restrições de segurança. Os controlos implementados nestes sistemas foram concebidos para impedir a geração de respostas que possam facilitar atividades ilícitas, como a criação de malware ou a divulgação de informações prejudiciais. No entanto, os cibercriminosos podem tentar contornar estas restrições manipulando a linguagem, utilizando descrições indiretas ou termos menos óbvios para atingir os seus objetivos.

Por exemplo, em vez de pedir diretamente um código para ransomware, um utilizador pode tirar partido dos ângulos mortos da ferramenta para descrever uma funcionalidade específica que faz parte de um programa malicioso sem mencionar explicitamente que se trata de malware. Isto poderia levar à geração de fragmentos de código que, embora não constituindo um código de malware completo, poderiam ser utilizados como base para o desenvolvimento de uma ferramenta maliciosa. 

Este processo pode resultar na criação de malware polimórfico, que muda constantemente a sua forma para escapar às soluções de segurança tradicionais, tornando mais difícil a sua deteção e mitigação. O malware polimórfico é particularmente perigoso porque utiliza a variabilidade do código para escapar às assinaturas de deteção, tornando-o uma ameaça difícil de controlar. 

Em última análise, a utilização incorreta de ferramentas alimentadas por IA generativa pode levar à criação automática de um novo malware cada vez mais evasivo. É importante reforçar as medidas de segurança nestes ambientes para preparar as empresas para esta ameaça cada vez mais real. 

Utilizar a IA para melhorar a cibersegurança 

A boa notícia é que a IA também pode ser aplicada para melhorar as soluções de cibersegurança e ter um impacto positivo na proteção dos sistemas da empresa, mesmo contra os ataques mais evasivos. Se o seu fornecedor de serviços geridos oferece uma solução EDR avançada, que baseia as suas principais funcionalidades de deteção e resposta a ameaças aos pontos finais na inteligência artificial, pode reforçar as capacidades de proteção das seguintes formas: 

  • Deteção de ameaças avançadas:

    Graças à aprendizagem automática caraterística da IA, as soluções são capazes de analisar grandes volumes de dados e detetar potenciais ameaças em tempo real, reconhecendo assim ameaças avançadas que as soluções de segurança tradicionais poderiam não detetar. Isto proporciona uma maior eficiência de deteção, reduzindo as hipóteses de ataques bem-sucedidos através da identificação precoce. 

  • Analise e previsão: 

    Estas tecnologias ajudam a obter análises que proporcionam uma compreensão profunda das técnicas, táticas e procedimentos (TTP) utilizados pelos cibercriminosos. A IA pode relacionar eventos passados com comportamentos suspeitos para facilitar a identificação de vulnerabilidades e reforçar a proteção no âmbito de um sistema baseado na prevenção. 

  • Resposta automatizada a incidentes:

    As soluções EDR, baseadas em IA, podem automatizar a resposta a incidentes, minimizando o tempo de reação, as suas consequências e a propagação do ataque. Quando uma ameaça é detetada, podem ser executadas ações pré-definidas, tais como isolar o dispositivo afetado, bloquear processos maliciosos e gerar alertas detalhados para os computadores, melhorando a eficácia dos esforços de proteção. 

Perante esta situação, é fundamental que as equipas de cibersegurança se informem e atualizem os seus conhecimentos, de forma a perceber como combater os novos tipos de ataques baseados em inteligência artificial e, assim, colocar os meios de prevenção e controlo contra possíveis ataques. No entanto, é igualmente importante saber como utilizá-la em seu benefício, para reforçar a proteção dos dispositivos contra ameaças cada vez mais sofisticadas e, assim, reduzir a superfície de ataque. Ao compreender o potencial da IA nas estratégias de cibersegurança ofensivas e defensivas, as empresas podem preparar-se para o papel omnipresente da IA na cibersegurança. 

Se pretende saber mais sobre a IA na cibersegurança, consulte estes artigos do nosso blog: