Riscos de cibersegurança da IA generativa
À medida que o poder recém-descoberto da tecnologia de IA generativa emerge, o mesmo acontece com os riscos de cibersegurança da IA generativa. A IA generativa representa a fronteira tecnológica de ponta, combinando capacidades de aprendizagem automática (ML) e de inteligência artificial (IA).
Estamos à beira de um renascimento tecnológico em que as tecnologias de IA irão avançar exponencialmente. No entanto, os riscos associados à cibersegurança da IA generativa não podem ser negligenciados. Vamos explorar este ângulo para compreender como pode evitar os desafios de cibersegurança que resultam da utilização e abuso da IA generativa.
O que é a IA generativa?
A IA generativa, abreviatura de Inteligência Artificial generativa, refere-se a uma classe de técnicas de inteligência artificial que se centra na criação de novos dados que se assemelham ou são semelhantes aos dados existentes. Em vez de serem explicitamente programados para uma tarefa específica, os modelos de IA generativa aprendem padrões e estruturas a partir dos dados em que são treinados e, em seguida, geram novos conteúdos com base nesse conhecimento aprendido.
O principal objetivo da IA generativa é gerar dados que sejam indistinguíveis dos dados reais, fazendo com que pareçam ter sido criados por um humano ou provenientes da mesma distribuição que os dados originais. Esta capacidade tem inúmeras aplicações em vários domínios, como a geração de linguagem natural, a síntese de imagens, a composição musical, a conversão de texto em voz e até a geração de vídeo.
Porque é que a IA generativa é a próxima grande ameaça à cibersegurança?
A GPT-3, a GPT-4 e outras ferramentas de IA generativa não são imunes aos riscos de cibersegurança e às ciberameaças da IA generativa. As empresas devem implementar políticas para evitar riscos cibernéticos significativos associados à IA generativa.
Conforme salientado por Terence Jacksonconselheiro chefe de segurança da Microsoft, num artigo para a Forbes, a política de privacidade de plataformas como o ChatGPT indica a recolha de dados cruciais do utilizador, como o endereço IP, informações do browser e actividades de navegação, que podem ser partilhados com terceiros.
Jackson também alerta para as ameaças à cibersegurança colocadas pela IA generativa, que expande a superfície de ataque e oferece novas oportunidades de exploração aos hackers.
Além disso, um artigo da Wired de abril revelou as vulnerabilidades destas ferramentas, sublinhando os riscos cibernéticos da IA generativa.
Em apenas algumas horas, um investigador de segurança contornou os sistemas de segurança da OpenAI e manipulou a GPT-4, destacando as potenciais ciberameaças geradoras de IA e a necessidade de medidas robustas de cibersegurança.
Revelação dos 7 principais riscos de cibersegurança da IA generativa
A IA generativa é uma ferramenta poderosa para resolver problemas, mas apresenta alguns riscos. O risco mais óbvio é o de poder ser utilizada para fins maliciosos, como o roubo de propriedade intelectual ou a fraude.
Criação de e-mails de phishing
O maior risco de cibersegurança da IA generativa é a criação de phishing.
A ameaça do phishing é real e não está a desaparecer.
À medida que cada vez mais empresas utilizam o correio eletrónico e outras formas de comunicação digital para comercializar os seus produtos ou serviços, os criminosos estão a tornar-se mais sofisticados nos seus esforços para enganar as pessoas e levá-las a fornecer informações pessoais.
As burlas mais comuns são designadas por "phishing" porque envolvem frequentemente um falso e-mail enviado de uma fonte fidedigna (como o seu banco) que contém um anexo ou uma hiperligação que parece legítima mas que, na realidade, conduz a um falso site onde introduz as suas credenciais para obter acesso à sua conta.
Manipulação e envenenamento de modelos
Um dos principais riscos de cibersegurança da IA generativa é a manipulação e envenenamento de modelos. Este tipo de ataque envolve a manipulação ou alteração de um modelo existente de modo a produzir resultados falsos.
Por exemplo, um atacante pode alterar uma imagem para que se pareça com outra imagem da sua base de dados, em vez de ser o que é. O atacante poderia então utilizar estas imagens manipuladas como parte da sua estratégia de ataque contra a sua rede ou organização.
Ataques adversários
Os ataques adversários aos algoritmos de aprendizagem automática estão a tornar-se mais comuns, uma vez que os piratas informáticos procuram explorar as fraquezas destes sistemas.
A utilização de exemplos contraditórios - um ataque que leva um algoritmo a cometer um erro ou a classificar mal os dados - existe desde os primórdios da investigação em IA.
No entanto, à medida que os ataques adversários se tornam mais sofisticados e poderosos, ameaçam todos os tipos de sistemas de aprendizagem automática, incluindo modelos generativos ou chatbots.
Violações da privacidade dos dados
Uma preocupação comum com os modelos generativos é o facto de poderem revelar inadvertidamente dados sensíveis sobre indivíduos ou organizações.
Por exemplo, uma organização pode criar uma imagem utilizando modelos generativos que revelem acidentalmente informações confidenciais sobre os seus clientes ou empregados.
Se tal acontecer, pode dar origem a violações da privacidade e a acções judiciais por danos.
Deepfakes e meios de comunicação sintéticos
Os modelos generativos também podem ser utilizados para fins nefastos, gerando vídeos e gravações de áudio falsos que podem ser utilizados em deepfakes (vídeos falsos) ou meios sintéticos (notícias falsas). Embora estes ataques sejam preocupantes, é importante lembrar que a IA também pode ser aproveitada para utilizações positivas. Por exemplo, as ferramentas de geração de vídeo com IA são excelentes soluções para a criação de conteúdos, permitindo aos utilizadores produzir vídeos de alta qualidade para marketing, educação e entretenimento.
A tecnologia por detrás destes ataques é relativamente simples: alguém precisa de ter acesso ao conjunto de dados correto e a algumas ferramentas básicas de software para começar a criar conteúdos maliciosos.
Roubo de propriedade intelectual
O roubo de propriedade intelectual é uma das maiores preocupações da indústria tecnológica atual e só irá aumentar à medida que a inteligência artificial se torna mais avançada.
A IA generativa pode gerar dados falsos que parecem autênticos e aceitáveis para os humanos.
Este tipo de dados pode ser utilizado em vários sectores, incluindo os cuidados de saúde, as finanças, a defesa e a administração pública. Pode até criar contas falsas nas redes sociais ou fazer-se passar por uma pessoa em linha.
Utilização maliciosa de conteúdos gerados
A IA generativa também pode manipular conteúdos, alterando o significado ou o contexto de palavras ou frases em textos ou imagens numa página Web ou numa plataforma de redes sociais.
Por exemplo, se estivesse a utilizar uma aplicação que gerasse automaticamente legendas para imagens sem necessidade de intervenção humana. Permitiria a alguém alterar a legenda de "um cão branco" para "um gato preto" sem alterar nada na própria fotografia (apenas editando a legenda).
Como reforçar as suas defesas contra os riscos de cibersegurança da IA generativa
Em resposta a esta preocupação crescente, as organizações devem reforçar as suas defesas contra estes riscos.
Eis algumas dicas para o fazer:
Mudar para DMARC
DMARC é um protocolo de autenticação de correio eletrónico que ajuda a evitar ataques de falsificação de correio eletrónico e de phishing que se fazem passar pelo seu próprio domínio.
Ao implementar um analisador DMARCas organizações podem garantir que apenas os remetentes autorizados podem utilizar o seu domínio para comunicações por correio eletrónico, minimizando assim os riscos associados aos e-mails de phishing gerados por IA.
O DMARC fornece camadas adicionais de proteção, permitindo que os proprietários de domínios recebam relatórios sobre a entrega de correio eletrónico e tomem as medidas necessárias para reforçar a segurança do correio eletrónico, actuando assim como um escudo contra os riscos de cibersegurança da IA generativa.
É necessário implementar SPF ou DKIM ou ambos (recomendado) como pré-requisito para a implementação do DMARC.
Realizar auditorias de segurança
Outra forma de evitar que os hackers acedam ao seu sistema é realizar auditorias de cibersegurança.
Estas auditorias ajudarão a identificar potenciais pontos fracos no seu sistema e sugerirão como corrigi-los antes que se tornem problemas graves (tais como malware infecções por malware).
Formação contraditória
O treino contraditório é uma forma de simular o ataque contraditório e reforçar o modelo. Utiliza um adversário (ou um atacante) que tenta enganar o sistema dando-lhe respostas erradas. O objetivo é descobrir como o modelo reage e quais são as suas limitações, para que possamos conceber modelos mais robustos.
Extração robusta de características
Outra solução é a extração robusta de características (RFE). A RFE utiliza a aprendizagem profunda para extrair características relevantes de imagens em bruto. A técnica é escalável e pode ser utilizada em grandes conjuntos de dados. Também pode ser combinada com outras técnicas, como a Verificação por Amostragem (VTS) e a Deteção de Excedentes (OD), para melhorar a precisão da extração de características.
Arquitetura do modelo seguro
A Secure Model Architecture (SMA) usa uma arquitetura de modelo segura para evitar ataques que exploram vulnerabilidades em código de software, arquivos de dados ou outros componentes de um sistema de IA. A ideia por trás do SMA é que um invasor teria que encontrar uma vulnerabilidade no código, em vez de apenas explorar uma fraqueza no próprio sistema. A utilização de serviços abrangentes de auditoria de código de software é crucial para identificar e mitigar vulnerabilidades nos sistemas de IA, garantindo a integridade e a segurança das tecnologias generativas de IA contra ameaças cibernéticas sofisticadas.
Auditoria regular de modelos
A auditoria de modelos é, desde há muitos anos, uma parte essencial da cibersegurança. Envolve o exame dos modelos utilizados num sistema para garantir que são sólidos e estão actualizados. A auditoria de modelos também pode ser utilizada para detetar vulnerabilidades nos modelos, bem como para identificar modelos que possam ter sido corrompidos ou alterados por piratas informáticos.
Validação e filtragem de entradas
A validação de entrada é um dos passos mais importantes que um programador de modelos pode efetuar antes de implementar o seu modelo em ambientes de produção. A validação de entrada garante que os dados introduzidos num modelo não são imprecisos ou maliciosamente alterados por hackers que possam tentar explorar vulnerabilidades no sistema. A filtragem de entrada permite que os programadores especifiquem quais os tipos de dados que devem ser permitidos através dos seus modelos, impedindo também a passagem de quaisquer outros tipos de dados.
Palavras finais
Embora a tecnologia ofereça inúmeros benefícios e avanços, também abre a porta a potenciais vulnerabilidades e ameaças.
A capacidade da IA generativa para criar imagens, vídeos e textos falsos convincentes suscita preocupações relativamente ao roubo de identidade, às campanhas de desinformação e à fraude.
Além disso, a utilização maliciosa da IA generativa pode amplificar as ciberameaças existentes, como os ataques de phishing e a engenharia social.
À medida que esta tecnologia continua a evoluir, as organizações e os indivíduos devem dar prioridade a medidas de cibersegurança, incluindo autenticação robusta, monitorização contínua e avaliações regulares de vulnerabilidades, para mitigar os riscos associados à IA generativa.
Ao fazê-lo, podemos aproveitar o potencial desta tecnologia, protegendo-nos simultaneamente dos desafios inerentes à cibersegurança.
- 5 tipos de fraudes de e-mail da Segurança Social e como evitá-las - 3 de outubro de 2024
- PowerDMARC obtém o selo de líder do outono 2024 G2 em software DMARC - 27 de setembro de 2024
- 8 dicas seguras de marketing por e-mail para empresas on-line - 25 de setembro de 2024