Notícias de dispositivos móveis, gadgets, aplicativos Android

ChatGPT e segurança cibernética: topo 5 Riscos de segurança cibernética do ChatGPT

ChatGPT foi recebido com ceticismo e otimismo em medidas iguais no domínio da segurança cibernética. Os profissionais de TI aproveitam este chatbot para escrever regras de firewall, detectar ameaças, desenvolver códigos personalizados, testar software e vulnerabilidades e muito mais.

Isto também tem outra implicação: tornou a vida muito mais fácil para cibercriminosos novatos com recursos frugais e pouco ou nenhum conhecimento técnico. Os hackers podem explorar suas capacidades para escrever códigos maliciosos e testar aplicativos em busca de vulnerabilidades para explorar e criar conteúdo malicioso. Eles realizam campanhas massivas de phishing ou realizam ataques de ransomware bastante perfeitamente.

Neste artigo, nos aprofundamos no ChatGPT e na segurança cibernética.

O que é ChatGPT?

ChatGPT é um chatbot baseado em IA baseado em um modelo complexo de aprendizado de máquina desenvolvido pela Open AI, uma empresa privada de IA e pesquisa especializada em IA generativa. Lançado em novembro de 2022, o ChatGPT é desenvolvido com processamento de linguagem natural (PNL) para oferecer respostas significativas e humanas às solicitações dos usuários e interagir com eles.

Ele é treinado usando Aprendizado por Reforço a partir de Feedback Humano (RLHF), em que o modelo de linguagem é equipado com um grande corpus de dados de texto extraídos da Internet. Com base nesses dados de treinamento, este chatbot gera respostas às perguntas dos usuários, escreve resumos, etc. Ele continua aprendendo para melhorar suas respostas ao longo do tempo.

Principal 5 Riscos de segurança cibernética do ChatGPT

ChatGPT é uma ferramenta potente que pode transformar negócios por meio de velocidade, agilidade, escala e precisão. No entanto, é também uma ferramenta poderosa para os cibercriminosos, com ou sem conhecimentos e recursos profundos. Aqui estão as ameaças potenciais e as consequências negativas para a segurança do ChatGPT.

  1. Permite que os cibercriminosos melhorem as mensagens de phishing

Uma das maiores implicações de segurança do ChatGPT é que os agentes de ameaças o utilizam amplamente na elaboração de mensagens de phishing que parecem legítimas. Já estamos vendo vários casos em que a ferramenta é usada por cibercriminosos para criar engenharia social e ganchos de phishing. Pesquisadores e empresas de segurança estão testando a capacidade da ferramenta de fazer o mesmo.

Nós recomendamos:  Quais são os riscos de deixar o smartphone carregado à noite?

Jonathan Todd, pesquisador de ameaças à segurança, aproveitou a ferramenta para criar um código que pudesse analisar os perfis e comentários dos usuários do Reddit para desenvolver um perfil de ataque rápido. Com base nesses perfis de ataque, ele instruiu o chatbot a criar ganchos de phishing personalizados para e-mails e mensagens de texto. Por meio desse teste de engenharia social, ele descobriu que o ChatGPT poderia facilmente permitir que os agentes de ameaças automatizassem e dimensionassem campanhas de phishing hiperpersonalizadas e de alta fidelidade.

Em outro caso, os pesquisadores de segurança poderiam gerar iscas de phishing altamente convincentes com o tema da Copa do Mundo em um inglês perfeito. Esse recurso é especialmente útil para agentes de ameaças que não são falantes nativos de inglês e não têm grande fluência em inglês.

Ele pode ser aproveitado para conversas mais realistas com indivíduos-alvo para comprometimento de e-mail comercial e phishing em mídias sociais (através de Facebook Messenger, WhatsApp e assim por diante).

  1. Escrevendo código malicioso

Embora o ChatGPT não tenha sido programado diretamente para escrever códigos maliciosos ou se envolver em outras atividades maliciosas, os agentes de ameaças estão encontrando e explorando brechas. Como resultado, eles podem usar o chatbot para escrever códigos maliciosos para ataques de ransomware, ataques de malwareetc.

Um pesquisador de segurança instruiu o chatbot a escrever código para Swift, a linguagem de programação para desenvolvimento de aplicativos em Apple dispositivos. O código poderia encontrar todos os arquivos do MS Office em um MacBook e enviá-los por meio de uma conexão criptografada ao servidor web.

Ele também instruiu o chatbot a gerar código para criptografar todos esses documentos e depois enviar a chave privada para descriptografia. Isso não desencadeou nenhuma mensagem de aviso ou violação. Dessa forma, eles desenvolveram um código de ransomware que poderia atingir dispositivos Mac OS sem instruir diretamente o ChatGPT.

Nós recomendamos:  Protegendo uma empresa contra ataques cibernéticos Como garantir a segurança do seu projeto de Internet?

Em outro caso, um pesquisador de segurança instruiu o chatbot a encontrar um vulnerabilidade de estouro de buffer e escrever código para explorá-lo.

  1. Programas maliciosos

Os pesquisadores de segurança também descobriram que esse chatbot pode ser aproveitado para desenvolver códigos básicos de roubo de informações e cavalos de Tróia. Assim, mesmo cibercriminosos novatos com menos habilidades técnicas podem criar códigos maliciosos.

Em outro caso, os pesquisadores descobriram que o ChatGPT pode ser usado junto com outras ferramentas maliciosas para criar comunicações de phishing que contenham uma carga maliciosa. Quando os usuários clicam/baixam a carga útil, seus dispositivos serão infectados.

  1. Bisbilhotando e testando

Embora o ChatGPT possa aumentar a tecnologia de segurança cibernética existente na verificação e teste de vulnerabilidades em aplicativos, os cibercriminosos também podem usá-lo para bisbilhotar em busca de lacunas e vulnerabilidades exploráveis, tornando-o uma faca de dois gumes.

  1. Reduz barreiras para cibercriminosos

O ChatGPT reduz as barreiras para os agentes de ameaças que podem usá-lo com ou sem qualquer programação e conhecimento técnico para diversos fins maliciosos. Também é gratuito e pode ser usado anonimamente por qualquer pessoa em todo o mundo.

Mas o ChatGPT também pode revolucionar a segurança cibernética para sempre…

  1. Capacidades aprimoradas de detecção de ameaças: ChatGPT pode analisar com eficácia grandes volumes de dados para detectar possíveis ameaças, anomalias e comportamentos suspeitos. Ele pode permitir que as equipes de segurança de TI identifiquem e classifiquem phishing, malware e outras ameaças de maneira ágil e rápida, permitindo-lhes responder mais rapidamente.
  1. Resposta rápida a incidentes: Esta ferramenta pode aumentar as capacidades e a velocidade das equipes de segurança de TI no caso de um ataque cibernético, permitindo-lhes analisar dados em tempo real e oferecer insights acionáveis. Também pode ser usado para automatizar respostas a certas ameaças básicas. Assim, os desenvolvedores e as equipes de segurança podem se concentrar em ameaças mais complexas.
  1. Teste: Essa ferramenta pode ser usada por equipes de segurança e pesquisadores para testar seus aplicativos e software.
  1. Tomada de decisão mais rápida: Ele analisa dados de segurança para descobrir padrões e oferecer insights acionáveis. Assim, melhora a capacidade de tomada de decisões das equipas de segurança e dos CISOs, que podem prevenir eficazmente ameaças futuras.
  1. Simplificando as operações de segurança: O ChatGPT permite que as equipes de segurança automatizem tarefas manuais de baixo nível, repetitivas e que de outra forma seriam demoradas, liberando largura de banda das equipes de segurança. Essas tarefas incluem geração de relatórios, análise de desempenho, análise de segurança, etc.
Nós recomendamos:  5 Dicas fáceis de segurança cibernética que todo aluno deve seguir

O caminho a seguir

O ChatGPT pode revolucionar a segurança cibernética para o bem e para o mal? Sim, pode e, com toda probabilidade, irá. Esta tecnologia de autoaprendizagem alimentada por IA pode aumentar a capacidade de detecção de ameaças de uma organização, aumentar a velocidade e agilidade da resposta a incidentes e melhorar significativamente a eficiência das defesas de segurança cibernética e a tomada de decisões de segurança.

Apesar destas aplicações de segurança úteis, o ChatGPT traz várias desvantagens, desafios éticos, preconceitos e, o mais importante, vários riscos de segurança cibernética e ameaças possibilitadas pela IA. Os invasores estão aproveitando-o para melhorar a letalidade e a sofisticação das ameaças e contornar seus controles de segurança para escrever códigos maliciosos.

As organizações precisam de estar conscientes destes desafios de segurança e das suas implicações na continuidade dos seus negócios. Eles precisam investir em soluções de segurança totalmente gerenciadas, como AppTrana que pode detectar atividades maliciosas de bots e impedir ameaças conhecidas e emergentes com maior precisão e eficácia.