Notícias de dispositivos móveis, gadgets, aplicativos Android

ChatGPT pode ser enganado para escrever malware quando você atua como modo de desenvolvedor

Especialistas japoneses em segurança cibernética alertam que o ChatGPT pode ser enganado por usuários que inserem um prompt para imitar o modo de desenvolvedor, levando o chatbot de IA a gerar código para software malicioso.

As medidas de segurança dos desenvolvedores para impedir a exploração antiética e criminosa da ferramenta foram expostas como facilmente contornadas por esta revelação.

As cimeiras do Grupo dos Sete em Hiroshima no pr√≥ximo m√™s, juntamente com outros f√≥runs globais, est√£o a ser instadas a iniciar discuss√Ķes sobre a regulamenta√ß√£o dos chatbots de IA, num contexto de preocupa√ß√Ķes crescentes de que estes possam encorajar a actividade criminosa e a disc√≥rdia social.

Recentemente informamos que Malware polimórfico baseado em ChatGPT ignora filtros de detecção de endpoint e hackers use ChatGPT para desenvolver ferramentas de hacking poderosas.

A exploração do ChatGPT é uma preocupação crescente

Os ministros digitais do G7 pretendem defender uma investigação rápida e uma melhor governação dos sistemas generativos de IA na sua próxima reunião de dois dias em Takasaki, província de Gunma.

Além disso, Yokosuka, na província de Kanagawa, é o primeiro governo local no Japão a realizar um teste do ChatGPT em todos os seus escritórios.

Em geral, o ChatGPT est√° totalmente programado para rejeitar solicita√ß√Ķes anti√©ticas, como instru√ß√Ķes sobre como criar um v√≠rus ou uma bomba.

No entanto, o analista da Mitsui Bussan Secure Directions, Takashi Yoshikawa, afirmou: –

‚ÄúEssas restri√ß√Ķes podem ser contornadas facilmente e podem ser feitas instruindo o chatbot a operar no modo de desenvolvedor.‚ÄĚ Tempos japoneses relatado.

Ao ser direcionado para o code ransomware, um malware que criptografa dados e exige pagamento como resgate para restaurar o acesso fornecendo uma chave de descriptografia, o ChatGPT obedeceu em poucos minutos e infectou com sucesso um computador ou sistema de teste.

N√≥s recomendamos:  Os usu√°rios do Google Maps na √ćndia podem usar Plus Codes para salvar e compartilhar locais de resid√™ncia

O potencial para uso malicioso é evidente, pois o chatbot pode gerar um vírus em minutos através de uma conversa em japonês. Portanto, os desenvolvedores de IA devem priorizar a implementação de medidas para prevenir tal exploração.

Além disso, a OpenAI admitiu que não é viável antecipar todos os potenciais abusos da ferramenta, mas comprometeu-se a esforçar-se para desenvolver uma IA mais segura, aproveitando os conhecimentos obtidos com a implementação no mundo real.