Notícias de dispositivos móveis, gadgets, aplicativos Android

Black Hat USA 2023: resumo completo dos briefings de IA

A 26ª edição anual do BLACK HAT USA será realizada no Mandalay Bay Convention Center, em Las Vegas, a partir de agosto. 5 a 10 de agosto de 2023. Quatro dias de treinamento intensivo em segurança cibernética cobrindo todos os níveis de habilidade estão programados para iniciar o evento.

Mais de 100 Briefings selecionados, dezenas de demonstrações de ferramentas de código aberto no Arsenal, um vibrante Business Hall, networking e atividades sociais e muito mais serão incluídos na conferência principal de dois dias.

Em particular, os Black Hat Briefings reúnem especialistas de todos os cantos da indústria de segurança da informação, incluindo os setores empresarial e governamental, instituições universitárias e até investigadores clandestinos.

Este ano, a Black Hat está introduzindo o programa “Certified Pentester”, que inclui um exame prático de um dia inteiro cobrindo tópicos de pen-testing.

Destaques de IA, aprendizado de máquina e briefing de ciência de dados apresentados

Planejando e detectando phishing:

Este Briefing foi apresentado por Fredrik Heiding, Harvard. Com base em alguns dados sobre um usuário, os programas de IA que empregam vastos modelos de linguagem podem construir automaticamente e-mails de phishing realistas.

Eles diferem dos e-mails de phishing “tradicionais”, que são criados por hackers utilizando algumas diretrizes gerais que aprenderam com a experiência.

Um modelo indutivo que imita essas leis é a V-Tríade. Neste estudo eles comparam a suspeita dos usuários em relação aos e-mails gerados pela GPT-4 automaticamente versus e-mails gerados pela V-tríade.

O briefing completo é disponivel aqui.

Riscos da Política de Risco de IA

O estudo foi apresentado por Ram Shankar Siva Kumar, Microsoft; Harvard. Além das questões de privacidade e segurança, a implantação de sistemas de IA também levanta a possibilidade de preconceitos, desigualdades e falhas responsáveis ​​de IA.

Mas o que é surpreendente é a rapidez com que o ecossistema para a gestão de riscos de IA está a crescer: vinte e um projetos de normas e estruturas foram publicados por organizações de normalização só no ano passado, e empresas já significativas e um número crescente de startups fornecem testes para comparar sistemas de IA com estas normas. .

Assim que essas estruturas estiverem concluídas, as organizações irão adotá-las rapidamente, e os responsáveis ​​pela conformidade, engenheiros de ML e especialistas em segurança eventualmente precisarão aplicá-las aos seus sistemas de IA.

O briefing completo é disponivel aqui.

BTD: liberando o poder da descompilação para executáveis ​​de rede neural profunda x86

O Briefing foi apresentado por Zhibo Liu, Ph.D. Estudante, Universidade de Ciência e Tecnologia de Hong Kong. Modelos de aprendizagem profunda (DL) são compilados em executáveis ​​por compiladores DL para usar totalmente primitivos de hardware de baixo nível devido ao seu uso generalizado em dispositivos de hardware heterogêneos.

Este método permite a execução de cálculos DL de baixo custo em uma variedade de plataformas de computação, como CPUs, GPUs e outros aceleradores de hardware.

Eles apresentam o BTD (Bin to DNN), um descompilador para executáveis ​​de redes neurais profundas (DNN), nesta palestra.

Nós recomendamos:  Anúncio NAB 2018: C700 da Canon fica em tamanho completo

O briefing completo é disponivel aqui.

Identificando e reduzindo a explosão de permissões na AWS

A palestra foi apresentada por Pankaj Moolrajani, engenheiro-chefe de segurança da Motive. A infraestrutura e os serviços em nuvem da AWS cresceram rapidamente, o que aumentou a quantidade geral de permissões e ameaças à segurança.

Esta sessão sugere um método analítico baseado em gráfico para localizar e reduzir a explosão de permissões da AWS.

A abordagem sugerida envolve a coleta de informações sobre as funções do AWS IAM e as permissões vinculadas a elas, a criação de uma representação gráfica dos links de acesso e a pesquisa no gráfico por grupos de funções com muitas permissões.

O briefing completo é disponivel aqui.

Tomada de decisão assistida por IA sobre necessidades de revisão de segurança para novos recursos

O estudo foi apresentado por Mrityunjay Gautam, Diretor Sênior de Segurança de Produto, Databricks. O SDLC evoluiu da definição de uma década da Microsoft para a transformação Agile e está finalmente tentando acompanhar a velocidade de desenvolvimento da nuvem. Embora o processo seja bem compreendido na indústria, a execução varia muito.

Quantas vezes já descobrimos um recurso com impacto na segurança no momento em que ele é enviado, quando um cliente levanta uma preocupação e ela é encaminhada para a equipe de segurança ou, na pior das hipóteses, quando há um incidente de segurança?

Nesta palestra, ele apresentou uma nova abordagem para resolver este problema usando tecnologias de Deep Learning e PNL.

O briefing completo é disponivel aqui.

IRonMAN: Inspetor de incidentes interpretável baseado em modelo de linguagem em larga escala e mineração de associação

Isto foi apresentado por Sian-Yao Huang, cientista de dados da CyCraft Technology. A investigação contextual de incidentes e a avaliação de similaridade de incidentes são componentes essenciais da investigação de incidentes atual e das táticas proativas de caça a ameaças.

No entanto, devido à sua confiabilidade e desempenho competitivo, os sistemas automatizados modernos frequentemente dependem de técnicas baseadas em padrões e heurísticas.

Estes métodos não conseguem vincular eventos com informações contextuais e são vulneráveis ​​à evasão através de pequenas modificações, resultando em falsos avisos. Melhorias recentes em modelos de linguagem em larga escala (LLMs) produziram resultados promissores de representação de linguagem.

O briefing completo é disponivel aqui.

Programa de inteligência de ameaças baseado em LLM

Este briefing foi apresentado por John Miller, chefe de análise de inteligência da Mandiant, Google Cloud.

À medida que o setor de segurança cibernética investiga grandes modelos de linguagem (LLMs), como GPT-4PaLM, LaMDA e outras, as organizações estão tentando determinar o retorno do investimento que esses recursos podem proporcionar para programas de segurança.

A crescente acessibilidade dos LLMs para atividades de inteligência contra ameaças cibernéticas (CTI) afeta a interação entre os componentes fundamentais subjacentes à capacidade de qualquer programa CTI de atender às demandas de inteligência sobre ameaças da sua organização.

O briefing completo é disponivel aqui.

O que fazer e o que não fazer na construção de GPTs ofensivos

Esta palestra foi apresentada por Ariel Herbert-Voss, CEO e fundador da RunSybil. Nesta sessão, eles mostram como você pode ou não utilizar LLMs como GPT4 para descobrir falhas de segurança em aplicativos e abordam as vantagens e desvantagens de fazer isso.

Nós recomendamos:  Como os smartphones estão mudando o mundo dos jogos

Eles falam detalhadamente sobre como os LLMs operam e fornecem maneiras inovadoras de implantá-los em situações ofensivas.

O briefing completo é disponivel aqui.

A psicologia da exploração humana por assistentes de IA

Este briefing foi apresentado por Matthew Canham, CEO da Beyond Layer Seven, LLC. O ChatGPT e GPT-4 grandes modelos de linguagem (LLMs) conquistaram o mundo nos últimos 60-90 dias.

No ano passado, um engenheiro do Google ficou tão convencido de que um modelo era senciente que quebrou seu acordo de sigilo. Poucas pessoas estavam preocupadas com a ascensão da inteligência artificial geral (AGI) há dois anos. Mesmo os académicos conservadores defendem agora um período muito mais curto.

O briefing completo está disponível aqui.

Descobrindo as ameaças silenciosas do Azure

Este estudo foi apresentado por Nitesh Surana, pesquisador sênior de ameaças da Trend Micro. A plataforma de aprendizado de máquina como serviço é fornecida por provedores de serviços em nuvem, permitindo que as empresas aproveitem as vantagens de escalabilidade e confiabilidade ao realizar operações de ML.

No entanto, dada a implantação generalizada de tais sistemas de IA/ML em todo o mundo, a postura de segurança da plataforma pode muitas vezes passar despercebida.

Os participantes aprenderão sobre as muitas dificuldades encontradas em AML, que podem se estender a outros sistemas MLaaS baseados em nuvem, durante esta palestra.

O briefing completo é disponivel aqui.

Perspectivas sobre IA, Hype e Segurança

O briefing foi apresentado por Rich Harang, arquiteto principal de segurança da Nvidia. Este ano assistimos a uma quantidade recorde de entusiasmo pela IA e, a acreditar na imprensa, nenhum negócio está seguro, nem mesmo a indústria da segurança.

Embora seja evidente que a adoção rápida e alimentada pelo hype tem consequências negativas, quando artigo após artigo afirma que se você não empregar IA, você será substituído, pode ser difícil resistir à atração.

Além disso, existem preocupações com a privacidade, legislação planeada, obstáculos legais e várias outras questões. Então, o que tudo isso significa para a segurança?

O briefing completo é disponivel aqui.

Confiança sintética: explorando preconceitos em escala

Este estudo foi apresentado por Esty Scheiner, Engenheiro de Segurança, Invoca. Esta palestra investiga ataques de phishing de voz gerados por inteligência artificial.

A palestra procurará revelar os perigos emergentes e as implicações da IA ​​generativa na tomada de decisões, na segurança pessoal e na confiança organizacional, além de aprofundar os componentes psicológicos e tecnológicos de tais ataques.

Eles investigam experimentos de aprendizado de máquina de ponta que produzem vozes realistas geradas por IA. Os usos positivos das vozes de IA incluem o aprimoramento das interações no contact center.

O briefing completo é disponivel aqui.

Decepção cibernética contra ataques cibernéticos autônomos

Este estudo foi apresentado por Michael Kouremetis, Engenheiro Principal de Emulação de Adversários, MITRE. Foi originalmente considerado impossível ou a décadas de distância. No entanto, os desenvolvimentos nos classificadores de busca e de redes neurais, bem como os avanços no processamento, resultaram na invenção do sistema AlphaGo em 2016, que é capaz de superar os maiores jogadores de Go do mundo.

Nós recomendamos:  Vencedores de 2023 Apple Prêmios da loja anunciados

Nesta apresentação, abordam um futuro adversário cibernético cujas ações e decisões são inteiramente controladas por um sistema autónomo (IA).

O briefing completo é disponivel aqui.

Envenenar conjuntos de dados de treinamento em escala web é prático

Este briefing foi apresentado por Will Pearce, líder da equipe AI Red, Nvidia. Muitos modelos de aprendizagem profunda bem conhecidos baseiam-se frequentemente em enormes conjuntos de dados distribuídos adquiridos através da Internet.

Devido ao licenciamento e outras considerações, esses conjuntos de dados são frequentemente mantidos como uma lista de URLs a partir dos quais amostras de treinamento podem ser acessadas. Os domínios, por outro lado, expiram e podem ser adquiridos por um agente malicioso.

Este problema afeta StableDiffusion e modelos de grande linguagem, como ChatGPT, que são treinados em dados provenientes da Internet.

O briefing completo é disponivel aqui.

O advento do malware de IA

Kai Greshake, pesquisador de segurança, apresentou o briefing. Eles demonstram que as injeções imediatas são mais do que apenas uma novidade ou um aborrecimento; toda uma nova geração de malware e manipulação agora pode ser executada inteiramente em modelos de linguagem massivos como o ChatGPT.

À medida que as empresas se apressam em integrá-las com outras aplicações, irão enfatizar a importância de considerar adequadamente a segurança destas novas tecnologias. Você aprenderá como seu futuro assistente pessoal pode ser corrompido e quais implicações podem resultar. O briefing completo é disponivel aqui.

Table of Contents