Notícias de dispositivos móveis, gadgets, aplicativos Android

Usar a IA para exibir vídeo ao vivo de terrorismo ‘está muito longe de ser resolvido’, diz Facebook Chefe da IA

Usar a IA para exibir vídeo ao vivo de terrorismo 'está muito longe de ser resolvido', diz Facebook Chefe da IA 1

Quando confrontado com perguntas difíceis sobre como Facebook Para remover o conteúdo terrorista de suas plataformas, o CEO Mark Zuckerberg oferece uma resposta simples: a inteligência artificial fará isso. Mas de acordo com FacebookYann LeCun, cientista chefe da IA, está a anos de ser capaz de suportar totalmente o fardo da moderação, principalmente quando se trata de exibir vídeos ao vivo.

Falando em um evento em FacebookDo IA Research Lab em Paris na semana passada, disse LeCun Facebook levou anos para usar a IA para moderar vídeo ao vivo em grande escala, relata Bloomberg News.

“Este problema está muito longe de ser resolvido”, disse LeCun, que recentemente recebeu o Prêmio Turing, conhecido como Prêmio Nobel de Computação, junto com outros luminares da IA.

A exibição de vídeo ao vivo é uma questão particularmente urgente em um momento em que terroristas cometem atrocidades com o objetivo de se tornarem virais. FacebookA incapacidade de enfrentar esse desafio tornou-se claramente angustiante após as filmagens de Christchurch na Nova Zelândia este ano. O ataque foi transmitido ao vivo em Facebook, e embora a empresa afirme ter sido vista por menos de 200 pessoas durante sua transmissão, foi esse fluxo que foi baixado e compartilhado em todo o resto da Internet.

A incapacidade de sistemas automatizados de entender e bloquear conteúdo como esse não é novidade para especialistas em IA como LeCun. Eles alertam há muito tempo que o aprendizado de máquina não é capaz de entender a variedade e as nuances desses vídeos. Os sistemas automatizados são muito bons na remoção de conteúdo que já foi identificado por humanos como indesejado (Facebook diz que bloqueia automaticamente 99% do conteúdo terrorista da Al-Qaeda, por exemplo), mas localizar exemplos não vistos anteriormente é uma tarefa muito mais difícil.

Nós recomendamos:  Um guia abrangente para criadores de conteúdo

Um problema que LeCun notou em Paris é a falta de dados de treinamento. “Felizmente, não temos muitos exemplos de pessoas reais atirando em outras pessoas”, disse o cientista. É possível treinar sistemas para reconhecer a violência usando imagens de filmes, ele acrescentou, mas o conteúdo contendo violência simulada seria inadvertidamente removido junto com a coisa real.

Em vez disso, empresas como Facebook estão se concentrando no uso de sistemas automatizados como assistentes de moderadores humanos. A AI sinaliza conteúdo preocupante e os humanos o examinam manualmente. Obviamente, o sistema de moderação humana também tem seus próprios problemas.

Mas lembre-se: da próxima vez que alguém apresentar a IA como uma bala de prata para moderação on-line, as pessoas que estão realmente construindo esses sistemas sabem que é muito mais difícil do que isso.