O Google anunciou hoje o que considera ser “um dos maiores saltos adiante na história da pesquisa”. Ao aplicar uma técnica baseada em rede neural conhecida como BERT, o mecanismo de busca melhorará a compreensão das perguntas feitas de maneira natural e cotidiana.
A empresa introduziu a mudança, reconhecendo como os recursos de entendimento de idioma da Search ainda podem falhar com consultas complexas ou de conversação.
De fato, essa é uma das razões pelas quais as pessoas costumam usar “palavra-chave”, digitando sequências de palavras que eles acham que entenderemos, mas não são como elas naturalmente fazem uma pergunta.
Para permitir que as pessoas façam perguntas naturalmente, o Google está aplicando uma “técnica baseada em rede neural para pré-treinamento em processamento de linguagem natural (PNL) chamada Representações de Codificador Bidirecional da Transformers”.
Também conhecido como BERT, esse modelo analisa palavras em relação ao termo de pesquisa inteiro, em vez de uma palavra após a outra. A pesquisa vai melhorar a compreensão das nuances, sutilmente, e descobrir o que realmente está sendo solicitado pelo usuário, essencialmente obtendo o contexto completo. Esses aprimoramentos mostrarão links mais relevantes e snippets em destaque.
Em métricas quantificáveis, o Google poderá entender melhor uma em cada dez perguntas com o BERT. No momento, está disponível apenas em inglês dos EUA, mas será expandido para mais países e idiomas ao longo do tempo. Nos bastidores, esse método é tão complexo que as TPUs em nuvem destinadas ao aprendizado de máquina estão sendo aproveitadas para pesquisa.
Particularmente para consultas mais longas e com mais conversação ou pesquisas em que preposições como “para” e “para” importam muito para o significado, a Pesquisa poderá entender o contexto das palavras na sua consulta. Você pode pesquisar de uma maneira que pareça natural para você.
O Google forneceu alguns exemplos de termos que melhoraram com o BERT (à direita).