O que é o Google BERT?

Ao anunciar como a maior mudança dos últimos cinco anos e uma que impactará uma a cada dez buscas, o Google BERT com certeza virou algumas cabeças com um update grande porém discreto.

O que é o Google BERT?

O Google BERT é um modelo de Processamento de Linguagem natural (PNL) que ajuda o Google a entender melhor o idioma para fornecer resultados mais relevantes.

Neste artigo examinaremos o que é o Google BERT e os vários recursos que lhe darão uma compreensão mais ampla do que o BERT faz.

Antes de começar esse bloco falando do  BERT é importante ter em mente que os conselhos do Google nunca mudam ao implementar essas atualizações em seu algoritmo.

Quando vi o anúncio do Google, pensei que o RankBrain não seria mais levado em consideração e já comecei a formular teorias de conspiração aqui na minha cabeça.

Mas na verdade, a inteligência artificial anterior do Google vai ser complementada pelo BERT. Ou seja, podem atuar em conjunto para melhor definir o ranqueamento de resultados a uma determinada pesquisa. Eles podem, ainda, se somar a outros métodos.

O que é Google BERT?

Portanto fique tranquilo pois os fundamentos do SEO continuam válidos. Essa, aliás, é uma característica dos estudos de otimização para motores de busca, eles evoluem e vão agregando novidades. 

Continue produzindo conteúdo de qualidade que atenda às metas de seus usuários e torne seu site o melhor possível. Portanto, não vou apresentar uma bala de prata para otimizar o algoritmo BERT, porque ele simplesmente ainda não existe.

Como funciona o Google BERT

BERT é uma técnica baseada em rede neural para pré-treinamento em processamento de linguagem natural (PNL). O acrônimo completo é Bidirectional Encoder Representations from Transformers ou em português Representações do Codificador Bidirecional dos Transformadores. Parece nome de filme de ação mas não é.

É na verdade um algoritmo de aprendizado de máquina que deve levar a uma melhor compreensão das consultas e do conteúdo que são produzidas e exibidas no google.

A coisa mais importante a ser lembrada é que o Google BERT usa o contexto e as relações de todas as palavras em uma frase, em vez de uma a uma na ordem.

Essas redes neurais de algoritmos são projetadas para reconhecimento de padrões, para simplificar bem o conceito.

Categorizar o conteúdo da imagem, reconhecer a caligrafia e até prever tendências nos mercados financeiros são aplicativos comuns do mundo real para redes neurais – para não mencionar aplicativos de pesquisa, como modelos de clique,etc.

Eles treinam em conjuntos de dados para reconhecer padrões. O BERT foi pré-treinado usando o corpo de texto simples da Wikipedia, explicou o Google quando o código foi aberto.

Portanto, o BERT pode descobrir o contexto completo de uma palavra observando as palavras que vêm antes e depois dela. Essa parte bidirecional dele torna o BERT único e é isso que pode mudar o modo como as pesquisas são feitas e os conteúdos são criados..

Ao aplicar isso, o Google pode entender melhor a essência de uma consulta. O Google publicou vários exemplos de consultas na postagem do blog de lançamento.

Diferenças entre BERT e RankBrain

Alguns dos recursos do BERT podem parecer semelhantes ao primeiro método de inteligência artificial do Google para entender consultas, o RankBrain.

Mas são dois algoritmos separados que podem ser usados ​​para informar os resultados da pesquisa.

A primeira coisa a entender sobre o RankBrain é que ele é executado paralelamente aos algoritmos normais de classificação de pesquisa orgânica e é usado para fazer ajustes nos resultados calculados por esses algoritmos.

Basicamente o RankBrain ajusta os resultados observando a consulta atual e encontrando consultas anteriores semelhantes.

Em seguida, analisa o desempenho dos resultados da pesquisa para essas consultas históricas. 

Com base no histórico das consultas, o RankBrain pode ajustar a saída dos resultados dos algoritmos normais de classificação de pesquisa orgânica.

O RankBrain também ajuda o Google a interpretar as consultas de pesquisa para que ele possa apresentar resultados que podem não conter as palavras exatas da consulta.

Exemplos de uso do BERT

Para os seres humanos, a consulta [2019 viajar do Brasil para os EUA precisa de visto] obviamente é sobre responder se um viajante do Brasil precisa de um visto para os EUA em 2019.

Os computadores têm dificuldade com isso. Anteriormente, o Google omitia a palavra “para” da consulta, alterando o significado. O BERT leva tudo em consideração na frase e, portanto, descobre o verdadeiro significado.

Em outra consulta: “os esteticistas trabalham muito”. Anteriormente, os sistemas do Google adotavam uma abordagem de correspondência de palavras-chave, correspondendo ao termo “esteticistas ” no resultado com a palavra “muito” na consulta.

Mas esse não é o uso correto da palavra “muito” no contexto. Nossos modelos BERT, por outro lado, entendem que “muito” está relacionado ao conceito das demandas físicas de um trabalho e exibe uma resposta mais útil.

Como você pode ver no exemplo, o BERT funciona melhor em consultas mais complexas. Não é algo que entra em ação quando você pesquisa a partir dos termos principais, mas as consultas na cauda longa.

Ainda assim, o Google diz que afetará uma a cada dez buscas. E mesmo assim, o Google diz que o BERT às vezes entendeu errado. Não é a solução completa para o entendimento da linguagem ainda.

Onde o Google aplica o BERT?

Para classificar o conteúdo, o BERT é atualmente lançado nos EUA para o idioma inglês. O Google usará os aprendizados do BERT para melhorar a pesquisa em outros idiomas também com o passar do tempo.

Hoje, o BERT é usado para snippets em destaque em todos os mercados em que esses ricos resultados aparecem. Segundo o Google, isso leva a resultados muito melhores nesses mercados.

As principais conclusões desta atualização do BERT é que o Google está mais uma vez se aproximando do entendimento da linguagem em nível humano.

Para classificações, isso significará que apresentará resultados que melhor se ajustam a essa consulta e que só podem ser bons.

Não há otimização para o BERT além do trabalho que você já está fazendo: produza conteúdo relevante de excelente qualidade. Precisa de ajuda para escrever conteúdo incrível? Temos um treinamento aprofundado sobre redação em SEO que mostra as regras.

Finalizando

Independentemente do que você está procurando ou do idioma que você fala, o Google espera que você consiga liberar parte da sua palavra-chave e pesquisar de uma maneira que lhe pareça natural.

O entendimento do idioma continua sendo um desafio contínuo e mantém o time do Google motivado a continuar aprimorando a Pesquisa.

Para quem cria conteúdo o BERT vai gerar novos desafios, mas de um modo geral acredito que esse update irá ajudar a escolha de palavras e frases na composição do conteúdo.

Diariamente estou criando conteúdo para o podcast, para o blog e para a powertic e a possibilidade de uma maior compreensão do conteúdo gerado é animador.

Deixe uma resposta