Setembro 19, 2024
Quais são os principais sistemas de atualidade do Google?
 #ÚltimasNotícias #tecnologia

Quais são os principais sistemas de atualidade do Google? #ÚltimasNotícias #tecnologia

Hot News

A atualidade em relação aos algoritmos de classificação de pesquisa se tornou interessante para SEO depois que um podcast recente do Google Search Off The Record mencionou a existência de Sistemas de Topicalidade Essencial como parte dos algoritmos de classificação. Portanto, pode ser útil pensar sobre o que esses sistemas poderiam ser e o que eles significam para SEO.

Não se sabe muito sobre o que poderia ser parte desses sistemas de tópicos principais, mas é possível inferir o que esses sistemas são. A documentação do Google para sua busca comercial na nuvem oferece uma definição de tópico que, embora não esteja no contexto de seu próprio mecanismo de busca, ainda fornece uma ideia útil do que o Google pode querer dizer quando se refere a Sistemas de Tópicos Principais.

É assim que a documentação da nuvem define a atualidade:

“Atualidade se refere à relevância de um resultado de pesquisa para os termos da consulta original.”

Essa é uma boa explicação da relação entre páginas da web e consultas de pesquisa no contexto de resultados de pesquisa. Não há razão para tornar isso mais complicado do que isso.

Como alcançar relevância?

Um ponto de partida para entender o que pode ser um componente dos Sistemas de Tópicos do Google é começar com a forma como os mecanismos de busca entendem as consultas de pesquisa e representam tópicos em documentos de páginas da web.

  • Compreendendo consultas de pesquisa
  • Compreendendo Tópicos

Compreendendo consultas de pesquisa

Entender o que os usuários querem dizer pode ser considerado entender o tópico no qual o usuário está interessado. Há uma qualidade taxonômica na forma como as pessoas pesquisam, pois um usuário de mecanismo de busca pode usar uma consulta ambígua quando, na verdade, quer dizer algo mais específico.

O primeiro sistema de IA que o Google implantou foi o RankBrain, que foi implantado para entender melhor os conceitos inerentes às consultas de pesquisa. A palavra conceito é mais ampla do que a palavra tópico porque conceitos são representações abstratas. Um sistema que entende conceitos em consultas de pesquisa pode então ajudar o mecanismo de pesquisa a retornar resultados relevantes sobre o tópico correto.

O Google explicou o trabalho do RankBrain assim:

“O RankBrain nos ajuda a encontrar informações que não conseguíamos antes, entendendo mais amplamente como as palavras em uma pesquisa se relacionam com conceitos do mundo real. Por exemplo, se você pesquisar por “qual é o título do consumidor no nível mais alto de uma cadeia alimentar”, nossos sistemas aprendem ao ver essas palavras em várias páginas que o conceito de uma cadeia alimentar pode ter a ver com animais, e não com consumidores humanos. Ao entender e combinar essas palavras com seus conceitos relacionados, o RankBrain entende que você está procurando o que é comumente chamado de “predador de ponta”.

BERT é um modelo de aprendizado profundo que ajuda o Google a entender o contexto das palavras nas consultas para entender melhor o tópico geral do texto.

Compreendendo Tópicos

Não acho que os mecanismos de busca modernos usem mais Modelagem de Tópicos por causa do aprendizado profundo e da IA. No entanto, uma técnica de modelagem estatística chamada Modelagem de Tópicos foi usada no passado por mecanismos de busca para entender do que se trata uma página da web e combiná-la com consultas de pesquisa. A Alocação de Dirichlet Latente (LDA) foi uma tecnologia inovadora em meados dos anos 2000 que ajudou os mecanismos de busca a entender tópicos.

Por volta de 2015, pesquisadores publicaram artigos sobre o Modelo Neural Variacional de Documentos (NVDM), que era uma maneira ainda mais poderosa de representar os tópicos subjacentes dos documentos.

Um dos artigos de pesquisa mais recentes é um chamado Beyond Yes and No: Improving Zero-Shot LLM Rankers via Scoring Fine-Grained Relevance Labels. Esse artigo de pesquisa é sobre aprimorar o uso de Large Language Models para classificar páginas da web, um processo de pontuação de relevância. Ele envolve ir além de uma classificação binária sim ou não para uma maneira mais precisa usando rótulos como “Altamente Relevante”, “Um Pouco Relevante” e “Não Relevante”

Este artigo de pesquisa afirma:

“Propomos incorporar rótulos de relevância granulares no prompt para os classificadores LLM, permitindo que eles diferenciem melhor entre documentos com diferentes níveis de relevância para a consulta e, assim, derivem uma classificação mais precisa.”

Evite o pensamento reducionista

Os mecanismos de busca estão indo além da recuperação de informações e têm se movido (por um longo tempo) na direção de responder perguntas, uma situação que se acelerou nos últimos anos e meses. Isso foi previsto no artigo de 2001 intitulado Rethinking Search: Making Domain Experts out of Dilettantes, onde eles propuseram a necessidade de se envolver totalmente no retorno de respostas de nível humano.

O artigo começa:

“Ao vivenciar uma necessidade de informação, os usuários querem se envolver com um especialista em domínio, mas frequentemente recorrem a um sistema de recuperação de informações, como um mecanismo de busca. Os sistemas clássicos de recuperação de informações não respondem diretamente às necessidades de informação, mas, em vez disso, fornecem referências a respostas (esperançosamente autoritativas). Os sistemas de resposta a perguntas bem-sucedidos oferecem um corpus limitado criado sob demanda por especialistas humanos, o que não é oportuno nem escalável. Os modelos de linguagem pré-treinados, por outro lado, são capazes de gerar diretamente prosa que pode ser responsiva a uma necessidade de informação, mas no momento eles são diletantes em vez de especialistas em domínio – eles não têm uma compreensão verdadeira do mundo…”

A principal lição é que é autodestrutivo aplicar o pensamento reducionista à forma como o Google classifica páginas da web fazendo algo como colocar uma ênfase exagerada em palavras-chave, em elementos de título e cabeçalhos. As tecnologias subjacentes estão se movendo rapidamente para entender o mundo, então se alguém for pensar sobre os Sistemas de Topicalidade Essencial, então é útil colocar isso em um contexto que vai além dos sistemas tradicionais de recuperação de informações “clássicos”.

Os métodos que o Google usa para entender tópicos em páginas da web que correspondem a consultas de pesquisa estão cada vez mais sofisticados e é uma boa ideia se familiarizar com as maneiras como o Google fez isso no passado e como pode estar fazendo isso no presente.

Imagem em destaque por Shutterstock/Cookie Studio

Siga-nos nas redes sociais:

Hotnews.pt |
Facebook |
Instagram |
Telegram

#hotnews #noticias #tecnologia #AtualizaçõesDiárias #SigaHotnews #FiquePorDentro #ÚltimasNotícias #InformaçãoAtual

Deixe um comentário

O seu endereço de email não será publicado. Campos obrigatórios marcados com *