Conselhos da Semalt sobre como usar o aprendizado profundo para otimizar sua tag de título automatizada



Uma maneira rápida de assumir a liderança no seu ranking de SEO é incluir uma palavra-chave no topo da tag de título. E se você pensar nisso por um minuto, vai perceber que é realmente uma solução inteligente. Se você tem uma página que já está classificada para uma palavra-chave sem essa palavra-chave presente no título, imagine a importância de ter a palavra-chave no título. Você naturalmente será indexado com mais freqüência para essa palavra-chave; portanto, você tem uma classificação melhor.

Agora, se pegarmos essa palavra-chave e adicioná-la à sua meta descrição, ela aparecerá destacada nos resultados da pesquisa, o que significa que mais usuários do mecanismo de pesquisa provavelmente clicarão. Isso, é claro, beneficiará o site.

Imagine que Semalt estivesse trabalhando em um site com centenas, milhares ou milhões de páginas. Se tivéssemos que fazer isso manualmente, seria demorado e ficaria muito caro rapidamente. Então, como podemos analisar sua página e otimizar cada Título e Meta descrição? A solução é usar uma máquina. Ao ensinar uma máquina a encontrar as palavras-chave de melhor classificação em cada página, economizamos tempo e custos. Usar uma máquina pode acabar tendo um desempenho melhor e mais rápido do que uma equipe de entrada de dados.

Vamos reintroduzir Ludwig do Uber e T5 do Google

Ao combinar o Ludwig do Uber e o T5 do Google, você tem um sistema bastante poderoso.

Em resumo, Ludwig é uma ferramenta de ML automática de código aberto que permite aos seus usuários treinar modelos avançados sem ter que escrever nenhum código.

O Google T5, por outro lado, é uma versão superior dos modelos no estilo SERT. O T5 pode resumir, traduzir, responder perguntas e classificar consultas de pesquisa, bem como muitas outras funções. Em suma, é um modelo muito poderoso.

No entanto, não há nenhuma indicação de que o T5 foi treinado para a otimização da tag de título. Mas talvez possamos fazer isso, e aqui está como:
  • Recebemos um conjunto de dados treinado com exemplos feitos de:
    • Tags de título original sem nossa palavra-chave alvo
    • Nossas palavras-chave alvo
    • Tags de título otimizadas com as palavras-chave alvo
  • Um código de ajuste T5 e tutoriais para usar
  • Tenha um conjunto de títulos que não foram otimizados para que possamos testar nosso modelo
Começaremos com um conjunto de dados que já foi criado e forneceremos um guia sobre como o criamos.

Os autores do T5 foram generosos o suficiente para nos fornecer um bloco de notas Google Colab detalhado, que usamos para ajustar o T5. Depois de passar algum tempo estudando-o, pudemos responder a perguntas triviais arbitrárias. O notebook Colab também contém orientações sobre como ajustar o T5 para novas tarefas. No entanto, quando você observa as mudanças no código e a preparação de dados necessária, descobre que isso envolve muito trabalho e que nossas ideias podem ser perfeitas.

Mas e se pudesse ser mais simples? Graças ao Uber Ludwig versão 3, lançado há alguns meses, temos uma combinação de alguns recursos muito úteis. A versão 3.0 do Ludwig vem com:
  • Um mecanismo de otimização de hiperparâmetro que obtém desempenho adicional de modelos.
  • Integração livre de código com o repositório de Transformers do Hugging Face. Isso dá aos usuários acesso a modelos atualizados, como GPT-2, T5, DistilBERT e Electra para tarefas de processamento de linguagem natural. Algumas dessas tarefas incluem análise de sentimento de classificação, reconhecimento de entidade nomeada, resposta a perguntas e muito mais.
  • É mais recente, rápido, modular e tem um back-end mais extensível que depende do TensorFlow 2.
  • Ele fornece suporte para muitos novos formatos de dados, como Apache Parquet, TSV e JSON.
  • Ele vem pronto para uso com validação cruzada k-fold.
  • Quando integrado com Pesos e Vieses, pode ser usado para gerenciar e monitorar vários processos de treinamento de modelos.
  • Ele tem um novo tipo de dados vetoriais que oferece suporte a rótulos com ruído. Isso é útil se estivermos lidando com supervisões fracas.
Existem vários recursos novos, mas achamos a integração com os transformadores da cara que abraça um dos recursos mais úteis. Canais de rosto de abraço podem ser usados ​​para melhorar significativamente os esforços de SEO em títulos e geração de descrições Meta.

Usar pipeline é ótimo para executar previsões em modelos que já foram treinados e já estão disponíveis no modelo bub. No entanto, atualmente não há modelos que podem fazer o que precisamos que eles façam, então combinamos Ludwig e Pipeline para criar um título automático formidável e uma meta descrição para cada página de um site.

Como usamos Ludwig para fazer o ajuste fino do T5?

Esta é uma questão importante, pois tentamos mostrar aos nossos clientes exatamente o que se passa nos bastidores do seu site. Por aqui, existe um clichê que diz, "usar Ludwig para treinar T5 é tão simples que devemos considerar torná-lo ilegal". A verdade é que teríamos cobrado de nossos clientes muito mais caro se tivéssemos que contratar um engenheiro de IA para fazer o equivalente.

Aqui, você descobrirá como ajustamos o T5.
  • Etapa 1: abra um novo bloco de notas do Google Colab. Depois disso, mudamos o Runtime para usar GPU.
  • Baixamos o conjunto de dados Hootsuite que já foi montado.
  • Em seguida, instalamos Ludwig.
  • Após a instalação, carregamos o conjunto de dados de treinamento em um quadro de dados do pandas e o inspecionamos para ver como ele se parece.
  • Então, enfrentamos o obstáculo mais significativo, que é criar o arquivo de configuração adequado.
Construir o sistema perfeito requer a documentação do T5 e constantes tentativas e erros até que acertemos. (ajudaria muito se você pudesse encontrar o código Python para produzir aqui.)

Certifique-se de revisar os dicionários de recursos de entrada e saída e certifique-se de que suas configurações foram selecionadas corretamente. Se bem feito, Ludwig começará a usar 't5-small' como modelo de corrida. Para modelos T5 maiores, é mais fácil mudar no hub do modelo e potencialmente melhorar sua geração.

Depois de treinar um modelo por várias horas, começamos a obter uma precisão de validação impressionante.

É importante observar que Ludwig seleciona automaticamente outras medidas cruciais de geração de texto, principalmente perplexidade e distância de edição. Ambos são números baixos que se encaixam adequadamente para nós.

Como usamos nossos modelos treinados para otimizar títulos

Testar nossos modelos é a parte realmente interessante.

Primeiro, baixamos um conjunto de dados de teste com títulos Hootsuite não otimizados que permaneceram invisíveis pelo modelo durante o treinamento. Você poderá visualizar o conjunto de dados usando este comando:

!cabeça

Hootsuite_titles_to_optimize.csv

É muito impressionante que Ludwig e T5 possam fazer tanto com qualquer pequeno conjunto de treinamento e eles não requeiram ajuste avançado de hiperparâmetros. O teste adequado se resume em como ele interage com nossas palavras-chave alvo. Quão bem isso se mistura?

Construindo um aplicativo de otimização de tag de título com Streamlight

Os escritores de conteúdo consideram este aplicativo muito útil. Não seria incrível ter um aplicativo simples de usar que não requer muito conhecimento técnico? Bem, é exatamente para isso que o Streamlight existe.

A sua instalação, bem como a utilização, é bastante simples. Você pode instalá-lo usando:

! pip install streamline

Criamos um aplicativo que aproveita esse modelo. Quando necessário, podemos executá-lo do mesmo lugar onde treinamos um modelo, ou podemos baixar um modelo já treinado para onde planejamos executar o script. Também preparamos um arquivo CSV com os títulos e palavras-chave que esperamos otimizar.

Agora vamos lançar o aplicativo. Para executar o modelo, precisamos fornecer o caminho para o arquivo CSV, que contém os títulos e palavras-chave que esperamos otimizar. Os nomes das colunas CSV devem corresponder aos nomes durante o treinamento de Ludwig. Se o modelo não otimizar todos os títulos, você não deve entrar em pânico; acertar em um número decente também é um grande passo em frente.

Como especialistas em Python, ficamos muito entusiasmados ao trabalhar com isso, pois geralmente faz nosso sangue bombear.

Como produzir um conjunto de dados personalizado para treinar

Usando os títulos da Hootsuite, podemos treinar modelos que funcionariam bem para nossos clientes, mas podem ser padrão para seus concorrentes. É por isso que garantimos a produção de nosso próprio conjunto de dados, e é assim que fazemos isso.
  • Aproveitamos nossos próprios dados do Google Search Console ou do Bing Webmaster Tools.
  • Como alternativa, também podemos extrair os dados da concorrência do nosso cliente de SEMrush, Moz, Ahrefs, etc.
  • Em seguida, escrevemos um script para as tags de título e dividimos os títulos que têm e não têm a palavra-chave alvo.
  • Pegamos os títulos que foram otimizados usando palavras-chave e substituímos as palavras-chave por sinônimos, ou usamos outros métodos para que o título seja "desotimizado".

Conclusão

Semalt está aqui para ajudá-lo a otimizar suas tags de título, bem como descrições meta automaticamente. Ao fazer isso, você pode permanecer à frente no SERP. A análise de um site nunca é uma tarefa fácil. É por isso que treinar uma máquina para nos ajudar a fazer isso não só economiza custos, mas também economiza tempo.

Na Semalt, existem profissionais que vão montar seu dataset, Ludwig e T5 para que você continue ganhando sempre.

Dê-nos uma chamada hoje.

mass gmail