Convenhamos, a inteligência artificial provocou uma grande mudança na forma como o conteúdo é criado e publicado on-line. Muitos sites já adotaram a IA para produzir conteúdo de alta qualidade e otimizado para SEO.
Mas como o Google reage ao conteúdo gerado por IA? Ele o considera como conteúdo humano ou como spam?
Martin Splitt, especialista do Google, respondeu recentemente a essa pergunta, explicando como o Googlebot rastreia, renderiza e processa o conteúdo de IA.
Neste artigo, veremos como o Google lida com o conteúdo criado com inteligência artificial.
Martin Splitt fala sobre como o Google lida com o conteúdo gerado por IA
Martin Splitt discutiu como o Google lida com o conteúdo de IA em um webinar chamado Exploring the Art of Rendering (Explorando a arte da renderização).
Ele estava respondendo a um membro da plateia que queria saber se o influxo de conteúdo de IA on-line poderia prejudicar a capacidade do Google de processar informações quando se trata de renderização e exploração.
A pergunta era a seguinte:
“Dizem que a produção de conteúdo está aumentando por causa da IA, o que aumenta as cargas de rastreamento e renderização. É provável que os processos de renderização precisem ser simplificados?“
Em outras palavras, o palestrante está querendo saber se o Google tomou alguma medida específica diante do aumento do conteúdo on-line, já que a carga de rastreamento e renderização aumentará significativamente.
Inicialmente, Martin disse:
“Não, acho quenão”.
Em seguida, ele explicou como o mecanismo de pesquisa determina as páginas de baixa qualidade durante o rastreamento e como ele procede depois de encontrar esses tipos de páginas.
Como ele detecta o conteúdo gerado por IA?
Uma das maiores preocupações dos profissionais com relação à IA é a capacidade do Google de detectar o texto gerado por ela.
Martin também abordou essa questão durante sua apresentação.
Ele afirmou:
“Fazemos a detecção ou o controle de qualidade em vários estágios, e a maior parte do conteúdo falso não precisa necessariamente de JavaScript para nos mostrar o quanto ele éfalso.
Portanto, se percebermos que se trata de conteúdo s****l antes, pulamos a renderização, qual é o objetivo?
Se virmos, ok, isso parece absoluto… podemos ter certeza de que é uma porcaria, e que o JavaScript poderia apenas adicionar mais porcaria, então adeus. Se for uma página vazia, podemos dizer a nós mesmos que não sabemos.
As pessoas geralmente não colocam páginas vazias aqui, portanto, vamos pelo menos tentar renderizar. E então, quando a renderização retorna uma bosta, pensamos, sim, tudo bem, é apenas uma bosta.
Então, esse já é o caso. Não é nada de novo. A IA pode aumentar a escala, mas isso não muda muito. A renderização não é a culpada aqui“.
O conteúdo de IA passa no teste de qualidade
Com a resposta de Martin, vemos que o Google não procede para detectar a IA, mas usa vários meios para determinar se o conteúdo é de qualidade ou não.
Isso é perfeitamente normal, uma vez queo algoritmo do Google não foi projetado para detectar conteúdo de baixa qualidade gerado por IA, mas ele o descobre automaticamente.
Lembre-se do sistema Helpful Content, que tinha como objetivo recompensar os sites que produziam conteúdo de alta qualidade para os usuários da Web.
Danny Sullivan escreveu:
“...estamos fazendo uma série de melhorias no mecanismo de pesquisa para facilitar a busca de conteúdo útil escrito por e para pessoas“.
Em outras palavras, o Google não está apenas destacando o conteúdo escrito para humanos, mas também o conteúdo escrito por humanos.
Em outras palavras, o mecanismo é capaz de diferenciar entre conteúdo gerado por humanos e outros conteúdos, bem como conteúdo de baixa qualidade.
De acordo com os pesquisadores:
“Este artigo postula que os detectores treinados para distinguir entre texto escrito por humanos e texto escrito por máquinas são preditores eficazes da qualidade linguística das páginas da Web, superando um classificador de spam supervisionado básico“.
Em outras palavras, esse é um aspecto fundamental do SEO e da visibilidade on-line.
Por sua vez, Martin disse:
“...fazemos detecção ou controle de qualidade em vários estágios….
Portanto, isso já está acontecendo. Não é algo novo. A IA pode aumentar a escala, mas não muda muito.”.
Em outras palavras:
- O Google não está aplicando nenhuma medida nova ao conteúdo gerado;
- O mecanismo de pesquisa usa a detecção de qualidade tanto para o conteúdo escrito por humanos quanto para o conteúdo escrito por IA.
O que é a renderização de páginas da Web pelo Googlebot?
Googlebot nada mais é do que o nome do robô de indexação do Google que explora a Web e recupera informações de páginas da Web para adicioná-las ao índice do mecanismo de pesquisa.
A renderização de páginas da Web pelo Googlebot é um processo que permite que o robô entenda como as páginas da Web são exibidas para os usuários. Ele leva em conta elementos visuais, conteúdo dinâmico, JavaScript, CSS e outros recursos.
É por meio da renderização de páginas da Web pelo Googlebot que o mecanismo de busca avalia a qualidade, a relevância e a utilidade das páginas da Web para os usuários da Internet.
Este vídeo é a apresentação completa de Martin Splitt durante o webinar.
Em poucas palavras
Em conclusão, o Google trata o conteúdo de IA da mesma forma que trata o conteúdo escrito por humanos. Portanto, esse conteúdo deve estar em conformidade com as diretrizes de qualidade do mecanismo de pesquisa.