Affrontiamolo! Il minimo cambiamento che i motori di ricerca, in particolare Google, apportano al loro sistema non passa inosservato alla community. SEO
Nel 2010 sapevamo che Google ha apportato più di 500 modifiche al suo algoritmo:
questa cifra è stata ampiamente superata poiché nel solo 2018 l’azienda ha modificato il suo algoritmo 3.234 volteo più di 6 volte.
Naturalmente, la maggior parte di questi aggiornamenti sono minori e il loro impatto sulle classifiche è insignificante. Quindi non dobbiamo preoccuparci?
Ma alcuni cambiamenti, considerati importanti, si notano facilmente a causa dei loro effetti sul posizionamento e sul traffico del sito web:
Fonte: Google
Questo è il caso dell’ultimo major update di Google: BERT.
Visti gli effetti di importanti aggiornamenti, è del tutto legittimo cercare di conoscere le implicazioni di Google BERT.
Pertanto e come il mio articolo su RankBrain, proverò a mostrare:
- cos’è Google BERT;
- Come funziona BERT e il problema che sta cercando di risolvere;
- L’impatto di BERT sulla SEO;
- Le diverse strategie da adottare per ottimizzare il tuo sito web.
Andiamo!
Capitolo 1. Che cos’è Google BERT?
1.1. BERT: il modello di apprendimento automatico di Google
pochi anni RankBrain, Google sta lanciando un altro aggiornamento che definisce molto importante: BERT.
Questa modifica è stata implementata per la prima volta sul territorio degli Stati Uniti nell’ottobre 2019. Per altri paesi e lingue, in particolare la Francia, sarà necessario attendere fino al 9 dicembre 2019:
https://twitter.com/searchliaison/status/ 1204152378292867074
Come questo tweet tenta di sottolineare, BERT aiuterà l’algoritmo del motore di ricerca a comprendere meglio le ricerche, sia a livello di query che di contenuto.
Tuttavia, è importante notare che BERT non è solo un algoritmo di Google come si potrebbe immaginare.
In realtà, BERT è anche un progetto di ricerca e un paper accademico codice open source che è stato rilasciato nell’ottobre 2018:
Google lo afferma anche nel suo blog:
“ Abbiamo aperto una nuova tecnica di pre-formazione NLP chiamata Bidirectional Encoder Representations from Transformers, o BERT. Con questa versione, chiunque nel mondo può addestrare il proprio sistema di risposta alle domande all’avanguardia (o una varietà di altri modelli) in circa 30 minuti su un singolo TPU Cloud o in poche ore utilizzando una singola GPU..”
Bidirectional Encoder Representation from Transformers”.
Inoltre, BERT è un modello di apprendimento automatico utilizzato per considerare il testo su entrambi i lati di una parola.
Ops! sembra che diventi un po’ complicato con nozioni/termini tecnici.
Non preoccuparti, cercherò di spiegare questi diversi concetti nel modo più semplice possibile.
Nota che BERT è un modello di machine learning e quindi parte dell’IA o dell’intelligenza artificiale.
E proprio come RankBrain, BERT è in continua evoluzione attraverso i modelli e i dati ad esso inviati.
1.2. BERT: La nuova era dell’elaborazione del linguaggio naturale
Attualmente, BERT è diventato importante perché ha notevolmente accelerato la comprensione del linguaggio naturale per i programmi per computer.
In effetti, il fatto che Google abbia reso BERT open source ha consentito all’intero campo della ricerca sull’elaborazione del linguaggio naturale di migliorare la comprensione generale del linguaggio naturale.
Ciò ha anche spinto molte grandi aziende di intelligenza artificiale a creare anche versioni BERT.
Abbiamo quindi:
- RoBERTa da Facebook:
- Microsoft estende BERT con MT-DNN (Multi-Task Deep Neural Network):
- SuperGLUE per sostituire il benchmark GLUE:
ad esempio, esiste una forma di BERT chiamata ” Vanilla BERT “.
Quest’ultimo fornisce un livello di partenza pre-addestrato per i modelli di apprendimento automatico in linguaggio naturale. Ciò fornisce una solida base per il miglioramento continuo della loro struttura. Soprattutto da quando Vanilla BERT è stato preformato sul Banca dati Wikipedia in .
Questo è uno dei motivi per cui il BERT è considerato il metodo che verrà utilizzato per ottimizzare la PNL negli anni a venire.
Per Thang Luong, ricercatore senior presso Google Brain, BERT sarebbe la nuova era della PNL e probabilmente la migliore che sia stata creata finora:
https://twitter.com/lmthang/status/1050543868041555969
Da quanto sopra si capisce che BERT è non utilizzato esclusivamente da Google. Se hai fatto molte ricerche sull’argomento, probabilmente hai visto che la maggior parte delle menzioni di BERT online NON riguardano l’aggiornamento di Google BERT.
Avrai diritto a molti articoli sul BERT (che a volte danno mal di testa perché troppo tecnico/scientifici) scritti da altri ricercatori. E questo non usa quello che possiamo pensare come l’aggiornamento dell’algoritmo di Google.
Ora sappiamo cos’è BERT e parleremo di come funziona.
Capitolo 2: Come funziona Google BERT?
Per capire come funziona Google, devi prima comprendere il concetto di NPL.
2.1. Che cos’è la PNL di Google e come funziona?
La comunicazione tra esseri umani e computer in un linguaggio dal suono naturale è resa possibile attraverso la PNL.
L’acronimo NLP sta per “Natural Language Processing” o in francese “Natural Language Processing”.
È una tecnologia basata sull’Intelligenza Artificiale che consiste nell’apprendimento automatico del linguaggio naturale.
Questa tecnologia è utilizzata anche in:
- elaboratori di testi come Microsoft Word Grammarly che utilizzano la NLP per verificare l’accuratezza grammaticale del testo;
- App di traduzione linguistica come Google traduttore ;
- Applicazioni Interactive Voice Response (IVR) utilizzate nei call center per rispondere alle richieste di determinati utenti;
- Assistenti personali come OK Google, Hay siri, Cortana, Alexa…
PNL è la struttura che permette a Google BERT di funzionare e che si compone di cinque servizi principali per eseguire attività di elaborazione del linguaggio naturale.
2.1.1. Analisi sintattica
Durante questa analisi, il motore di ricerca scompone la query in singole parole e quindi estrae le informazioni linguistiche.
Ad esempio, prendi la seguente query: “Pianta un albero in un giardino”
In questa query, Google può scomporla in questo modo:
- piantatore Tag : verbo all’infinito
- A Tag : determinante
- albero Tag comune
- In tag : preposizione
- Un tag determinante
- giardino Tag : Nome comune
Come nel caso del Stanford/Parser che è un analizzatore del linguaggio naturale:
2.1.2.sentimento
Il sistema di analisi del sentimento di Google assegna un punteggio emotivo alla query.
La tabella seguente mostra alcuni esempi che spiegano come funziona il concetto di sentiment analysis svolto da Google.
Si noti quindi che i valori non provenienti da Google sono stati presi a caso:
2.1.3. Analisi delle entità
Qui, Google prende in considerazione le entità che sono presenti nelle richieste di presentare informazioni su di esse, il più delle volte con il Knowledge Graph.
Se cerchi ad esempio “dimensione della Torre Eiffel”, il motore di ricerca rileverà “Eiffel” come entità.
In questo modo invierà informazioni su questa query:
Google può classificare le cose in questo modo per questo esempio da Toptal :
“Robert DeNiro ha parlato con Martin Scorsese a Hollywood la vigilia di Natale nel dicembre 2011.”
2.1.4. Entity Sentiment Analysis
Analogamente all’analisi del sentiment, Google cerca di identificare il sentiment generale nei documenti contenenti entità.
In questo modo, il motore di ricerca attribuisce un punteggio a ciascuna delle entità in base al modo in cui vengono utilizzate nei documenti.
Prendiamo un altro esempio da Toptal:
“L’autore è uno scrittore orribile. Il lettore è invece molto intelligente. »
2.1.5. Classificazione del testo
L’algoritmo di Google sa esattamente a quale argomento appartengono le pagine web.
Quando un utente effettua una query, Google Match analizza la frase e sa esattamente in quale categoria di pagine web è stata eseguita la ricerca.
Ecco un altro esempio dalla stessa fonte:
hanno analizzato con l’API NLP di Google questa frase di un annuncio su Nikon:
” L’ampio sensore in formato DX da 24,2 MP della D3500 cattura foto e filmati Full HD ricchi di dettagli, anche quando si scatta in condizioni di scarsa illuminazione . In combinazione con la potenza di rendering del tuo obiettivo NIKKOR, puoi iniziare a creare ritratti artistici con una sfocatura uniforme dello sfondo. Facilmente. “
Tradotto, abbiamo:
L’ampio sensore DX da 24,2 MP della D3500 cattura foto e video Full HD altamente dettagliati, anche in condizioni di scarsa illuminazione. In combinazione con la potenza di rendering del tuo obiettivo NIKKOR, puoi iniziare a creare ritratti artistici con una sfocatura uniforme dello sfondo. Facilmente.Arti
Il risultato della classifica è il seguente:
Si può notare che la prova è classificata nella categoria:
- e spettacolo/Arti visive e design/Arti fotografiche e digitali con 0,95 come indice di confidenza;
- Hobby e hobby con un indice di fiducia di 0,94
- Computer ed elettronica / Elettronica di consumo / Fotocamere e videocamere con un indice di fiducia di 0,85.
Questi sono i 5 pilastri della PNL di Google la cui sfida principale è la mancanza di dati.
Secondo i termini di Google :
” Una delle maggiori sfide nell’elaborazione del linguaggio naturale (NLP) è la mancanza di dati di formazione. Poiché la PNL è un campo diversificato con molte attività distinte, la maggior parte dei set di dati specifici delle attività contiene solo poche migliaia o poche centinaia di migliaia di esempi di addestramento contrassegnati dall’uomo. problema
, Google ha fatto un ulteriore passo avanti e ha progettato il Google AutoML Natural Language che consente agli utenti di creare modelli di machine learning personalizzati.
Il modello BERT di Google è un’estensione di Google AutoML Natural Language. Questo è il motivo per cui anche la comunità NLP può usarlo.
2.2. Quali problemi sta cercando di risolvere BERT?
Come esseri umani, possiamo facilmente capire alcune cose che le macchine oi programmi per computer non possono capire.
Il BERT è venuto a correggere questo problema a modo suo e qui ci sono i punti principali di cui si occupa:
2.2.1. Il numero e l’ambiguità delle parole
Sempre più contenuti vengono rilasciati sul web e ne siamo letteralmente sopraffatti: il
loro numero non è di per sé un problema per macchine progettate per elaborare una quantità astronomica di dati.
In effetti, le parole sono problematiche perché molte di esse sono:
- ambigue e polisemiche: una parola può avere diversi significati;
- Sinonimi: parole diverse significano la stessa cosa.
Bert è progettato per aiutare a risolvere frasi ed espressioni ambigue costituite da parole polisemiche.
Sarete d’accordo con me sul fatto che ci sono una moltitudine di parole che hanno diversi significati.
Quando scrivo la parola “magnete”, non sai se è il materiale usato per attrarre il ferro o se è la coniugazione del verbo “amare”.
Questa ambiguità è evidente per testi scritti o scritti, ma diventa molto più difficile quando si tratta di parlare.
In effetti, anche il tono può dare a una parola un altro significato.
Quando dico un insulto in tono amichevole a una persona cara, non ha assolutamente lo stesso significato di quando pronuncio insulti in tono arrabbiato.
Il primo tenderà a farti ridere, ma il secondo rischia di darmi del filo da torcere. ?
Noi umani abbiamo questa capacità naturale di comprendere facilmente le parole che vengono usate.
Ciò che i computer non possono ancora fare perfettamente. Il che fa emergere un altro problema molto più grande:
2.2.2. Il contesto delle parole
Una parola ha un significato preciso solo se usata in un particolare contesto.
In effetti, il significato di una parola cambia letteralmente con lo sviluppo di una frase.
Faccio un esempio molto semplice: “Abbiamo fatto tutti il lavoro, questo è un dato di fatto..
Come esseri umani, abbiamo la capacità di sapere rapidamente che le due parole “fatto” sono diverse
Usiamo di nuovo il programma NLP Stanford Parser :
Un’analisi della mia frase mi dà questo risultato:
il software è riuscito a distinguere tra il “fatto” come verbo nel participio passato e il nome comune “fatto”.
Senza la PNL, sarebbe stato difficile per i programmi per computer fare una differenza sufficientemente chiara tra questi due termini.
In effetti, è il contesto e in particolare le altre parole della frase che consentono di comprendere l’esatto significato delle parole.
Pertanto, il significato della parola “fatto” cambia a seconda del significato delle parole che la circondano.
Ovviamente, più lunga è la frase, più difficile è seguire il contesto completo di tutte le parole della frase.
Così, con l’aumento dei contenuti generati sul web, le parole diventano più problematiche e più difficili da capire per i motori di ricerca. Per non parlare della ricerca conversazionale, che è molto più complessa della scrittura.
Il grande problema che BERT risolve qui è aggiungere un contesto alle parole usate per capirle.
Il ruolo essenziale che svolge il BERT è quindi quello di cercare di COMPRENDERE le parole usate.
Torneremo su questo nelle prossime sezioni di questa guida. Per ora, concentriamoci su un altro aspetto della PNL che è la differenza tra NLU e NLR.
2.3. La differenza tra la comprensione del linguaggio naturale (NLU) e il riconoscimento
del linguaggio naturale La comprensione del linguaggio naturale è diversa dal riconoscimento del linguaggio naturale.
I motori di ricerca sanno riconoscere le parole che usano i loro utenti. Ma ciò non significa che possano capire le parole dal loro contesto.
Infatti, per prendere coscienza del linguaggio naturale, è necessario usare il buon senso. È una cosa piuttosto facile per gli esseri umani, ma difficile per le macchine.
Ad esempio, siamo usati come esseri umani per esaminare diversi fattori al fine di comprendere il contesto delle parole e quindi le informazioni che vengono veicolate.
Questi includono, ad esempio:
- frasi precedenti;
- La persona con cui stiamo parlando;
- Del quadro in cui ci troviamo;
- Eccetera.
Tuttavia, una macchina non può farlo così facilmente, anche se può riconoscere parole in linguaggio naturale.
Per questo possiamo affermare che la NLU, BERT, consente a Google di comprendere meglio le parole che è già abituato a riconoscere.
Lo stesso vale per i dati strutturati e i dati del Knowledge Graph che hanno molte lacune che la NLU riempie.
Ci si può giustamente chiedere: come possono i motori di ricerca colmare le lacune tra le entità nominate?
2.4. Disambiguazione del linguaggio naturale
Tutto ciò che è mappato sul Knowledge Graph non viene utilizzato dai motori di ricerca. Questo è il motivo per cui la disambiguazione del linguaggio naturale viene utilizzata per colmare le lacune tra le entità denominate.
Si basa sulla nozione di co-occorrenza che fornisce un contesto e può modificare il significato di una parola.
Ad esempio, ti aspetteresti di vedere una frase come “sito di riferimento” in un articolo che discute i backlink. Ma vedere un termine come “criptovaluta” sarebbe fuori contesto.
Questo è il motivo per cui i modelli linguistici addestrati su raccolte di testi molto grandi devono essere contrassegnati da set di dati. Questo, utilizzando la somiglianza di distribuzione per apprendere il peso e la misura delle parole e la loro vicinanza.
Qui, BERT viene utilizzato per eseguire i compiti di addestramento di questi modelli addestrati per stabilire la connessione tra concetti e parole:
Grazie a questi modelli, le macchine riescono a costruire modelli spaziali vettoriali per l’incorporazione di parole:
2.5 .che modo Google BERT fornisce contesto alle parole
Una singola parola ha un significato semantico solo se inserita in un determinato contesto.
Il BERT viene quindi utilizzato per garantire la “coesione del testo”, ovvero per mantenere una certa coerenza nel testo.
Quando si parla di coesione, c’è solo un fattore che dà significato a un testo: il legame grammaticale.
Una parte importante del contesto semantico è il tagging di parte del discorso / tagging di parte del discorso (POS):
dovevamo menzionarlo nella sezione sulla PNL! Te lo ricordi, vero?
Diamo ora una risposta alla seguente domanda:
2.6. Come funziona Google BERT?
Vecchi modelli linguistici come Word2Vec che abbiamo visto nell’articolo di RankBrain non integra le parole con il loro contesto:
questo è esattamente ciò che BERT cerca di consentire ai motori di ricerca di fare.
Vedremo come funziona e per farlo, analizzeremo l’acronimo stesso di BERT: Modellazione bidirezionale Rappresentazioni encoder Transformers
2.6.1. La B di BERT:
i modelli linguistici bidirezionali erano un tempo unidirezionali quando si cercava di comprendere il contesto delle parole.
In altre parole, potevano solo spostare la finestra di contesto in una direzione per capire il contesto della parola:
Prendiamo questo esempio per capire meglio: “Ho già consumato il contenuto che è pubblicato”
I modelli linguistici non potevano leggere solo la frase in un certo senso cercare di capire il contesto. Il che significa che non saranno in grado di usare le parole che circondano “consumato” in entrambe le direzioni, sapere che questa parola significa a questo livello consultare / prendere conoscenza.
Questo è il motivo per cui diciamo che la maggior parte dei modellatori linguistici sono unidirezionali e possono scorrere le parole solo in una direzione. Il che può fare una grande differenza nella comprensione del contesto di una frase.
D’altra parte, BERT utilizza la modellazione del linguaggio bidirezionale e può vedere entrambi i lati di una parola target per collocarla nel contesto:
BERT è il primo ad avere questa tecnologia che gli consente di vedere l’intera frase su ciascun lato di una parola al fine di ottenere il contesto completo:
Google lo sottolinea in questo documento di ricerca intitolato “BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding”:
” BERT è il primo modello di rappresentazione basato sulla messa a punto che raggiunge prestazioni leader del settore su un’ampia suite di attività a livello di frase e a livello di token, superando molte architetture specifiche per attività …. È concettualmente semplice ed empiricamente potente. Ha ottenuto nuovi risultati leader del settore su undici attività di elaborazione del linguaggio naturale, incluso l’aumento del punteggio GLUE all’80,5% (7,7 miglioramento assoluto), accuratezza MultiNLI all’86,7% (4 miglioramenti assoluti 0,6%), la risposta allo SQuAD v1.1 domanda nel test F1 a 93.2 (miglioramento assoluto di 1.5 punti) e nel test F1 SQuAD v2.0 a 83.1.”
B”, continueremo con il:
2.6.2. RE di BERT: Rappresentazioni
dell’encoder La rappresentazione dell’encoder è essenzialmente l’atto di inserire frasi nel codificatore e di emettere decodificatori, modelli e rappresentazioni, a seconda del contesto di ciascuna parola.
Penso che non ci sia nulla da aggiungere, passiamo all’ultima lettera dell’acronimo:
2.6.3. T: Transformers di
BERT BERT utilizza “transformers” e “Masked Language Modeling”.
In effetti, un altro importante problema incontrato nel linguaggio naturale è stato capire a chi/a quale contesto si riferisce una determinata parola.
Ad esempio, a volte è difficile tenere traccia di chi stiamo parlando quando si usano i pronomi in una conversazione. Soprattutto quando è una conversazione molto lunga!
Questo problema non manca a livello di programmi per computer. Ed è un po’ lo stesso per i motori di ricerca, hanno difficoltà a seguirli quando usi i pronomi:
- lui/lei;
- lei / loro;
- Noi ;
- Quella ;
- Eccetera.
È in questo quadro che i processori si concentrano, ad esempio, sui pronomi e sul significato di tutte le parole che vanno insieme. Ciò consente loro di collegare le persone con cui stiamo parlando o di cosa stiamo parlando a un determinato contesto.
I trasformatori sono tutti gli strati che costituiscono la base del modello BERT. Consentono a BERT non solo di guardare tutte le parole in una frase, ma anche di concentrarsi su ogni singola parola ed esaminare il contesto da tutte le parole che la circondano.
BERT utilizza trasformatori e “Masked Language Modelling”, il che significa che alcune parole in una frase sono “mascherate”, richiedendo a BERT di indovinare determinate parole:
le parole sono mascherate in modo casuale e BERT è tenuto a prevedere il vocabolario originale delle parole basandosi esclusivamente sul suo contesto .
Anche questo fa parte del processo di sviluppo del modello.
Capitolo 3: Casi di studio: come BERT migliora davvero le SERP
Per capire come funziona Google BERT, utilizzeremo gli esempi che Google ha fornito nel suo articolo su BERT.
Esempio 1: Il significato della parola “qualcuno”
La query che viene presa in considerazione è la seguente:
Tradotto letteralmente abbiamo: “Puoi procurare medicine per qualcuno in farmacia”
Anche se questo non è molto preciso, possiamo capire che l’utente sta cercando per determinare se la persona amata di un paziente può ritirare una prescrizione per suo conto.
Prima che BERT fosse integrato nel suo algoritmo, Google ha dato questo tipo di risposta:
Tradotto, abbiamo la seguente risposta:
“Il tuo medico può darti una prescrizione in… Scrivi una ricetta su carta che porti in una farmacia locale.. Alcune persone e compagnie assicurative scelgono di utilizzare…”
Questa risposta è chiaramente insoddisfacente poiché ignora questo “qualcuno” che non è il paziente.
In altre parole, Google non è stato in grado di elaborare il significato della parola “qualcuno” nel contesto della query.
Dopo BERT, Google sembra essere in grado di cogliere le sottigliezze nelle query che elabora.
Ecco la risposta che Google fornisce ora a una domanda del genere:
Tradotto in inglese, abbiamo:
“Un farmacista può utilizzare il suo giudizio professionale e l’esperienza delle pratiche attuali per … nel migliore interesse del paziente consentendo a una persona, altro rispetto al paziente, a ritirare una ricetta..
Possiamo essere d’accordo sul fatto che questa risposta sia esplicita e risponda inequivocabilmente alla richiesta del ricercatore
In altre parole, Google ha ormai capito il significato semantico della parola “qualcuno”, senza il quale la frase assume un significato tutto nuovo.
Allora, qual era il ruolo di BERT in questo compito? Siamo d’accordo sul fatto che BERT abbia aiutato Google a comprendere la query.
Google, infatti, è stato ora in grado di identificare le parole più importanti della richiesta grazie al loro contesto e concedere durante l’elaborazione una certa nota di importanza.
Questo modo di fare le cose ha permesso a Google di fornire risultati di ricerca molto più accurati.
Esempio 2: Considerata la parola “cabina”
La seguente query:
Tradotto, abbiamo:
“Le estetiste lavorano molto”
Prima di BERT, Google fornisce questa risposta:
Tradotto, abbiamo:
“il tipo di azienda in cui un estetista può avere un impatto sul suo reddito, … le scuole offrono programmi estetici, sebbene ci siano anche scuole estetiche indipendenti..
La risposta non ha davvero nulla a che fare con la query dell’utente
Google, infatti, non ha saputo interpretare correttamente il termine “stand” collegandolo all’espressione “stand-alone” che significa “indipendente/autonomo”.
È per questo motivo che Google ha proposto un risultato che evoca il lavoro indipendente delle estetiste.
Con Bert, Google diventa un po’ più intelligente e comprende il contesto della query:
Tradotto in francese:
“Parla chiaramente in modo che gli ascoltatori possano capire. Tieni il braccio e la mano in una posizione o tieni la mano destra mentre ti muovi…”
Qui, Google elenca lo sforzo fisico che le estetiste devono svolgere come parte del loro lavoro.
La risposta alla domanda “le estetiste lavorano molto” trova una risposta migliore.
Questo è esattamente ciò che dice Google:
“ In precedenza, i nostri sistemi adottavano un approccio di corrispondenza delle parole chiave, facendo corrispondere il termine ‘autonomo’ nel risultato con la parola ‘stand’ nella query. Ma questo non è l’uso corretto della parola “stare in piedi” nel contesto. I nostri modelli BERT, d’altra parte, capiscono che la parola “stare in piedi” si riferisce al concetto delle esigenze fisiche di un lavoro e mostra una risposta più utile. Come
Esempio 3: Il contesto della parola “adulti”
terzo esempio, abbiamo questa query:
Tradotto in inglese, abbiamo:
“Libro di pratica in matematica per adulti”
Qui, possiamo supporre che l’utente intenda acquistare libri di matematica per adulti.
La risposta che Google ha offerto prima di BERT è la seguente:
la scoperta è che Google restituisce risultati che suggeriscono libri per bambini, in particolare 6-8 anni.
Google ha fornito questa risposta perché la pagina contiene la frase “giovane adulto”.
Ma nel nostro contesto non basta abbinare le parole e ovviamente “giovane adulto” è irrilevante per la domanda.
Dopo BERT, Google è in grado di discernere correttamente la differenza tra le due espressioni “Young Adults” e “adult”.
le risposte fuori contesto
:
esclude… (Matematica di base per adulti) Parte 1.”
Esempio 4: Considerando la parola “senza”
Considerando un altro esempio in cui Google ignora una preposizione molto importante:
Tradotto in inglese:
“Stationnement sur une colline without sidewalk”
Ecco la risposta che Google offre prima di BERT:
Tradotto, abbiamo:
“ Parcheggio in collina. In salita: quando si sale in salita, allontanare le ruote anteriori dal cordolo e lasciare che il veicolo ruoti lentamente all’indietro fino a quando la parte posteriore della ruota anteriore si appoggia al cordolo utilizzandolo come un blocco. In discesa: quando si ferma l’auto in discesa, girare le ruote. “
marciapiede” ignorando la parola “senza”.
Google probabilmente non capiva quanto fosse essenziale quella parola per rispondere correttamente a quella domanda.
Quindi stava restituendo risultati per il parcheggio su una collina con un marciapiede.
Bert sembra risolvere questo problema, perché il motore di ricerca comprende meglio la query e il contesto.
Tradotto abbiamo:
“ Per parcheggiare in salita o in discesa. Se non ci sono marciapiedi, girare le ruote sul lato della strada in modo che l’auto si allontani dal centro della strada se i freni non funzionano. Quando si parcheggia su un vialetto in pendenza, girare le ruote in modo che l’auto non rotoli lungo il… ”
Come puoi vedere, Google ha dato una risposta abbastanza decente per la domanda in questione.
A questo punto, hai una migliore comprensione di Google BERT. Vediamo come puoi ottimizzare il tuo sito Web per goderti una buona SEO nell’era di BERT.
Capitolo 4: Come ottimizzare il tuo sito web per Google BERT?
L’ottimizzazione dei motori di ricerca è il processo per aumentare la visibilità di un sito Web nei motori di ricerca.
Pertanto, qualsiasi aggiornamento apportato dai motori di ricerca al loro algoritmo influenza il processo di classificazione.
4.1. Qual è l’impatto di BERT sulla SEO?
Il punto più ovvio che segue da tutto ciò che abbiamo trattato finora è che BERT aiuta Google a comprendere meglio il linguaggio umano.
BERT può cogliere le sfumature del linguaggio naturale umano, il che farà una grande differenza nel modo in cui Google interpreta le query.
L’azienda stima che questo cambiamento influirà sul 10% di tutte le query, come Google sta cercando di farlo sapere:
” Infatti, quando si tratta di risultati di ranking, BERT aiuterà Search a comprendere meglio una ricerca su dieci negli Stati Uniti in inglese, e lo espanderemo ad altre lingue e località in il futuro nel tempo. »
Come RankBrain, Google intende gestire query per lo più lunghe e conversazionali con BERT:
” Soprattutto per query più lunghe e conversazionalio ricerche in cui preposizioni come ‘per’ e ‘to’ contano molto per il significato, la ricerca sarà in grado di comprensione il contesto del parole nella tua domanda. Puoi cercare un modo che sembri naturale per te.”
Il motore di ricerca intende anche acquisire query in cui le preposizioni o qualsiasi altra parola ambigua sono importanti per comprendere il significato della frase.
: BERT è un potente aggiornamento che Google utilizza per elaborare meglio le query al fine di presentare il i migliori risultati possibili per i suoi utenti
Ovviamente un’altra interpretazione/migliore comprensione delle query fa sì che Google fornisca altre risposte invece di quelle che forniva in passato. aspetterebbe. Con
Molte persone si lamentano dell’impatto sulle loro classifiche e altri hanno visto migliorare le loro classifiche, come ci si
BERT, Google è in grado di farlo e per determinare se le pagine che ha classificato per determinate query sono rilevanti o meno.
In questo caso, potrebbe declassarli e mettere al loro posto altre pagine che ritiene molto più appropriate.
E la domanda tanto attesa:
4.2. Come ottimizzare il tuo sito web per Google BERT?
Possiamo descrivere BERT, ma la domanda più importante è cosa puoi fare per ottimizzare il tuo sito web per BERT.
Per questo faremo riferimento a Danny Sullivan di cui ho parlato molto nel mio articolo su RankBrain.
È il collegamento con il pubblico di Google, il che significa che aiuta le persone a comprendere meglio la ricerca e aiuta Google a comprendere meglio il feedback del pubblico.
La sua risposta alla domanda è abbastanza semplice:
Tradotto in francese, abbiamo:
“ Non c’è niente da ottimizzare con BERT, né niente da ripensare per nessuno che lo sia. I fondamenti che ci spingono a premiare i “grandi” contenuti restano invariati… La mia risposta è stata che BERT non cambia i fondamenti di ciò che diciamo da tempo: scrivere contenuti per gli utenti. Tu o chiunque lavori con i clienti potete dire a lungo che è quello che diciamo. non
niente che dovresti fare a partire da oggi che non avresti dovuto fare prima di BERT.
Come RankBrain, Google BERT consente a Google di comprendere meglio le query.
Ad esempio, non valuta i contenuti come un algoritmo che tiene conto della velocità di caricamento dei siti Web per classificarli.
Pertanto, l’ottimizzazione per BERT si riduce a: Scrivere contenuti di qualità per gli utenti.
Non c’è dubbio che Google si stia concentrando sui contenuti da alcuni anni e penso che i suoi prossimi aggiornamenti andranno nella stessa direzione.
Ma cerchiamo di capire come ottimizzare la SEO di un sito nell’ambito di BERT.
Penso che ci siano due cose principali da considerare quando vuoi ottimizzare i tuoi contenuti per questo importante aggiornamento di Google.
Ottimizzazione per BERT: identificare l’intento di ricerca dei tuoi utenti
BERT cerca di comprendere meglio le query dell’utente o di essere più preciso il loro intento di ricerca.
Se le persone fanno ricerca, è soprattutto perché ha un bisogno da soddisfare.
Negli esempi forniti da Google e che abbiamo visto nel capitolo precedente, era necessario comprendere l’intenzione degli utenti per dare una risposta pertinente.
Prendiamo il primo esempio: ” Puoi prendere medicine per qualcuno dalla farmacia “.
Dovrebbe essere chiaro che l’intenzione della ricerca è di: Scoprire se è possibile per una persona cara assumere farmaci dalla farmacia per un paziente.
Leggendo la richiesta in una volta, non è facile rilevare questa intenzione di ricerca. Questo è il motivo per cui è molto importante seguire la fase di determinazione dell’intento di ricerca una volta che hai le parole chiave.
Conoscere l’intento di ricerca implica porre domande come:
- Perché il tuo pubblico effettua ricerche utilizzando determinate parole chiave?
- Cosa stanno cercando di ottenere attraverso la loro ricerca?
- Stanno cercando di trovare la risposta a una domanda?
- Vogliono raggiungere un sito web specifico?
- Vogliono fare acquisti quando utilizzano queste parole chiave?
- Eccetera.
Con il crescente utilizzo della ricerca vocale e mobile, in cui le persone hanno bisogno di risposte rapide e contestuali alle loro domande, Google sta cercando di diventare sempre più capace di determinare l’intento di ricerca delle persone.
Quindi tieni presente che l’intera SERP di Google ora cerca di abbinare al meglio l’intento di ricerca e non la parola chiave esatta che viene cercata.
Negli ultimi anni, scoprirai che ci sono situazioni in cui il termine esatto che stai cercando non sarà nemmeno incluso nella pagina dei risultati di ricerca di Google. Lo dico per esperienza e sono convinto di non essere l’unico.
Ciò accade perché Google è diventato sempre più bravo a determinare l’intento di ricerca delle persone.
Ho trattato a lungo questo argomento, che troverai attraverso articoli come:
I contenuti che soddisfano l’intento di ricerca delle persone verranno premiati con Google BERT.
Ottimizzazione per BERT: pensa alla ricerca vocale e agli snippet in primo piano
Google ha affermato che BERT riguarda query lunghe e conversazionali. E indovina in quale tipo di ricerca ritroviamo generalmente questi due elementi: il Ricerca vocale.
Se BERT gestisce principalmente query lunghe e linguaggio naturale, ciò significa che consente a Google di elaborare buona parte delle ricerche vocali che generalmente sono lunghe:
oltre alla lunghezza, le query sono generalmente colloquiali.
Allo stesso modo in cui non puoi dire al tuo amico “Eiffel” di ottenere informazioni su questo monumento, non lo farai con il tuo assistente vocale.
Sarai più colloquiale ponendo una domanda completa: “Cos’è la Torre Eiffel”.
Con query lunghe + colloquiali, utilizzerai tutte le parole per formulare la tua domanda. Questo può portarti a utilizzare le preposizioni di cui parla Google e che a volte sono importanti.
Conclusione: la ricerca vocale è il tipo di query che Google vuole elaborare con Google BERT.
Questo fatto può essere dovuto al fatto che gli utenti utilizzano sempre più assistenti vocali per effettuare le ricerche:
Google ovviamente non vuole perdersi questa rivoluzione che è molto più impegnativa della classica ricerca con la scritta:
devi cercare di ottimizzare il tuo contenuto per la ricerca vocale e uno dei modi migliori per iniziare è pensare allo snippet in primo piano:
devi capire che i ricercatori vogliono trovare molto rapidamente il contenuto che risponde esattamente alla loro domanda.
Se cerchi qualcosa come “quanto sono 300 euro in dollari”, riceverai una risposta diretta nello snippet in primo piano:
con l’aggiornamento BERT, Google ha fatto uno sforzo per mostrare snippet in primo piano ancora più rilevanti.
Dai un’occhiata al mio articolo su ricerca vocale per imparare alcuni trucchi utili.
Concludiamo la nostra guida con alcune best practices da adottare nella creazione di contenuti nell’era del BERT.
Capitolo 5: Alcune buone pratiche da adottare nel content marketing nell’era del BERT?
Google sta dando sempre più credito a contenuti di alta qualità e devi concentrarti sulla scrittura di contenuti rilevanti per l’utente.
Se hai contenuti di bassa qualità sul tuo sito, potrebbe essere il momento di ripulirlo o aggiornarlo poiché potrebbe non funzionare bene con Google BERT.
Il che ci porta alla prima pratica:
Pratica 1: Verifica dei contenuti che hai pubblicato
Prima di iniziare a creare nuovi contenuti, l’approccio migliore è fare una verifica dei contenuti che hai pubblicato finora. .
Questo passaggio ti permette principalmente di conoscere i contenuti che portano più traffico al tuo sito web e che ti permettono di occupare le posizioni migliori nelle SERP.
Una volta determinati questi contenuti, si effettuerà una valutazione per determinare se:
- sono naturali e non contengono parole chiave con una connotazione meccanica;
- Rispondere alle intenzioni degli utenti di Internet;
- Sono ottimizzati per la ricerca conversazionale;
- Sono sufficientemente qualitativi da apportare un reale valore aggiunto agli utenti di Internet;
- Sono ottimizzati per EAT;
- Eccetera.
Con le risorse che ho elencato finora, probabilmente avrai diversi indicatori che guarderai.
Questa azione ti permette di ottimizzare i tuoi contenuti in modo che non perdano il posizionamento nelle SERP.
Soprattutto se la concorrenza di contenuti che offre un’esperienza utente migliore della tua, avrai prestazioni inferiori.
Pertanto, un audit dei contenuti ti consente di rafforzare e/o migliorare la posizione dei tuoi contenuti che già si comportano bene nelle SERP.
È anche un’opportunità per scoprire contenuti di scarsa qualità e ottimizzarli o eliminarli se alla fine sono inutili.
Detto questo, se hai appena lanciato il tuo sito web, non dovresti dimenticare il fatto che di solito ci vuole è ora che i tuoi contenuti inizino a funzionare.
Per andare oltre su questo livello, puoi prendere in considerazione un audit SEO completo o sfruttare il mio audit SEO gratuito.
Pratica 2: creare contenuti autorevoli
Per definizione, il content marketing implica la creazione di contenuti di alto valore per attrarre e trattenere un pubblico chiaramente definito.
Poiché Google comprende meglio il linguaggio naturale, è chiaro che gli autori di contenuti hanno grandi possibilità di servire i propri lettori con contenuti scritti in un modo più “umano”. E che soddisfano pienamente le intenzioni di ricerca dei ricercatori.
BERT sembra far capire a Google le query del ricercatore ancora meglio, quindi non hai scuse.
La creazione di contenuti autorevoli è una delle strategie più efficaci per adescare Google. La prova: la mia intera strategia di creazione di contenuti si basa esclusivamente su contenuti sempreverdi, che mi hanno permesso di raggiungere attualmente 6.000 visitatori al mese.
Dai un’occhiata al mio articolo su la tecnica one-upmanship per come creare tali contenuti.
Il consiglio più importante è quello di effettuare un’analisi SERP per conoscere l’attuale livello di qualità dei contenuti presenti nei risultati di Google.
Ho dettagliato questo processo nel mio articolo su 5 passaggi per analizzare la SERP per offrire contenuti migliori.
Presterai attenzione a:
- Volumi di ricerca per parole chiave;
- Il tipo di contenuto classificato sulle parole chiave;
- La difficoltà di classifica su queste query;
- I backlink che hanno permesso alle pagine di apparire nei primi risultati di Google;
- Eccetera.
Puoi semplificarti la vita utilizzando strumenti come Moz, Ahrefs, Ubersuggest…
E se ti stai chiedendo perché hai bisogno di uno strumento, ti dirò che uno strumento può darti molte informazioni su ciò che interessa davvero ai tuoi utenti. Ciò ti consente di scrivere contenuti che soddisferanno veramente le esigenze del tuo pubblico.
Pratica 3: Ottimizza il tuo EAT (Autorità e affidabilità della competenza)
Google sta ponendo sempre più enfasi sul concetto di EAT, in particolare per i siti YMYL.
Questi sono i siti Web che hanno un impatto sulla vita degli utenti di Internet:
ma anche se il tuo sito Web non rientra in queste categorie, è altrettanto importante dare grande importanza all’EAT.
Ti starai chiedendo qual è la connessione con Google BERT?
Tieni presente che puoi creare contenuti di qualità, ma se non hai autorità o affidabilità sul Web, potresti avere prestazioni inferiori rispetto ai tuoi concorrenti.
Pertanto, pensare di ottimizzare il tuo sito web per EAT è una delle migliori strategie SEO:
ecco qua, non c’è quasi nulla da aggiungere che tu non sappia già.
Conclusione: Google BERT – Sii semplicemente naturale nella creazione dei tuoi contenuti ad alto valore aggiunto
Sin dalla sua creazione, Google non ha mai smesso di mantenere la sua visione che è quella di offrire i migliori risultati ai suoi utenti.
In questa logica, il leader dei motori di ricerca ha appena aggiunto un altro importante aggiornamento alla sua lista: BERT.
Come al solito, questo cambiamento non è passato inosservato alla community SEO, che deve capire come funzionano i motori di ricerca per ottimizzare la propria strategia SEO.
In questo articolo ho cercato di mostrare come funziona Google BERT evitando il più possibile termini tecnici. Purtroppo non ci sono sfuggito del tutto ☹
Ma abbiamo capito che BERT è un modello di apprendimento automatico “open-source” che si presenta come un importante progresso nel campo dell’elaborazione del linguaggio naturale.
Google lo utilizza per comprendere meglio le diverse parole nelle query, in particolare attraverso il loro contesto. Una migliore comprensione che incide sul 10% delle query elaborate dal motore di ricerca.
L’unico consiglio che l’azienda dà è di concentrarsi su: Creazione di contenuti di alta qualità.
Tutti gli ultimi aggiornamenti di Google, infatti, tendono a privilegiare i contenuti che apportano un grande valore aggiunto agli utenti di Internet.
Pertanto, ora più che mai è il momento di concentrare i tuoi sforzi esclusivamente sulla creazione di contenuti di alta qualità.
Ho avuto l’opportunità di darti alcuni suggerimenti che puoi sfruttare per sfruttare appieno l’era di Google BERT e probabilmente i prossimi aggiornamenti di Google.
Augurate, come al solito, tanto traffico, vi dico: a
presto!