BERT sfida la SEO: più semantica e meno keyword

BERT sfida la SEO: più semantica e meno keyword

Sommario

Google lancia BERT

Google lancia ufficialmente BERT, una modifica molto corposa degli algoritmi del suo motore di ricerca. Questa modifica servirà per puntare a comprendere meglio il significato delle richieste quando si cerca qualcosa online. Il cambiamento influirà su circa il 10 per cento delle pagine presenti nella SERP, con modifiche che riguarderanno l’ordine dei risultati mostrati. Google afferma che con il nuovo sistema si potrà offrire un servizio migliore, soprattutto nel caso di utilizzo di frasi lunghe e più complesse come chiavi di ricerca. Verrà resa più naturale quindi la formulazione delle richieste sul suo motore di ricerca.

Una rete neurale per comprendere meglio la lingua naturale

BERT è una tecnica di rete neurale pre-training per l’elaborazione del linguaggio naturale (PNL) chiamata Bidirectional Encoder Representations from Transformers. Si tratta di un sistema per trattare automaticamente le informazioni scritte e parlate in una lingua naturale, cioè nel modo in cui siamo abituati a parlare comunemente tra di noi. Il sistema che, come detto, funziona tramite una rete neurale artificiale, imita il più possibile il funzionamento dei neuroni – le cellule del cervello – e il modo in cui comunicano e lavorano tra loro.

Come applicare i modelli BERT alla ricerca di Google?

Alla base di tutto, la ricerca prescinde dalla comprensione della lingua. È compito del motore di ricerca capire cosa state cercando e far emergere informazioni utili dal Web, indipendentemente da come si scrive o come si combinano le parole nella query. Sebbene negli anni Google abbia continuato a migliorare le proprie capacità di comprensione della lingua, a volte non riesce a farlo bene, in particolare con query complesse o conversazionali. In effetti, questo è uno dei motivi per cui le persone usano spesso “parole chiave”, digitando stringhe di parole che pensano vengano capite dal motore di ricerca, ma che, in realtà, non possono definirsi come una domanda.

Ci sarà più attenzione al contesto ed al senso della frase

La nuova soluzione è basata sui numerosi passi in avanti raggiunti negli ultimi anni dal motore di ricerca più utilizzato al mondo nel campo delle intelligenze artificiali. I suoi ricercatori hanno sviluppato alcuni processi informatici che gestiscono le parole in una frase mettendole in relazione tra loro, invece di gestirle singolarmente come avveniva finora. I modelli basati su BERT hanno la capacità di prendere in considerazione l’intero contesto in cui è stata utilizzata una parola. Per fare questo vanno a ricostruirlo e a analizzare le altre parole presenti nella frase. Questo meccanismo porta a un’interpretazione più accurata del senso della frase e di conseguenza migliora la qualità della risposta, data dai link nella pagina dei risultati del motore di ricerca.

 

Come si è arrivati a BERT?

Quindi, dopo Hummingbird (2013) e RankBrain (2015) ecco BERT, un altro passo verso la comprensione semantica del motore di ricerca più potente ed evoluto al mondo.

Se c’è una cosa che ho imparato negli ultimi 10 anni lavorando su Google è che la curiosità delle persone è infinita. Quando le persone come me o voi ricercano in Google (o in qualsiasi altro motore di ricerca), non sono sempre abbastanza sicuri del modo migliore per formulare una “domanda”. Potremmo non conoscere le parole giuste da usare o come si scrive qualcosa perché, spesso, cerchiamo qualcosa anche per imparare e quindi non abbiamo sufficienti conoscenze per cominciare.

Uno dei più grandi balzi in avanti nella storia della ricerca

Con gli ultimi progressi del team di ricerca di Google nella scienza della comprensione delle lingue – reso possibile dall’apprendimento automatico – il motore di ricerca più famoso al mondo ha fatto un miglioramento significativo. Sarà infatti in grado di comprendere le query, rappresentando il più grande passo avanti negli ultimi cinque anni e uno dei più grandi balzi in avanti nella storia della ricerca.

Questa svolta è stata il risultato della ricerca di Google sui trasformatori: modelli che elaborano le parole in relazione a tutte le altre parole in una frase, anziché una per una in ordine. I modelli BERT possono quindi considerare l’intero contesto di una parola osservando le parole che precedono e seguono, particolarmente utile per comprendere l’intento alla base delle query di ricerca. È questo quindi un passo significante verso la comprensione semantica del motore di ricerca più potente del mondo.

Un nuovo hardware per migliorare la Search

Ma non sono solo i progressi nel software a renderlo possibile: c’era anche bisogno di un nuovo hardware. Alcuni dei modelli che si possono realizzare con BERT sono così complessi da spingere i limiti di ciò che si possa fare usando l’hardware tradizionale. Per la prima volta verranno utilizzati gli ultimi Cloud TPU per fornire risultati di ricerca e ottenere rapidamente informazioni più pertinenti.

Da leggere: Content marketing per acquisire link: idee e strumenti utili

Non domande ad un motore di ricerca ma… ad un amico

Quindi ci sono molti dettagli tecnici, ma BERT cosa significherà per tutti noi?

Bene, applicando i modelli BERT sia al posizionamento su Google che agli snippet in primo piano nella ricerca, Google sarà in grado di fare un lavoro “di fino” aiutandoti a trovare informazioni utili. Basta quindi parlare di “keywordese”, come ha detto Alessandro Agostini nel suo intervento “Featured Snippet Optimization e BERT: la rivoluzione è in atto!” al Marketing Business Summit 2019.

Soprattutto per query più lunghe e più conversazionali o ricerche in cui preposizioni come “per” e “verso” contano molto per il significato, il motore di ricerca sarà in grado di comprendere il contesto delle parole nella query. Potrete cercare in un modo del tutto naturale.

Come funziona BERT? Ecco alcuni esempi

Per avviare questi miglioramenti, i tecnici di Google hanno fatto molti test per garantire che le modifiche fossero effettivamente più utili. Ecco alcuni degli esempi che hanno mostrato il nostro processo di valutazione che dimostrano la capacità di BERT di comprendere l’intento alla base della tua ricerca.

1) Un viaggiatore brasiliano che ha bisogno di un visto per gli USA

Google afferma che il nuovo modello renderà più agevole la ricerca delle cose online, perché BERT è più accurato nel relazionare le parole tra loro. Col sistema precedente, una richiesta come “2019 viaggiatore brasiliano verso gli Stati Uniti ha bisogno del visto” (traduzione letterale dall’inglese) sarebbe stata interpretata in modo piuttosto approssimativo. L’algoritmo avrebbe analizzato ogni parola singolarmente, deciso quali fossero le più rilevanti e, sulla base di queste, avrebbe proposto dei risultati. Nel farlo, il termine “verso” sarebbe stato quasi del tutto ignorato, fornendo risposte diverse dalla richiesta e che avrebbero compreso i siti che spiegano ai cittadini statunitensi se sia o meno necessario un visto per il Brasile.

Esempio risultati Google - Brasile e visto | BERTBERT invece non va a trattare le parole singolarmente, ma le mette in relazione, ed è quindi in grado di capire che “verso” è fondamentale e indica una specifica richiesta da un posto a un altro e non viceversa. Quella che ora per un algoritmo è solitamente una sfumatura “di poco conto” assumerà con BERT un significato molto più importante. Questo è quindi paragonabile a ciò che facciamo noi stessi quando leggiamo o sentiamo in una frase quel termine.

2) Ritirare un medicinale in farmacia per qualcun altro

Se invece doveste chiedere a Google: “Puoi ritirare un medicinale per qualcun altro in farmacia” (traduzione letterale dall’inglese). Con l’algoritmo attuale avremmo sicuramente dei risultati generici su come si ritirano i farmaci con prescrizione. Con il nuovo modello BERT, il sistema comprenderà l’importanza di “qualcun altro” nella frase. Di conseguenza fornirà i risultati su come si debba fare per ritirare il medicinale vendibile solo con ricetta per conto di un’altra persona. Tutta un’altra cosa quindi!

Esempio risultati Google | BERTDa leggere: SEO on-page: anatomia di una pagina ottimizzata perfettamente

BERT: presto in tutte le lingue

La rivoluzione è in atto! Infatti BERT presto aiuterà le persone di tutto il mondo (in Italia è previsto per marzo 2020). Una potente caratteristica di questi sistemi è che possono imparare da una lingua e applicare gli insegnamenti ad altri linguaggi. Quindi possiamo prendere modelli che apprendono dai miglioramenti dell’inglese (una lingua in cui esiste la stragrande maggioranza dei contenuti Web) e applicarli ad altre lingue. Questo ci aiuta a restituire meglio i risultati pertinenti nelle tantissime lingue in cui è offerto Search.

La ricerca non è (ancora) un problema risolto

Indipendentemente da cosa state cercando o da quale lingua parlate, speriamo che voi siate in grado di cercare in modo più naturale possibile. Ma, per fortuna, anche con BERT saremo in grado di stupire continuamente Google. La comprensione della lingua (per la ricerca) rimane una sfida continua e mantiene tutto il team di Google motivato ​​a continuare a migliorare la ricerca. 

Come avete visto, Google modifica continuamente i propri algoritmi, andando ad apportare correzioni e aggiustamenti. Questi non sempre vengono annunciati e talvolta passano inosservati. Alcune volte invece, come questo caso, la modifica va a cambiare in maniera significativa l’approccio SEO che bisognerà avere. Bisognerà quindi a tornare a scrivere, ma non facendo attenzione solo alle keyword, quanto al linguaggio naturale. La rivoluzione è in atto in Google e il modello verrà presto esteso anche negli apparecchi di domotica casalinga come, ad esempio, Google Home e Amazon Alexa.

Dovremo quindi prepararci a fronteggiare la rivoluzione, soprattutto se abbiamo molti testi scritti soltanto per piacere a Google (e quindi in sola chiave SEO). E voi? Siete pronti alla rivoluzione?

Condividi:

Condividi su facebook
Facebook
Condividi su twitter
Twitter
Condividi su linkedin
LinkedIn

CONTATTACI

Autorizzo al trattamento dei miei dati personali in ottemperanza all'informativa privacy