BERT

Il nome BERT è un acronimo e sta per Bidirectional Encoder Representations from Transformers. Si tratta di una Intelligenza Artificiale sviluppata da Google come mezzo per aiutare le macchine a capire il linguaggio naturale in un modo più simile a quello in cui le persone comprendono il linguaggio. Per entrare più nello specifico si tratta di un modello di NLP pre-addestrato e non supervisionato che cerca di capire le sfumature e il contesto del linguaggio umano.

È stata rilasciata come programma open-source da Google nel 2018, ma poi lanciata ufficialmente solo nel Novembre 2019. Adesso è usata dalla ricerca di Google in tutte le lingue a livello globale e ha impatto sui featured snippet.

Per cosa viene usato BERT?

BERT è usato principalmente per fornire risultati migliori per le query usando la sua comprensione delle sfumature del linguaggio per fornire risultati più utili. Questo vale non solo per i tradizionali blu link della SERP, ma anche per i vari rich. Si dice che nel futuro prossimo avrà un impatto su una SERP su 10.

Quando BERT usa la sua comprensione delle sfumature del linguaggio, può capire gli intenti di ricerca collegando le parole tra loro, valorizzando, ad esempio, le preposizioni (come a, da, con, etc.) e le congiunzioni (come e e ma). Quindi, anziché usare solo le parole chiave, BERT può capire la ricerca di un utente esaminando parole come “e” o “contro” nell’offrire i risultati della SERP.

Ecco un esempio di come BERT usa l'NLP per distinguere l'intento dell'utente

In un esempio fatto dallo stesso Google, se cerchi “parcheggiare in collina senza marciapiede,” otterrai una SERP e un featured snippet che ti offrono istruzioni dettagliate su come parcheggiare in collina se non c’è il marciapiede. Grazie all’NLP di BERT, Google sa che la parola “no” significa che non c’è nessun marciapiede, mentre in passato, se cercavi la stessa query avresti ottenuto delle spiegazioni su come parcheggiare in una collina con il marciapiede solo perché avevi incluso la parola “marciapiede” ma Google non avrebbe capito il significato del termine no in questo contesto.

Che cos’è BERTSUM?

BERTSUM è una variante di BERT che viene usata per riassumere contenuti testuali con la tecnica estrattiva. Di base, BERTSUM puà essere usato per estrarre riassunti da pagine web e contenuti online. Si tratta di un potenziale molto interessante per la scrittura di meta description su centinaia o anche migliaia di pagine su un sito web, un’alternativa molto veloce rispetto alla necessità di scrivere tutto questo a mano.

L’effetto di BERT su RankBrain

RankBrain è la prima intelligenza artificiale che Google ha usato per comprendere i contenuti ed è stata usata per comprendere le ricerche sin dal 2015. Pur avendo alcune cose in comune con BERT, le due AI non hanno la stessa funzione e BERT non ha sostituito RankBrain. RankBrain può fare cose come comprendere le ricerche degli utenti anche se contengono refusi o errori di ortografia e grammatica, mentre BERT cerca di capire le sfumature linguistiche di una ricerca.

In sintesi, anche se hanno parecchio in comune e svolgono funzioni di NLP functions per le SERP di Google, non sono la stessa cosa.