26 Ottobre, 2018 | Di

SEO e AI - Uno sguardo verso il futuro

SEO e AI

Perché parlare di SEO e AI

L’Intelligenza Artificiale (AI nel suo acronimo inglese) è sulla bocca di tutti. Purtroppo il più delle volte è nominata a sproposito.

In questo contenitore vengono inseriti approcci e tecniche che sono molto distanti dalla definizione di Intelligenza Artificiale a cui fanno di solito riferimento gli esperti del settore. Oggi basta un piccolo algoritmo, un minimo di automazione, ed è subito AI.

Quindi perché dobbiamo parlare seriamente di SEO e AI?

Perché Google usa l’Intelligenza Artificiale.

Google Search non è diventato (ancora) un’entità onnipotente dotata di vita propria, ma sappiamo di per certo che utilizza molti strumenti che fanno parte di quel complesso sistema di tecnologie che è attualmente l’artificial intelligence.

E sarebbe strano se non lo facesse.

Il compito di Google Search è immane: trovare, scandagliare, capire e indicizzare il web per poter poi rispondere a qualsiasi domanda con dei contenuti pertinenti.

Con l’Intelligenza Artificiale hanno trovato una soluzione.

Il problema di Google non è tanto trovare e scaricare documenti sul web. È ciò che arriva dopo: comprendere il contenuto delle pagine, interpretare le intenzioni degli utenti che hanno effettuato la ricerca e mettere in relazione le due cose, per proporre i risultati più pertinenti.

All’inizio, la strada percorsa da Google è stata quella più semplice. Analizzava le pagine e le ricerche per quello che erano: stringhe di codice. Se in una pagina si trovava la stringa corrispondente a quella di ricerca dell’utente, il problema era risolto. E per scegliere il risultato migliore bastava guardare quanti link in entrata avevano le pagine trovate.

Come molti ricorderanno, questo ha portato all’utilizzo di tecniche e termini ancora in voga oggi (keyword stuffing e keyword density), che hanno l’obiettivo di “ingannare” l’algoritmo al di là dell’effettiva bontà del contenuto della pagina.

Questa soluzione non era sostenibile a lungo termine: manipolare i risultati di ricerca era relativamente semplice e questo aveva effetti deleteri sulla qualità. Le SERP si erano infatti riempite di una gran quantità di contenuti di basso valore, nati unicamente con lo scopo di posizionarsi per una determinata ricerca.

Google e Intelligenza Artificiale

A partire dal 2013, con l’aggiornamento denominato “Hummingbird”, Google ha scelto la strada più difficile: tentare di capire il linguaggio umano.

Questa strada aveva però un limite gigantesco: per una macchina, capire il linguaggio umano è difficilissimo. Come fare, quindi, per raggiungere l’obiettivo?

Nel corso dei secoli sono state proposte moltissime teorie per dare un senso al linguaggio, senza però arrivare mai a un “algoritmo” definitivo, capace di decodificare in maniera certa il senso delle nostre parole. Un linguista parlerebbe di capire il rapporto tra langue e parole. Si sono però creati algoritmi capaci di approssimazioni decenti: sono algoritmi straordinariamente complessi, che per decenni sono stati solo un esercizio di astrazione.

Negli ultimi anni abbiamo assistito a un grande cambiamento, che ha permesso di mettere in pratica le teorie e le elaborazioni matematico/statistiche create sotto al cappello dell’Artificial Intelligence: la potenza di calcolo necessaria per far girare questi algoritmi è stata finalmente raggiunta.

Machine Learning e Natural Language Processing

La vera svolta è avvenuta nel momento in cui è stata elaborata una categoria specifica di algoritmi che prevede che le macchine possano imparare compiti specifici per poi lavorare in autonomia. Parliamo del cosiddetto Machine Learning.

Il concetto di base è abbastanza semplice in teoria, un po’ meno nella pratica.

Si parte da dati relativi a domande di cui si conosce già la risposta desiderata. Si  fanno analizzare questi dati da complessi algoritmi statistici e si sceglie l’algoritmo che riesce ad avvicinarsi di più alla risposta iniziale. La macchina quindi impara e può ripetere lo stesso processo con nuovi dati.

Si possono dare suggerimenti o regole all’inizio (supervised) oppure lasciare che la macchina si avvicini da sola alla risposta (unsupervised). Più livelli di calcolo si aggiungono, più il Learning diventa Deep.

Per fare in modo che tutto funzioni, oltre alla potenza di calcolo e a risultati statisticamente rilevanti, bisogna avere tanti, tantissimi dati.

Caso vuole che Google abbia a sua disposizione tutto il web.

Oltre agli algoritmi, alla potenza di calcolo e a una grande mole di dati, manca un solo tassello per provare a capire il testo di una pagina senza passare unicamente dalla comparazione lettera per lettera con la ricerca di un utente: far digerire alle macchine il testo scritto.

I computer sono macchine meravigliose quando trattano coi numeri e con tutto ciò che è “digitale” (cioè tutto ciò che è discreto), ma sono meno utili con tutto ciò che è analogico, come il linguaggio.

Grazie alla potenza di calcolo recentemente raggiunta, però, è finalmente possibile non solo analizzare il testo come sequenza di lettere, ma anche mettere in relazione tra loro parole, concetti e frasi.

Grazie a modelli che vanno sotto al nome di Natural Language Processing (o NLP) è possibile trovare i collegamenti logici e di senso all’interno di un corpus testuale grande quanto si vuole.

Ecco dunque sancito il connubio che ha permesso la nascita degli ultimi aggiornamenti di algoritmo (e lo sviluppo di tutte le tecnologie che riguardano ad esempio gli assistenti vocali). 

Quel che ha permesso a Google di “capire” i documenti e le ricerche è stata una combinazione di Machine Learning e NLP, usati su una scala mai vista prima.

Dalla ricerca semantica a RankBrain

Con questo bagaglio di conoscenza, in continuo aggiornamento, Google è riuscita a creare un enorme grafo di conoscenza delle relazioni semantiche e sintattiche che le ha permesso di arrivare a dare risposte a domande e a interpretare richieste complesse.

Questo grafo è il prodotto dell’analisi di miliardi di documenti. Google può quindi comprendere che, se in un mio ipotetico documento parlo di “partire da Piazza del Duomo, prendere la metropolitana e scendere a Bisceglie”, non sto parlando di una qualsiasi città con un Duomo o una metropolitana. E che sicuramente non sto parlando del comune pugliese. Capisce che mi riferisco a Milano, anche se la parola Milano non è presente nel testo. Questo tipo di analisi per noi è banale, ma ottenere un simile ragionamento “astratto” da una macchina è stupefacente.

Immaginatevi questo processo applicato a tutte le parole, i concetti, i luoghi e le persone che potete pensare e avrete la dimensione del grafo di conoscenza semantica di Google.

Ovviamente, questa conoscenza è stata subito messa all’opera, sia nella restituzione di risposte semplici (come nelle risposte in SERP e Knowledge Graph), sia nell’individuazione dei documenti più pertinenti da mostrare per una particolare ricerca (in aggiornamenti come Hummingbird e Panda).

Alla fine del 2015, è arrivato RankBrain e l’esplicito riferimento all’utilizzo di Intelligenza Artificiale ha portato alla ribalta questa rivoluzione.

RankBrain è il caso più eclatante di utilizzo delle tecniche di Machine Learning che Google usa o potrebbe usare. Esistono tantissimi altri brevetti che partono dall’analisi semantica resa possibile da queste tecniche.

RankBrain in realtà è nato come algoritmo di riscrittura delle ricerche. Google stima che il 15% delle ricerche giornaliere siano nuove, cioè che non siano mai state viste da Google prima.

Per riuscire a rispondere a queste domande sconosciute, Google si affida a RankBrain per trasformarle in domande conosciute (e quindi in risposte conosciute). In pratica Google è capace di fare una parafrasi, interpretando strutture e concetti nuovi sulla base di quello che già conosce.

Durante la sperimentazione su questo specifico modello, gli ingegneri di Google si sono resi conto che interpretando con RankBrain le ricerche degli utenti riuscivano a trovare documenti più pertinenti rispetto a quando si affidavano unicamente ai loro segnali di ranking. Quindi il campo di applicazione è stato espanso a tutte le ricerche e non solo a quelle sconosciute.

Non solo testo

L’applicazione di questo metodo d’analisi va sicuramente oltre al solo testo.

Sappiamo che Google è in grado di riconoscere (abbastanza bene) il contenuto delle immagini ed è all’avanguardia per quello che riguarda l’interpretazione della voce (quindi Voice Search e Video).

Dobbiamo anche considerare che una pagina web non è solo il corpo del testo principale. Ci sono tutti i meta che contengono testo e sono quindi interpretabili. Bisogna anche considerare tutto ciò che è fuori dal contenuto principale, come i menù, le sidebar e i footer.

Inoltre, per valutare correttamente una pagina, occorre considerare il sito nel suo complesso. Quindi, a tutte le valutazioni tratte dal profilo backlink, si aggiunge una valutazione sui contenuti del sito (come avviene con Panda).

Cosa si può fare

La comunicazione di Google è stata abbastanza netta nel corso degli anni: non si può fare nulla, se non scrivere “great content”.

Di per sé è un ottimo consiglio, ma alla luce di tutti i fatti esposti sopra, come si fa a capire che cosa costituisca un contenuto “great” per Google?

Se volessi scrivere una ricetta di una torta o la descrizione di un paio di scarpe, che cosa renderebbe il mio contenuto il più vicino possibile all’idea platonica di “ricetta di torta” o di “descrizione di scarpa da ginnastica” per Google?

Un sito di ricette e un eCommerce di scarpe vengono valutati in maniera diversa da Google. Questo lo possiamo dedurre semplicemente guardando le SERP e la loro differente conformazione. Un blog di cinema e uno sulla salute saranno soggetti a regole algoritmiche diverse (come ben visto dal Medic Update di agosto 2018), perché parlano di argomenti totalmente diversi.

La nostra visione

Il nostro obiettivo è affrontare Google sul suo stesso terreno.

Non potremo mai competere quanto a volume di dati analizzati, ma possiamo fare ricorso agli stessi processi logici e agli stessi strumenti.

La SEO deve affrontare questo cambiamento abbracciando la complessità e la scalabilità delle sue azioni.

Google è più complesso che mai da decifrare, ma è lui stesso ad averci suggerito la strada da percorrere per affrontare un problema di questo tipo. Si tratta di adottare soluzioni tecnologiche adeguate al problema.

Google è riuscito a capire e giudicare un testo usando gli strumenti propri dell’AI, quindi noi ci proponiamo di usare gli stessi strumenti per fare il processo inverso: analizzare e studiare i documenti che le SERP ci propongono, scoprendo quali elementi usa Google per determinare le sue risposte.

Usando ML e NLP possiamo avvicinarci ai modelli di ragionamento utilizzati e avere risposte concrete.

Il nostro approccio vuole essere sia olistico, grazie all’analisi di pagine e siti nel loro complesso e di tutti i fattori “offsite”, sia verticale, grazie allo studio delle modalità con cui Google considera specifiche industries e specifici intenti di ricerca.

Vogliamo soprattutto superare il metodo del classico audit, andare oltre al semplice check da semafori verdi e le risposte “c’è/non c’è”. È per questo che abbiamo sviluppato uno strumento in grado di offrire soluzioni mirate e contestuali.

Grazie alle reti neurali possiamo studiare le relazioni complesse e nascoste dietro ad un risultato di ricerca.

Il nostro vuole soprattutto essere un sistema propositivo. Un aiuto pratico nella gestione SEO quotidiana, con suggerimenti e soluzioni specifiche per il sito su cui lavoriamo, gli obiettivi che ci poniamo e l’ecosistema in cui operiamo.

Potrebbe interessarti: