Nella metà di novembre 2003 si produsse un rilevante cambiamento in Google. Un significativo aggiornamento si verificò nelle “serps” di questo motore di ricerca tanto da far scomparire o apparire in millesima posizione migliaia di siti. A questa “novità” venne dato il nome di “Florida update”, per tale scelta vennero attribuiti vari significati, o per l’effetto di un tornado (Florida appunto) o per ricordare il conteggio di voti non chiaro avvenuto in Florida che aveva portato all’elezione di George W. Bush alla presidenza degli Stati Uniti.

Ciò che apparve immediatamente evidente a tutti fu che non tutte le ricerche avevano subito modifiche, ma solo un grande e limitato numero di keywords erano state negativamente influenzate. Questo significava che Google aveva applicato nuovi filtri ad alcune keywords ma non a tutte.
Chi ne fece le spese furono soprattutto i gestori di siti e-commerce, dato il periodo pre-natalizio in cui si verificò. L’impatto che il volume di traffico ( e il conseguente fatturato) è generato attraverso un motore di ricerca può far comprendere l’irritazione di chi effettua vendite online di prodotti o servizi. Molti di essi dovettero addirittura chiudere la loro attività.
I risultati delle pagine di ricerca portarono a risultati di serps qualitativamente molto scarsi, siti che erano nelle primissime posizioni di Google scomparsero a beneficio di siti che non ne avevano le stesse caratteristiche. Successivamente la situazione si ripristinò riportando i siti penalizzati alle originarie posizioni annullando gli effetti negativi del “Florida update”

Ci fu chi teorizzo che tale cambiamento aveva privilegiato gli interessi che Google nutriva verso gli inserzionisti. Chi pagava difatti per gli annunci AdWords non vide peggioramenti significativi di traffico e relativo fatturato economico.

La risposta del motore di ricerca a tali accuse fu di voler affinare i fattori che concorrevano al posizionamento dei siti.
“I primi segnali che abbiamo sono molto positivi e ci dimostrano che noi abbiamo avuto ragione nello scegliere di migliorare ulteriormente la pertinenza del nostro motore, come hanno anche già fatto i nostri competitor”, ha spiegato alla stampa Wayne Rosing, vicepresidente dell’attività motore di ricerca per Google. “Del resto, solo il 3-5% delle inserzioni sono state danneggiate da questo cambio di calcolo delle classifiche e le nostre due attività (motore e pubblicità) sono totalmente distaccate.”
L’obiettivo era quindi di voler ostacolare i siti spam. Google è difatti notoriamente contrario a tecniche che influenzano l’assegnazione di “rilevanza” di qualsiasi documento web e il ranking dei siti

Dal Florida update vennero quindi alla luce nuovi filtri per l’ottimizzazione, l’introduzione della tecnologia “stemming” e la penalizzazione di siti sovra-ottimizzato (OOP – over optimization penalty)
Per stemming si intende l’azione effettuata dal motore di ricerca di riconoscere non solamente il termine cercato dall’utente ma estendere ad esso anche parole che hanno la stessa radice linguistica, ad esempio se il termine cercato è “casa” estenderlo anche a “casalingo”.
Inizialmente Google riconosceva come unico separatore di termine il trattino, quindi motorediricerca e motore_di_ricerca nell’URL venivano “letti” in modo diverso. Creava così differenze nel posizionamento e penalizzazioni sia per il SEO che per l’utente vedendosi filtrati dei siti che in realtà trattavano lo stesso argomento. I domini dei siti furono proprio i primi che ebbero il privilegio di usufruire di questa novità dello stemming, poi anche il testo ottenne questo beneficio.
L’approccio linguistico di Googlebot fu quindi per:

  • Stemming
  • Lemmatisation – uso di un dizionario con le possibili variabili di una parola, per evitare ad esempio che non vengano considerati termini che hanno costruzione diversa per singolare e plurale
  • Abilità ad escludere o dividere gruppi di lettere interne ad una sequenza più ampia
    Abilità di disgiungere una sequenza alfabetica in parti con significati coerenti
  • Separazione degli acronimi più autorevoli e famosi
  • Capacità per lo spider di non tenere in considerazione alcune parole che non incidono sul conteso del testo in modo significativo

Come detto in precedenza altre all’introduzione della tecnologia stemming, il Florida update fece nascere la penalizzazione di siti sovra-ottimizzati (OOP – over optimization penalty).
Per sovra-ottimizzazione si intende la struttura la pagina di un sito web che presenta caratteristiche troppo “tematizzate” attorno ad una o più keywords e quindi costruita ponendo attenzione più ai motori di ricerca che all’utente che la naviga. Ad esempio la sua presenza in tutti i meta tag

  • Nome dominio – www.keyword.it
  • Nome de file della pagina – keyword1_keyword2.html
  • Title – keyword1_keyword2
  • Description e Keywords – keyword1 e keyword2 presente all’interno del meta description e keywords
  • Testo – keyword1 e keyword2 presente all’interno molte volte nel testo ed evidenziata in bold
  • H1 / H2 / H3 – keyword1 e keywords2
  • Link testuali – keywords1 e keywords2 nei vari link testuali della pagina
  • Alt tag delle immagini -> keyword1 e keyword2 ripetuta nei vari alt tag delle immagini

Malgrado tale tecnica non è considerata “illecita” come può esserla la ripetizione continua delle parole chiave (keywords stuffing) può comunque portare ad una penalizzazione, facendola slittare in una peggior posizione.
Google tiene sempre conto della naturalezza del sito (ad esempio, oltre a quanto detto, pone attenzione ad un uso eccessivo di anchor text che hanno lo stesso termine, facendoli perdere di valore.)
L’obiettivo di un buon posizionamento non sarà raggiunto se si sfruttano tali tecniche.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento