Algoritmi di Google: indicizzazione di siti web nel passato


PASSATO DEI MOTORI DI RICERCA

Nel passato i fattori predominanti per il posizionamento erano i fattori “on page” invariabilmente per i tre motori di ricerca principali (Google, Yahoo, Msn), quindi come veniva “strutturata” la pagina web per ciò che concerne il testo, il title, le keywords, ecc…
Google inizia a differenziarsi dagli altri ponendo attenzione ai fattori “off page” e introducendo il concetto di Pagerank, a cui si associano col tempo dei nuovi algoritmi che vengono introdotti caratterizzandone i “momenti storici della sua vita”.

  • 2003 – termina il concetto di Google dance, gli aggiornamenti non sono più a scansione di tempo ma giornalieri (“everflux”)
  • Novembre 2003 – Il “Florida update” introduce lo “stemming”(azione effettuata dal motore di ricerca per riconoscere non solamente il termine cercato dall’utente ma estendendo ad esso anche parole che hanno la stessa radice linguistica) e la penalizzazione dei siti sovra-ottimizzati (“OOP – over optimization penalty”)
  • Febbraio 2004 – Aggiustamento del Pagerank tramite l’algoritmo “Hilltop” ( il pagerank pone attenzione alla qualità e quantita di link che una pagina web riceve, l’algoritmo HillTop valuta solamente gli “inbound link” da pagine considerate “esperte” sulle ricerche effettuate dall’utente)
  • Ottobre 2005 – Jagger update. Si ha la necessità di diminuire il valore dei link di “scambio” tra siti per aumentarne il pagerank e si effettua la “canonicalizzazione” degli URL per riconoscere l’unico indirizzo per la stessa pagina (esempio: magicnet.it e www.magicnet.it)

Nel presente, Google pone ancor maggior attenzione ai fattori “off page” come contrasto ai siti spam. Per una maggior rilevanza tra i termini di ricerca effettuati e i risultati ottenuti nasce il “TrustRank” che fa perdere importanza al pagerank in quanto si concentra sulla qualità degli inbound links e outbound links, fa scomparire la correttezza della visualizzazione nella toolbar di google del pagerank (oramai aggiornato solo con imprecisione e saltuariamente, a differenza di come avviene nella realtà) e aumenta l’importanza dei “quality raters”, avendo la necessità di bannare siti e creare una catalogazione di siti “Hubs” e “Seeds” (“siti di qualità”).
Il presente è anche caratterizzato da novità non ancora dichiarate da Google, ad esempio il controllo del traffico su una pagina web tramite toolbars, analitycs, proxy, controllo della permanenza degli utenti in una pagina web o redirect in altre, attenzione su localizzazione geografica del server accompagnata all’importanza dall’ estensione di dominio.

0 commenti

Lascia un Commento

Vuoi partecipare alla discussione?
Sentitevi liberi di contribuire!

Lascia un commento