www.ivanobambini.it 
Nome utente:
Password:
Nuovo utente

Check your website
HOME | chi sono | portfolio | altro | dove sono | contatti | links |

pointer
I motori di ricerca
-Breve storia
-Come funzionano
-Siti dinamici, Flash, frames
-CMS e indicizzazione
-Spam e guerra agli spammer
-Sull'attendibilita'
-Segnalare un sito
pointer
La professione SEO
-SEO, cosa significa
-Costruire una campagna SEO
-WEB directory e SEO
-Gli algoritmi dei motori
-Keyword density
-Link popularity
-Doorway pages e Cloaking
pointer
Il PageRank di Google
-Introduzione
-Come funziona il PageRank
-Come si calcola il PageRank
-PageRank e struttura dei link
-Conclusioni
pointer
Strumenti utili
-Cosa vedono gli spider
-Risorse e servizi online
-Webmaster tools
-Esempio di analisi di siti web
-Glossario
pointerLa professione SEO

Gli algoritmi dei motori

E' risaputo negli ambienti SEO che il difficile non è posizionare un sito nei motori di ricerca, ma riuscire a mantenere le posizioni nel tempo. Quando scatta il campanello d'allarme è il momento di intervenire, e i cambiamenti avvengono in due direzioni: testi e link. E' sconsigliabile invece intervenire dietro suggerimenti ed espedienti catturati da forum o articoli di esperti: i parametri e gli algoritmi dei motori di ricerca cambiano continuamente, e non è detto che tali suggerimenti siano aggiornati o pertinenti. La cosa migliore è analizzare in concreto i movimenti, e cercare di ricostruire la loro logica interna. Ora, questa logica è conosciuta nella sua interezza solo dai progettisti che l'hanno creata, i quali tengono ben stretti i loro segreti.

La prima cosa da fare è esaminare attentamente i log del server per studiare il traffico del proprio sito e soprattutto la provenienza. Non è uno studio statico, deve poter abbracciare giorni o settimane. In secondo luogo, occorre prendere coscienza delle fluttuazioni in atto nelle classifiche: sono processi di aggiustamento, anch'essi possono durare giorni durante i quali le classifiche assumono configurazioni e fluttuazioni provvisorie prima di pervenire all'aggiustamento finale. I log dicono molte cose: gli accessi dei crawlers, quanti visitatori ha il sito, e soprattutto la provenienza: se provengono da un motore di ricerca, e quale. Se il sito retrocede drasticamente ma è ancora presente nelle classifiche, significa che esso è ancora presente nel database, quindi non è necessario segnalarlo di nuovo.

Il nome del dominio è, abbiamo visto, il "tag" più importante. E' auspicabile che contenga una parola chiave, ma di solito coincide con il nome dell'azienda. Per il tag <title> le cose stanno invece diversamente: ogni pagina deve avere un proprio titolo, salvo il caso in cui si desidera veicolare una parola chiave unica per tutto il sito. Cosa più importante, il tag <title> deve contenere la parola chiave principale della sua pagina, o meglio, questa parola chiave deve essere la prima parola del titolo. Non ci sono regole predefinite. In primo luogo, secondo le raccomandazioni del W3C, il titolo non deve contenere più di 64 caratteri, altrimenti c'è il rischio che la parte eccedente venga troncata dai motori di ricerca. Google mostra 66 caratteri, Yahoo 120, quindi un titolo di 120 caratteri deve avere i primi 66 focalizzati per entrambi, i restanti solo per Yahoo.

  • Il titolo viene usato dalle directory come intestazione del sito: Lo stesso vale per webmaster che linkano il vostro sito
  • Il titolo è ciò che appare come intestazione in quasi tutti i motori di ricerca
  • Il titolo è utilizzato dai motori di ricerca come strumento primario per classificare e posizionare un sito
Il KPI (Key Performance Indicators) è un sistema di misura che permette di quantificare se nel corso del tempo la propria iniziativa avrà successo o è destinata a fallire. Questo valore si basa sull'analisi delle pagine visitate per sessione, il numero di pagine visistate da chi entra nel vostro sito. L'analisi deve essere in grado di quantificare:
  • il numero complessivo di pagine viste per periodi di tempo (es. settimane) per assicurarsi che sia costante o in aumento, il che significa che il sito viene navigato
  • il numero di visistatori unici. Ogni visitatore rappresenta una sessione
Questo per i due fattori presi separatamente. Ma il rapporto tra questi due fattori è la parte più significativa, in quanto mostra la media delle pagine viste per visistatore: se ad esempio per acquistare un prodotto in un sito e-commerce è necessario aprire 4 pagine, questa media deve essere superiore a 4, altrimenti c'è un problema immediato da risolvere. Ebbene, il tipo di analisi KPI determina in quale pagina esiste il problema. Spesso si tratta della homepage. Se un visistatore abbandona il sito senza scendere alle pagine interne, può significare che vi è pervenuto per errore, attraverso l'uso di parole chiave per le quali si aspettava qualcosa di diverso. Ma può significare anche che la homepage è sovraccarica, si apre troppo lentamente. Oppure che i contenuti del sito non destano interesse.

Caso più raro, ma ugualmente allarmante: cosa significa se questo KPI è troppo alto? Anche se i contenuti del proprio sito sono interessanti, il visitatore naviga troppo tra le pagine probabilmente perché è difficilie trovare ciò che si cerca: può trattarsi di un'architettura del sito errara o poco chiara, o di un motore di ricerca interno inefficiente. Il caso più emblematico sono quei tipi di ricerca avanzata che lasciano libero l'utente di scegliere più paramentri trascurando la loro interdipendenza. Ogni parametro scelto deve filtrare quelli restanti, altrimenti gran parte delle ricerche restituirà "nessun elemento trovato".

Ogni visita dovrebbe in teoria generare un'azione interattiva, ad esempio la registrazione dell'utente, l'iscrizione alla mailing list per ricevere le news, oppure l'acquisto di un prodotto.

Queste sono le regole fondamentali del funzionamento dei motori di ricerca che è necessario conoscere:

  • Le classifiche cambiano continuamente
    L'approccio migliore nello studiare il proprio posizionamento è quello esteso nel corso del tempo. Inoltre, un processo di aggiornamento può durare anche una settimana, per cui prima di trarre conclusioni affrettate sulle fluttuazioni del proprio sito, e quindi prendere decisioni affrettate, è meglio aspettare.
  • Nessuno conosce esattamente gli algoritmi dei motori di ricerca
    Gli unici che li conoscono sono gli ingegneri che li hanno creati. Alcuni suggerimenti su come questi algoritmi cambiano, o avvertimenti se sta accadendo qualcosa di nuovo destinato a cambiare le classifiche possono essere captati dai forum e dai newsgroup, per cui è fondamentale frequentare questi luoghi.
  • E' necessario un programma per le statistiche dei file log
    Questo permette di consultare report completi sul numero dei visitatori unici, sulle parole chiave utilizzate per accedere al sito, sul sito di provenienza. Cosa più importante, questi report possono essere confrontati nel tempo.

  • Iscrivere il sito ai motori di ricerca non serve a nulla
    L'esperienza insegna che il difficile non è farsi trovare la prima volta, ma impedire che pagine ancora provvisorie vengano indicizzate troppo in fretta. I software che promettono l'iscrizione simultanea a centinaia di motori di ricerca devono essere utilizzati solo in casi estremi. Infine, contrariamente a un luogo comune molto diffuso, segnalare più, un sito già, indicizzato non comporta alcun danno: semplicemente, la segnalazione viene ignorata. Tutto questo vale per i motori di ricerca basati su crawlers: per le directory umane le cose stanno diversamente.
  • Non vivere con l'ossessione del PageRank
    E' molto meglio concentrare l'attenzione sul traffico effettivo del sito. Il PageRank è solo una delle decine di equazioni che determinano la valutazione di un sito. Inoltre, Google è solo uno dei motori di ricerca, anche se il più importante, e i maggiori motori usano tutti algoritmi diversi e producono classifiche diverse.
Per quanto concerne l'analisi degli accessi, occorre una padronanza della terminologia, accompagnata agli eventi cui si riferisce:
  • Per pagine viste si intende il numero di richieste di pagine da parte di un singolo utente per un determinato periodo di tempo. L'utente può essere identificato da un cookie o dal proprio indirizzo IP.
  • Per hit si intende la richiesta non di una pagina, ma di un file. Una pagina in genere è composta da più files: immagini, animazioni Flash, fogli di stile, script client, fiels audio. Ognuno di questi files rappresenta un hit, quindi il numero di hits è sempre maggiore delle pagine viste.
  • Per Pageview/Impression si intende il numero di volte in cui una pagina viene vista per intero.
  • Per visite uniche si intende una pagina vista da un unico visitatore nello spazio di 24 ore.
  • Per referrer si intende una pagina che punta al proprio sito. L'analisi dei referrer indica quali sono i siti che linkano al proprio, la qual cosa può essere molto importante per vedere da dove proviene il traffico pilotato dai motori di ricerca.
  • Per User-agent si intende il sofware usato per accedere a un sito, che non sempre coincide con un browser: può trattarsi di uno script PHP o ASP, o di uno spider come Googlebot.
Esistono diversi modi per tracciare il traffico:
  1. Contatori. Quelli visibili sono molto usati ma non danno una buona immagine professionale
  2. Trackers. A differenza dei contatori, mostrano il percorso effettivo seguito dai visitatori, gli intervalli di tempo tra una pagina e l'altra, il browser, le pagine viste, i referrer, ecc.
  3. Log-files. Gli ISP (internet service provider) conservano files che contengono tutte le informazioni sul traffico. Prima di fare un contratto con un ISP, è consigliabile assicurarsi l'accesso a questi files. I files log sono di 4 tipi:
    1. Access log: fornisce informazioni su chi visita il sito, le pagine visitate e il tempo di permanenza.
    2. Referrer Log: il sito di provenienza del visitatore. Se si tratta di un motore di ricerca, è possibile vedere le parole chiave utilizzate.
    3. Agent Log: il browser e il sistema operativo del visitatore.
    4. Error Log: gli errori generati dal server e inviati al browser client.
  4. Software per l'analisi del traffico. Sono programmi per analizzare i log files del server. I più famosi sono Webalizer e WebTrends
Per concludere, l'analisi del traffico fornisce informazioni molto importanti per stabilire:
  1. Quali pagine sono più popolari e quali sono le meno visitate
  2. Chi sono i visitatori
  3. Quali sono i browser più utilizzati
  4. Quali sono i motori di ricerca più usati
  5. Quali errori contengono le proprie pagine web.


Inizio pagina Inizio pagina
[HOME] [chi sono] [portfolio] [altro] [dove sono] [contatti] [links]

Ultimo aggiornamento pagina: 15/02/2007 10:41:20