top of page
  • Nicola

Come si posizionano le pagine del proprio sito web

L’obiettivo di ogni SEO specialist è quello di posizionare le pagine del proprio sito tra i risultati di ricerca, possibilmente nella prima pagina della SERP, dove hanno maggiore probabilità di essere cliccate.

Per far sì che ciò avvenga, i contenuti della pagina devono soddisfare la query inserita nella barra del motore di ricerca dall’utente, ovvero saper intercettare il search intent sulla base di un criterio di pertinenza.

Dal punto di vista della SEO tecnica, si traduce in un’operazione ben precisa: rendere le pagine del sito ben leggibili dal crawler del motore di ricerca.



Cos'è il crawler

Il crawler (o web crawler o spider) è un bot del motore di ricerca che esegue una scansione periodica dei contenuti presenti nel web, al fine di raccogliere informazioni dalle pagine e aggiungerle al suo indice.


L'indicizzazione di un sito all’interno del web si svolge in 3 fasi:

  • Scansione (crawling);

  • Indicizzazione (indexing);

  • Posizionamento (ranking).

L’intero processo fa sì che quando la query viene inviata, in una frazione di secondo viene restituita una pagina contenente dei risultati posizionati per pertinenza e/o rilevanza.

Il crawling è la prima fase dell’indicizzazione, in cui tutti i contenuti presenti all’interno del web vengono passati in rassegna e ordinati all’interno di un database da un bot, che li classifica soffermandosi su elementi quali: il SEO title, la meta description, gli alt text delle immagini, le parti in grassetto o in corsivo del testo e i link.

Il crawler si sposta da una pagina all'altra seguendo i link interni e li utilizza per costruire la mappatura del sito e creare una gerarchia in base ai contenuti con un maggior numero di rimandi.


Il processo di crawling è iterativo, il che vuol dire che lo spider ritorna a intervalli regolari su pagine già scansionate alla ricerca di variazioni e nuovi contenuti. Ogni volta che il sito viene aggiornato il crawler salva l’ultima versione.


In sostanza, crawlability vuol dire leggibilità del sito da parte del crawler. La capacità del crawler di accedere a una pagina e scansionarla correttamente rivela se il sito è stato ottimizzato nel modo giusto o, al contrario, sono presenti problemi di indicizzazione. In tal caso, il sito potrebbe non può comparire nei risultati di ricerca organici.

Inoltre, non è fondamentale che tutte le pagine del tuo sito web vengano scansionate: una pagina di contatto o una pagina di accesso all’area riservata, ad esempio, sono inutili ai fini dell’indicizzazione, poiché riservate a una nicchia di utenti.

 

Fattori di valutazione e analisi


URL bloccati da Robots.txt

La prima cosa che un bot cerca sul tuo sito è il tuo file robots.txt, all’interno del quale puoi indirizzare il crawler, specificando "non consentire” sulle pagine che non desideri vengano scansionate.

Il file robots.txt è molto spesso la causa dei problemi di scansione di un sito. Se le sue direttive sono errate, possono impedire a Google di eseguire la scansione delle tue pagine più importanti o permettere la lettura di quelle inutili ai fini dell’indicizzazione.

Puoi individuare il problema dal “rapporto sulle risorse bloccate” di Google Search Console, che mostra un elenco di host che forniscono risorse al tuo sito, che risultano bloccate dalle regole file robots.txt.





Errori di tag SEO

Una cattiva indicizzazione può dipendere anche da un uso sbagliato dei tag, se risultano potenzialmente fuorvianti per la lettura del bot, o se sono mancanti, errati o duplicati.

Un metodo veloce per individuare il problema è analizzare il traffico sul sito, principalmente il percorso degli utenti. Le pagine con la frequenza di rimbalzo più elevata possono rivelare delle criticità.

Analizza anche le funzionalità di scansione avanzate della Search Console che mostrano quanti link interni vengono reindirizzati a una sola pagina. Fai attenzione agli elementi di best practice in questo passaggio, come l'assenza di reindirizzamenti 301 interni, la corretta impaginazione e le mappe dei siti complete.


Usabilità mobile

L’usabilità sui dispositivi mobili è un’area di primaria importanza per la SEO: se il sito non è ritenuto utilizzabile su smartphone e tablet, Google potrebbe non mostrarli nella SERP e questo comporta la perdita di una bella fetta di traffico.

Questi problemi possono essere svelati anche dallo strumento della Search Console Google mobile friendly tester.


È buona norma anche controllare sempre l’output dal lato mobile non solo quando il sito viene rilasciata, ma anche ogni volta che viene aggiornata una singola pagina.


Contenuto scarno

Se dopo aver verificato tutti gli elementi di cui sopra, il tuo sito presenta ancora problemi, è possibile che i contenuti delle pagine non siano considerati rilevanti.

Le pagine che presentano contenuti scarni non vengono tralasciate da Google nel processo di scansione, perché il contenuto non è abbastanza unico, non convalida i contenuti di altri siti giudicati autorevoli in quel settore oppure i collegamenti interni sono assenti o scarsi.

Oltre ad analizzare il contenuto non indicizzato e curare la strategia di backlink verso le pagine che non ricevono traffico, è bene aggiornare periodicamente le pagine con contenuti nuovi e dati recenti.



Post
bottom of page