Scansione, usability e crawl budget: analizziamo alcuni fattori 1
+39 338 2498107 info@effettoundici.it

Assistiamo sempre più di frequente ad un fenomeno SEO particolarmente curioso dei siti del nostro network e dei nostri clienti,  e non solo, stiamo parlando di un fenomeno che con questa mini guida andiamo ad analizzare con un’attenzione particolare cercando di capirne le concause analizzando tutti i fattori che rendono i nostri siti a volte non troppo performanti. 

Cosa stiamo notando lato SEO?

In siti di svariata natura, e in relazione a qualsiasi tipo di settore si assiste in maniera costante da un paio d’anni a questa parte a questo curioso fenomeno: primi 12 mesi, 0 visite (o poco più), dopo 24 mesi un’impennata di visite fino all’incirca raggiungere le 200 giornaliere, poi successivamente, il nulla, crollo delle visite.

Stiamo quasi sempre parlando di siti che non hanno un brand vero e proprio alle spalle, dunque siti web anche con domini tosti ma letteralmente in chiave secca “comeottenereunprestito.it” che Google sa benissimo perché vengono creati.

 

Cosa succede? Perché accade questo fattore?

A nostro avviso tutto ciò dipende da una serie di motivi ben precisi. Non in tutti i siti del mondo accade quanto detto prima, ma diciamo nella maggior parte di quelli che abbiamo potuto analizzare!

E’ tutta una questione di crawl budget, e di usability lato Google, dunque di tutto quel discorso di usability che va da come gestiamo il file robot.txt del nostro sito a come impostiamo l’architettura in sè del nostro sito web e le relative tassonomie.

Da tenere sempre conto: fattori cruciali per lo sviluppo di un sito web

Google di scansionare il vostro sito web dopo un po’ si stufa, o meglio, non è che si stanca di scansionarlo è come se la sua azione perdesse comunque di aderenza…

…ma perché succede questo? Succede perché Google trova “non ordinata” la struttura del vostro sito, dunque l’architettura delle pagine, tag e categorie, tutto ciò significa disperdere crawl budget inutilmente, cosa che Google, non ama fare, fidatevi… vi ricordate la teoria dei silos, ecco andrebbe sempre applicata…

Non solo, Google a volte si confonde, un’altra problematica che incombe spesso è incentrata in maniera molto seria su un fattore che non tutti si rendono conto fin da subito: a volte l’attenzione di Google si concentra su un versante del sito web che però non è il core “centrale” di tutto, quest’attenzione di Google soffoca il resto…

è difficile da spiegare questo fenomeno,

nel senso, ci sono siti che farebbero meglio ad esser super verticali e basta, altri no. Nei super verticali e basta se si aprono nuove frontiere, nuove categorie, “nuovi rami” (utili per ampliare il bacino d’utenza) questi ultimi rischiano semanticamente di distogliere l’attenzione di Google dall’argomento centrale per cui il sito è stato creato.

Quando Google distoglie l’attenzione da una certa mole di contenuti… non è un bel segno, perché è come se dimenticasse totalmente quella parte di sito, dunque si assiste al fenomeno come prima descritto di “soffocamento” di gran parte della struttura del sito che proprio non riesce a rankare la SERP e pertanto ad emergere.

Bisognerebbe pertanto capire sempre il contesto del progetto al quale stiamo lavorando prima di ampliare la portata del sito a livello semantico allargando il bacino d’utenza delle kw di riferimento, appunto perché si rischia di fare danni anziché di estendere le probabilità di traffico.

1