Quante volte navigando on line, facendo una ricerca con Google ci imbattiamo in un risultato dove nello snippet leggiamo “nessuna informazione è disponibile per questa pagina”. John Mueller ci spiega cosa è successo nel più importante motore di ricerca al mondo.
Se ci ragioniamo un secondo la cosa non è poi così strana, ma soprattutto dobbiamo dire da subito che non è né un errore di Google né di chi ha indicizzato il sito web.
A dircelo come sempre è John Mueller di Google, questa volta tramite Twitter, dove risponde alla domanda di @trooperbill il quale chiede: “Hi, John. What happens to PageRank for URLs disallowed in robots.txt? Does it disappear like with noindex/nofollow?”.
Il sopra citato Mark Rushworth chiede al Senior Webmaster Trends Analyst di Google che cosa succede al PageRank per gli url disallow in robots.txt. Gli url scompaiono come quando si utilizza noindex/nofollow?”.
La risposta già la sappiamo, ed è esattamente ciò che abbiamo anticipato prima. Se un url appare in SERP vuol dire che, in un modo o in un altro, è stato indicizzato.
Tutto ciò avviene semplicemente perché se Google non è autorizzato a eseguire la scansione dell’url, ma le persone si collegano ad esso, Google può “ripescare” tali url.
Ecco perché come dicevamo ad inizio articolo quando si vedono risultati di ricerca dove nello snippet appare la dicitura “nessuna informazione è disponibile per questa pagina” vuol dire che Google ha ricevuto un segnale chiaro che quella pagina web esiste.
Anche perché l’algoritmo di Google individua una pagina web principalmente per due motivi:
- se la query è abbastanza specifica
- ci sono abbastanza link a quella pagina per dare a Google sufficienti suggerimenti che la pagina è rilevante per la query.
In questo secondo caso Google “raccoglie” (o come dicono gli americani “collect”) l’url se autonomamente non è in grado di eseguire la scansione della pagina per vedere quale contenuto è presente nella stessa.
E raccoglie l’url andando ad utilizzare i link che puntano alla pagina e al suo anchor text per capire di più di cosa si stia parlando.
John Mueller di Google su Twitter ha risposto che “se un url non è consentito per la scansione nel robots.txt, può ancora “raccogliere” i link, poiché può essere mostrato anche in search (senza però il suo contenuto)”.
Certamente non tutti gli addetti ai lavori ritengono questa procedura corretta, anche perché se ci pensiamo bene se un SEO o un webmaster decide di bloccare una pagina web perché non vuole farla vedere a Google, non si capisce il motivo “logico” per cui Google la vada a mettere in SERP.
Permetteteci uno spunto finale, visto che in questi giorni abbiamo parlato molto di link building.
Se siete annoiati e vi piacciono le sfide difficili ricordatevi che tecnicamente si può fare anche link building basata proprio su quegli url disallowed.
Buon divertimento a tutti coloro che decideranno di provare questa nuova strada e fateci sapere nei commenti i risultati che otterrete o che già avete ottenuto con questa strategia SEO.
[via seroundtable.com]