Bing ha pubblicato sul blog ufficiale alcune importanti raccomandazioni per ottimizzare i siti web in JavaScript per i crawler di ricerca.
Se non più tardi di 15 giorni fa Bing chiedeva aiuto ai SEO per migliorare i suoi crawler, in queste ore lancia un post dove raccomanda l’ottimizzazione per i siti JavaScript, poiché la scansione di quest’ultimi è più complicata della scansione di siti HTML statici in quanto tendono a collegarsi a molti file JavaScript che devono essere scaricati dal server web.
Se la richiesta HTTP per il rendering HTML è una sola, il rendering lato server per i siti JavaScript necessita di più richieste HTTP, che possono arrivare anche a qualche dozzina, e ben si capisce come dozzine di chiamate HTTP richieste per il rendering di una singola pagina non sono di certo ottimali.
Bingbot è generalmente in grado di eseguire il rendering di JavaScript, tuttavia non supporta necessariamente tutti gli stessi framework JavaScript delle ultime versioni dei moderni browser web, e quindi come i crawler degli altri motori di ricerca, è difficile per Bingbot elaborare JavaScript in scala su ogni pagina di ogni singolo sito web.
Ecco perché Bing ha deciso di pubblicare un piccola guida dove consiglia il rendering dinamico come un’ottima alternativa per i siti web che si basano in gran parte su JavaScript.
Spesso i contenuti testuali principali di un sito web dinamico possono essere recuperati tramite il rendering delle pagine, così che qualsiasi motore di ricerca (Google in primis) possa visualizzare il sito web come qualsiasi altro utente che utilizza un browser. Se un sito web non viene visualizzato correttamente, qualsiasi motore di ricerca potrebbe non essere in grado di acquisirne i contenuti.
Quasi un mese fa in un altro nostro articolo scrivevamo di come Google consiglia ai SEO di studiare più JavaScript, proprio perché il rendering dinamico riguarda il rilevamento del Bingbot user agent, il prerendering del contenuto sul lato server e l’emissione di codice HTML statico.
Tutte cose che aiutano a ridurre il numero di richieste HTTP assicurando di ottenere la versione migliore e più completa di ogni singola pagina web ogni volta che Bingbot visita il sito web in questione.
Come dicevamo la scansione di siti JavaScript è più complicata della scansione di siti HTML statici perché i primi tendono a collegarsi a molti file JavaScript che devono essere scaricati dal server web.
Ecco perché Bing offre alcuni preziosi consigli per ridurre al minimo le richieste HTTP garantendo al proprio web crawler di “rendere” ogni volta la versione più completa di un sito:
- Programmare il sito per rilevare l’agente utente Bingbot
- Eseguire il rendering del contenuto sul lato server e generare HTML statico
- Utilizza il rendering dinamico come alternativa per fare affidamento su JavaScript
Ma quando si tratta di eseguire il rendering di contenuti per i crawler di ricerca si può tecnicamente parlare di cloaking?
La risposta fortunatamente è no: finché lo stesso contenuto viene mostrato a tutti i visitatori non è considerato cloaking.
Ecco precisamente cosa dice Bing:
“The good news is that as long as you make a good faith effort to return the same content to all visitors, with the only difference being the content is rendered on the server for bots and on the client for real users, this is acceptable and not considered cloaking.”
Bing quindi rassicura tutti i suoi utenti, ricordando che finché si fa in buona fede lo sforzo di restituire lo stesso contenuto a tutti i visitatori, con la sola differenza che il contenuto è reso sul server per i bot e sul client per gli utenti reali, questo è permesso e non è considerato cloaking.
Quindi, se un sito web è stato creato ed impostato sull’utilizzo di molti JavaScript e si vuole migliorare la scansione e l’indicizzazione su Bing, esaminare il rendering dinamico è la prima cosa da fare.
Perché come dice Bing, sulla scia di Halloween, se realmente vengono seguiti i consigli sopra citati “ne trarrai sicuramente enormi benefici, ricevendo solo treats and no tricks!”
[via blogs.bing.com]