Supporto volontario e collaborativo per Joomla!® in italiano

Guardare il nostro sito con gli occhi di GoogleBot

SEOSpesso l’uso eccessivo di linguaggi client-side come Javascript peggiora l’indicizzazione del nostro sito sui motori di ricerca. Ciò è dovuto al fatto che gli spider dei motori di ricerca non sono in grado di interpretare questi codici. Questo articolo vuole fornire un piccolo aiuto a tutti i webmaster per l’ottimizzazione dei loro siti in funzione di una strategia SEO (Search Engine Optimization).

Nello sviluppo della strategia SEO, si deve porre estrema cura nel costruire le pagine in maniera tale che siano ben apprezzate dai motori di ricerca. Molto spesso (purtroppo) un look accattivante per il visitatore comune non coincide con una pagina apprezzabile per un motore di ricerca.

Premetto quindi un paio di concetti che richiamerò nel corso dell’articolo: robot , bot, spider e browser testuale.

Robot, bot, spider è un termine generico con il quale si è soliti indicare quei software che compiono analisi e ricerche su tutto il web per conto dei motori di ricerca. Il programma con cui Google rileva pagine nuove e aggiornate da aggiungere al suo indice è denominato ad esempio Googlebot.

I browser testuali, che vengono incontro a quelle persone con disabilità visive, sono quei browser web che tralasciano del tutto la visualizzazione di immagini,effetti e contenuti multimediali in genere.

Questi due concetti sono strettamente legati per il semplice motivo che gli spider nelle loro “analisi” delle pagine web visualizzano i contenuti in maniera testuale proprio come farebbe un browser testuale.

Funzioni come JavaScript, cookie, ID di sessione, frame, DHTML o oggetti Flash generalmente vengono usati per  rendere il nostro sito più attraente da un punto di vista estetico, tuttavia questi elementi vengono totalmente ignorati dai robots nel momento della visita alla nostra pagina, anzi gli spiders potrebbero riscontrare dei problemi durante la scansione del tuo sito.

Voglio quindi parlare di un paio suggerimenti che possono permetterci di vedere un’anteprima di cosa visualizzerà uno spider in maniera tale da poter verificare ed ottimizzare il nostro sito per i motori di ricerca.

Lynx è un browser testuale piùttosto conosciuto nonché consigliato nelle guide per i webmaster dello stesso Google. Lynx venne sviluppato originariamente per Linux, e poi per Windows. Potete scaricarlo da questo indirizzo: Lynx. Tuttavia Lynx ha un’interfaccia a riga di comando non proprio intuitiva, quindi proporrò una piccola variazione al suo utilizzo.

Per quanti invece volessero cimentarsi nell’ uso di Lynx ecco un paio di suggerimenti: 1) scaricare la versione per windows 2)Avviare i programma 3)Premere la lettera “g” per inserire l’url da visitare.

La variazione che voglio proporvi è  un plugin per Firefox.  Ecco il llink ad un plug in per firefox veramente interessante: YellowPipe.

Questa estensione mostra una vista di Lynx di una pagina web attraverso l’uso del tasto destro. L’uso è molto semplice: navigate con firefox fino alla pagina che volete “vedere con gli occhi di GoogleBot”; a questo punto cliccate con il tasto destro e selezionate Yellowpipe. Si aprirà una finestra con la visualizzazione di Lynx. Semplice no?

Esiste un altro modo per visualizzare le pagine come le visualizza il robot di Google. E’ sufficiente andare su www.google.it/webmasters/ dove troverete gli strumenti per webmasters di google. Createvi un account o se già lo avete accedete al sito. Selezionate il sito che desiderate monitorare (o aggiungete un nuovo sito se ancora non lo avete fatto) e cliccate a sinistra su “Labs”. Non vi resta che usare il tool sperimentale “Fetch as Googlebot”,  inserire l’url della vostra pagina e premere su “Fetch”.

Questo è tutto!

Michele Alletto: sitoeconomico.eu

commentaCommenta questo articolo sul forum