Facciamo un po’ il punto della situazione. Con gli ultimi update ed in particolare con jagger, Google ha penalizzato, almeno nelle aree più competitive, l’uso dei redirect javascript(le cosiddette doorway pages) e le tecniche più diffuse usate per nascondere il testo con i css(display:none, visibilità:hidden). Naturalmente la prima contromossa dei seo è stata quella di posizionare il “codice incriminato” in include esterni esclusi dalla spiderizzazione mediante il robots.txt .
Devo dire che non ho mai creduto in questa soluzione, anche perché molte dorway che hanno utilizzato tale tecnica sono, comunque, state bannate. Sono convinto che il robots.txt comunichi allo spider di non indicizzare una pagina, ma questo non significa che la pagina non venga comunque prelevata e letta da quest’ultimo(l’analisi dei file di log, in alcuni casi, mi ha dato ragione).
A tal proposito, sul forum di Giorgiotave, oggi ho letto un interessante intervento dell’utente agoago, che ipotizza un nuovo filtro di Google capace di penalizzare le pagine che includono file esclusi allo spider. La logica alla base di questo, presunto, filtro non fa una grinza: “se non riesco a leggere ed analizzare per intero un documento, non posso esprimere giudizi sensati sulla sua qualità, pertanto mi astengo dal giudicarlo.”
Complimenti al sempre ottimo agoago per la sua intuizione.
Redirect in javascript e css.
gennaio 6th, 2006 Posted in SEO, SEM e vaneggiamenti vari
gen, 06 2006
No Comments »