Come è noto a chi mi legge, a volte mi diverto a fare dei paragoni tra la logica umana e il funzionamento degli algoritmi dei motori di ricerca e in particolare di Google.
Alcuni giorni fa mi è stato chiesto di spiegare in modo semplice e senza tecnicismi cos’è la link popularity , come funziona e quali sono i parametri per giudicare un buon link.
Dopo alcuni vani tentativi in cui non riuscivo a far a meno di termini come link in entrata, link in uscita e “autorevolezza” di un sito, sono finalmente riuscito a spiegare, almeno spero, anche ai meno tecnici quali siano le logiche della link popularity senza utilizzare termini tecnici, ma rifacendomi alla vita reale di tutti i giorni.
Immaginate di dover selezionare una persona di alto livello per una importante posizione di lavoro nella vostra azienda, oltre ad affidare le vostre valutazioni al curriculum del candidato, sicuramente cerchereste di raccogliere informazioni e opinioni sulla persona in questione, chiedendo ai vostri colleghi e agli altri specialisti del settore se sono in grado di fornirvi notizie e opinioni sulla persona che state pensando di assumere.
E’ chiaro che maggiori saranno le opinioni positive sul candidato e maggiore sarà la vostra propensione ad assumerlo.
Immaginate se poi un’opinione favorevole vi provenisse da un professionista universalmente riconosciuto, la cosa varrebbe molto di più di 5 consigli provenienti da persone meno valide professionalmente
Ecco spiegati i primi principi che sono alla base di una buona analisi della link popularity:
- Numero di link (opinioni favorevoli)
- Link a Tema (per avere opinioni vi rivolgete agli altri operatori del settore e non a gente estranea al vostro lavoro)
- Autorevolezza del sito linkante
Una volta intrapresa questa strada mi sono accorto che con lo stesso ragionamento è possibile spiegare il concetto di anzianità di un sito web: un curriculum pieno di esperienze professionali positive è senza dubbio più valido di un curriculum, sia pur ben scritto e valido, di un neo laureato.
Ecco qui però entriamo in un penoso problema: la difficoltà per i neo laureati di trovare un lavoro decente!
A quanto sembra questa difficoltà che la società tenta di fronteggiare da anni trova riscontro anche negli algoritmi di Google, infatti ultimamente (almeno questa è la mia opinione) i nuovi siti, se pur molto validi, che riguardano mercati molto competitivi, hanno una grande difficoltà a emergere nelle SERP del noto motore di ricerca a meno che non abbiano una forte raccomandazione(link da siti autorevoli!)
Insomma sembra proprio che Google abbia deciso di proporre a tutti i “neolaureati” una sorta di Stage (periodo definito come sandbox) non retribuito, però è anche vero che alla fine dello stage i candidati validi vengono premiati e assunti a tempo indeterminato, mentre per altri si prefigura il licenziamento, oppure un contratto a progetto davvero poco rassicurante in termini di stabilità
Tag: Link popularity, Sandbox
Oggi, dopo un piacevole scambio di opinioni sulle evoluzioni delle tecniche SEO, ho avuto modo di pensare meglio alla tematica dell’espansione delle query e ai differenti modi in cui questa può essere interpretata.
In particolare il mio interlocutore ha sostenuto che, dopo essersi documentato sulle tecniche di indicizzazione attualmente in uso e sulle possibili future evoluzioni dei motori di ricerca, ha deciso di abbandonare la creazione di pagine fortemente tematizzate su una singola parola chiave, a favore di pagine più ricche di contenuto(generico), che veicolano, quindi, molteplici keyword.
Questa decisione, “naturalmente”, è motivata dalla nuova tendenza dei motori di ricerca, e di Google in particolare, ad “espandere le query”.
Insomma, se ho capito bene la sua opinione, lui sostiene che costruendo una pagina contenente più keyword, come ad es: “prestiti”, “finanziamenti”, “prestiti personali”, ecc, ha più probabilità di posizionarsi per tutti questi termini che non costruendo una pagina per ogni singola parola chiave(quindi con tag title e contenuto incentrato sul singolo argomento specifico).
Certo non posso sostenere che questa opinione sia sbagliata, anche perché se fossi in possesso della verità assoluta su Google mi sarei ritirato a vita privata da molto tempo , ma personalmente ritengo che “l’espansione della query” non debba influenzare il numero di pagine create, ma il contenuto di ognuna di esse.
Mi spiego meglio: volendo indicizzare un sito per “piccoli prestiti” e per “finanziamenti personali”, io farei 2 pagine con un copy text fortemente incentrato sulla keyword da veicolare.
Certo costruendo la pagina “piccoli-prestiti.html” farei attenzione a riportare con completezza tutti gli argomenti correlati a questa keyword, inserendo il tag title e un titolo alla pagina(in h1) fortemente tematizzato. Costruire una pagina incentrata sia sui finanziamenti personali che sui piccoli prestiti, invece , non mi permetterebbe di poter contestualizzare in modo univoco il contenuto e avrei anche delle difficoltà nel dover costruire il tag title, nel dover definire i titoli interni e gli anchor text con i quali linkare la pagina.
Insomma espansione della query per me significa trattare con completezza ogni singolo argomento(keyword) e non costruire pagine generiche che hanno la pretesa di posizionarsi per tutto.
In fondo anche i target sono diversi, chi cerca piccoli prestiti, o voli Roma, non è interessato ai finanziamenti personali o ai Voli per Napoli .
Non vedo perché la logica utilizzata per costruire le landing pages impiegate nel keyword advertising non possa essere trasportata nel SEO: sono sicuro che fornire una pagina di atterraggio che riporti nel copy text un contenuto fortemente incentrato sulla query effettuata dall’utente possa migliorare di molto le conversioni, rispetto ad una pagina ricca di contenuto, ma disorientante per l’utente, ricordiamoci che i siti hanno l’obiettivo primario di soddisfare le ricerche degli utenti e non le logiche dei motori.
Insomma alla fine il “povero” Googlebot non è altro che un software che deve riuscire a capire il contenuto di una pagina e assegnargli un ranking rispetto ad altri milioni di documenti, quindi se possiamo semplifichiamogli il più possibile la vita
Di ritorno dalle vacanze ho ripreso una delle mia attività preferite: lo spulciamento dei file di log!
Controllando gli accessi degli utenti e degli spider ai siti che seguo, ho notato una caratteristica che sembra accumunare tutti
i domini per i quali ho utilizzato Google Sitemap:una serie di chiamate sequenziali in modalità “head” del caro vecchio Googlebot.
Per i meno tecnici, il metodo HEAD è una variante del metodo GET,
un client che esegue una richiesta di tipo HEAD riceve in output solo le informazioni riguardanti un file (data ultima modifica, ecc), ma non il suo contenuto.
Cercando nel web informazioni in merito, mi sono imbattuto in una discussione sul forum di webmasterworld, dove un utente si è posto la mia stessa domanda: perchè Googlebot effettua questa tipologia di chiamata?
Tra i pareri, più o meno contrastanti, emersi nella discussione, l’opinione più diffusa sembra essere che Googlebot potrebbe utilizzare il metodo head per controllare la
data di aggiornamento dei file, risparmiando un bel po’ di banda e di risorse:
“Probably checking for last modified or if the file exists without downloading it.”
La risposta sembrerebbe logica, quello che non mi spiego è, se proprio l’intento è quello di risparmiare banda, perchè le chiamate in modalità head si ripetono a distanza di pochi secondi, richiedendo sempre lo stesso file?:
66.249.72.65 – - [05/Sep/2006:09:50:01 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:11 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:20 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:23 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:29 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:35 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
Continuerò ad indagare, nel frattempo se avete opinioni in merito sono ben accette!