Di ritorno dalle vacanze ho ripreso una delle mia attività preferite: lo spulciamento dei file di log!
Controllando gli accessi degli utenti e degli spider ai siti che seguo, ho notato una caratteristica che sembra accumunare tutti
i domini per i quali ho utilizzato Google Sitemap:una serie di chiamate sequenziali in modalità “head” del caro vecchio Googlebot.
Per i meno tecnici, il metodo HEAD è una variante del metodo GET,
un client che esegue una richiesta di tipo HEAD riceve in output solo le informazioni riguardanti un file (data ultima modifica, ecc), ma non il suo contenuto.
Cercando nel web informazioni in merito, mi sono imbattuto in una discussione sul forum di webmasterworld, dove un utente si è posto la mia stessa domanda: perchè Googlebot effettua questa tipologia di chiamata?
Tra i pareri, più o meno contrastanti, emersi nella discussione, l’opinione più diffusa sembra essere che Googlebot potrebbe utilizzare il metodo head per controllare la
data di aggiornamento dei file, risparmiando un bel po’ di banda e di risorse:
“Probably checking for last modified or if the file exists without downloading it.”
La risposta sembrerebbe logica, quello che non mi spiego è, se proprio l’intento è quello di risparmiare banda, perchè le chiamate in modalità head si ripetono a distanza di pochi secondi, richiedendo sempre lo stesso file?:
66.249.72.65 – - [05/Sep/2006:09:50:01 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:11 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:20 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:23 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:29 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
66.249.72.65 – - [05/Sep/2006:09:50:35 +0200] “HEAD / HTTP/1.1″ 200 0 “-” “Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
Continuerò ad indagare, nel frattempo se avete opinioni in merito sono ben accette!
Lo sanno tutti ma in pochi lo dicono: il settore nel quale si sono sviluppate per primo delle tecniche volte a migliorare l’indicizzazione e il posizionamento di un sito è stato il mercato del porno.
In particolar modo in Italia dal 1999 al 2003 abbiamo assistito ad un autentico far west dei dialer.
Molti sono state le società che si sono arricchite a suon di 2€ di connessione al minuto, e come spesso succede, anche in questo settore la maggior parte delle visite generate dai siti, proveniva dai motori di ricerca.
Certo le tecniche di posizionamento utilizzate in questo settore non erano tra le più evolute: largo utilizzo di keyword stuffing, altissima keyword density e un bel po’ di testo nascosto, ma la cosa deve aver funzionato bene, a giudicare dal volume di soldi che ruotavano intorno a queste società.
Dopo la stangata del 2003, questo settore nel web ha fatto registrare un vistoso calo di affari, ma è tutt’altro che morto.
Il colpo di grazia potrebbe, però, arrivare dallo stesso Google, che a quanto sembra ha aggiunto un nuovo filtro, almeno io non lo conoscevo, che si frappone tra il click sulla pagina del motore di ricerca e il sito finale:
Sul forum di html sembra essersi già sviluppata una discussione sull’argomento.
Eccomi di ritorno dalle vacanze e già alle prese con la vita reale
Prima di iniziare a parlare di Google e compagni, però, devo assolutamente fare gli auguri a Simone per il suo nuovo progetto, che a quanto sembra oltre all’interesse per il SEO, condivide con me anche un’altra passione!
Dopo alcuni disguidi con la mia assicurazione auto (più che altro con il mio assicuratore) , ho deciso di confrontare i preventivi e le offerte delle altre società di assicurazione.
Sarò malato, ma dopo quattro agenzie dove mi sono sentito ripetere le stesse cose, ho capito che Google ha copiato di sana pianta il suo algoritmo dal mondo delle assicurazioni auto!
Leggendo le possibilità che mi sono state paventate dalle varie agenzie potrete rendervene conto anche voi:
- Se nel mio nucleo familiare ho una persona che usufruisce della prima classe, come parente posso partire dalla nona e non dalla 14 classe, come la norma vorrebbe. (Trustrank)
- I nuovi assicurati pagano di più, poi man mano che passano gli anni, senza avere sinistri, si sale di categoria. (Una specie di Sandbox e anzianità del dominio)
- Se l’assicurazione accerta che un assicurato ha fatto una falsa segnalazione di sinistro, oppure ha ingigantito il danno alla vettura, quest’ultimo viene automaticamente declassato in 15 classe, oppure non gli viene più rinnovata l’assicurazione (Penalizzazione e BAN)
- Se più parenti, appartenenti allo stesso nucleo familiare, si servono nella stessa casa di assicurazione, si possono avere ulteriori vantaggi (una sorta di Link Popularity)
- Se con un’auto si sono avuti più sinistri, cambiando automobile, lo stesso proprietario può usufruire di alcuni vantaggi e riaprire un nuovo contratto assicurativo, anche con la stessa società (insomma bannato un dominio il proprietario può sempre registrarne altri )
Dopo aver colto queste similitudini, mi sono messo alla ricerca di un modo per ottenere più vantaggi e tariffe più convenienti per la mia assicurazione, si sa mai che funzioni anche con Google
Anche il nostro settore ha quest’anno il tormentone estivo: tutti ormai, nei forum italiani e non, parlano dell’arrivo del nuovo spider di Google dedicato a stabilire la qualità delle landing pages utilizzate dagli inserzionisti adwords.
Questo nuovo valore qualitativo, se ho capito bene, sarà utilizzato per stabilire il livello di bid minimo di un investitore in base alla qualità della landing page utilizzata.
Quando ho appreso la notizia ho cercato di individuare quali caratteristiche potrebbero essere analizzate dal nuovo spider per stabilire la qualità di una landing page, visto che per sua natura questa pagina non deve contenere molte informazioni(in modo da non distogliere l’utente dall’azione che vogliono fargli compiere), deve essere graficamente accattivante e deve veicolare in modo forte una call to action.
Ieri sera parlando con Marco Fontebasso, che saluto, mi ha suggerito un nuovo modo di vedere la cosa: ho sempre creduto che Google avesse implementato analytics per registrare i dati di conversione degli investitori adwords (unico dato che attualmente non ha), però non avevo mai pensato che questi dati potrebbero anche essere usati per individuare le principali caratteristiche delle landing che hanno convertito di più, in modo da estrapolare delle regole generali che potrebbero essere alla base del nuovo algoritmo.
Penso proprio che mi toccherà fare lo stesso lavoro, analizzando le caratteristiche comuni che esistono tra le landing pages delle nostre campagne che hanno convertito di più.
Anche se le conversioni, mi suggerisce Paola, possono dipendere anche da un sacco di altri fattori come la coerenza tra la creatività e la landing pages, il brand del cliente, la convenienza del servizio offerto ecc.
Questa mattina, analizzando i dati di conversione di alcune campagne di keywords advertising, Paola mi ha fatto notare una cosa molto strana: al contrario del circuito di Google, su Yahoo Search Marketing, le keywords generiche(assicurazioni, finanza, ecc) registrano un livello di conversione molto elevato.
In un primo momento ho cercato di spiegarmi il fenomeno prendendo in considerazione le diverse caratteristiche dei target ai quali le due piattaforme si rivolgono, ma la spiegazione non mi sembrava essere molto convincente.
Successivamente analizzando i risultati di adwords per query specifiche (es: assicurazioni motociclo 50cc, assicurazione casa, ecc.) ho potuto constatare, all’interno del circuito di Google, la presenza di molti siti riportanti i risultati di Yahoo Search Marketing (i cosiddetti arbitrage ).
Più nel dettaglio ricercando su google “assicurazione casa”, e cliccando su uno degli arbitrage presenti nei risultati adwords un utente atterra su una landing page riportante i risultati di Overture per “assicurazione” e non per la reale ricerca effettuata dall’utente.
In questo caso alla piattaforma di Yahoo Search Marketing è stata lanciata una query diversa da quella originale(“assicurazione” vs “assicurazione casa”) generando così la perdita dell’informazione riguardante la ricerca iniziale.
Una eventuale conversione, dall’ex circuito di Overture, verrà assegnata pertanto come correlata al termine generico, mentre l’utente aveva in principio digitato una query specifica.
Se questo discorso fosse plausibile, e il traffico generato dagli arbitrage fosse in grado di influenzare significativamente i dati della piattaforma di advertising, si potrebbero trarre due conclusioni principali:
- i dati di conversione forniti da Yahoo search marketing sono parzialmente falsati
- su questo circuito è molto più importante investire sulle keywords generali e non sulle parole specifiche e magari adottare delle creatività “neutre” associabili anche a ricerche più dettagliate.
Gestire una campagna di search advertising con obiettivi di vendita e ROI è indubbiamente un’operazione complessa che richiede un’attenta selezione ed analisi delle parole chiave utilizzate: si parte con un set di parole chiave ampio per poi operare degli aggiustamenti e concentrarsi sulle parole che hanno generato maggiori conversioni.
Questa logica schiacciante deve però tener conto del processo d’acquisto degli utenti, che nelle fasi iniziali della ricerca, utilizzano parole chiave generiche come “voli” “compagnie aeree online” o “assicurazioni online” per poi definire le proprie ricerche con keywords sempre più specifiche come “voli a cuba” o “assicurazioni auto Direct Line”.
Il successo di una campagna sui motori di ricerca è legato alla capacità di essere presenti durante tutte le fasi del processo d’acquisto, trovando un equilibrio tra parole generiche, tipicamente più costose e keywords più specifiche, che costano meno, generano conversioni più elevate ma rischiano di limitare il potenziale di vendita di quei prodotti e servizi che richiedono un processo di acquisto più articolato.
Ad esempio nel settore travel, utilizzando strumenti di tracciamento che monitorano le conversioni legate alle parole chiave impiegate per la prima ricerca, si registra, durante il periodo estivo, un maggior numero di conversioni generate da parole generiche come “volo” o “viaggio low cost”. Questa tendenza si spiega considerando che l’acquisto della vacanza estiva presuppone un processo d’acquisto generalmente più lungo ed articolato rispetto all’acquisto di un utente che prenota un volo per lavoro, probabilmente con maggior frequenza durante l’anno e sa esattamente di cosa ha bisogno.
Se poi pensate che, secondo una ricerca effettuata in occasione del Search Engine Strategies di New York sono necessarie mediamente 65 ricerche prima di effettuare un acquisto online e che il 75% delle keywords utilizzate dagli utenti sono di carattere generico, è evidente che i termini generalisti sono assolutamente rilevanti in una campagna di successo.
Per concludere vorrei quindi fare un paio di considerazioni sugli strumenti di bid management e di day parting che operano in una logica di ottimizzazione, dando visibilità alle parole che convertono di più e nelle ore più redditizie, riducendo la presenza di parole apparentemente meno performanti: questi strumenti sono chiaramente utili purchè non si sottovalutino il potenziale di conversione e i tempi di latenza nel processo di acquisto degli utenti. Idealmente si dovrebbe effettuare un’analisi di medio-lungo periodo delle campagne e tenere in considerazione la stagionalità del business: a questo punto si possono settare delle regole che consentono massima visibilità alle parole più performanti, mantenendo comunque la presenza delle keywords utilizzate da utenti meno avvezzi al mezzo e con un processo d’acquisto più lento.
L’estate è tipicamente la stagione in cui le concessionarie di pubblicità organizzano feste ed eventi a tema per favorire l’incontro con aziende, clienti, agenzie ed esponenti del settore.
Nelle ultime settimane abbiamo così ricevuto numerosi inviti da Yahoo!, Tuttogratis, Iconmedialab ecc. che con piacere accettano la partecipazione alle feste non solo dei loro diretti interlocutori, ma di tutti i colleghi che collaborano nelle medesime aziende. E’ quindi del tutto normale che le email di invito vengano girate alle caselle di posta dei colleghi che possono così effettuare l’iscrizione e ricevere gentili messaggi di conferma all’invito.
La ferma intenzione di creare un evento di elite è stata manifestata dall’aristocratico Google, che, al contrario delle altre concessionarie, ha inviato esclusivamente inviti nominativi riservati ai destinatari.
Ignorando la fiscalità della cosa e volendo estendere gli inviti ai nostri colleghi abbiamo in buona fede girato gli inviti ai nostri compagni di lavoro, che pur non facendo parte della divisione SEM sono pur sempre impiegati in un’azienda grande cliente di Google.
Potete quindi immaginare non solo la sorpresa ma direi l’imbarazzo nel vedere i nostri colleghi rimbalzati da Google con un messaggio di rifiuto alla partecipazione. Ironia della sorte, a causa di una disattenzione di qualche impiegato, la mail conteneva in allegato un file con l’elenco dei partecipanti o aspiranti tali con tanto di nomi, ruolo aziendale, età, email, numero di telefono e una simpatica classificazione come VIP, invitato, imbucato e IMBUCATO ma CONSIGLIATO.
Possiamo anche accettare che Google non intenda estendere l’invito a chi non è gradito ma essere imbucati e addirittura elencati su una lista con una serie di dati personali inviati a tutto il settore ci sembra veramente troppo.
Una domanda nasce spontanea: come si diventa imbucati ma consigliati?
Salvatore e Paola
Tempo fa avevo già parlato dell’implementazione, da parte di Google, di un nuovo spider, specializzato nell’analisi della qualità delle landing page utilizzate nel circuito adwords.
Sembra che lo sviluppo stia proseguendo a gonfie vele, almeno da quanto leggo su searchenginewatch. Il nuovo algoritmo avrà il compito di individuare le tante landing che presentano ulteriori risultati sponsorizzati (mediante l’utilizzo dello stesso adsense e il circuito Yahoo search marketing) al fine di alzare il loro livello minimo di bid:
Next week, the new algo for the landing page quality score will be released, and affected advertisers will see their minimum bid prices changed in the AdWords account. Google stresses only a small number of advertisers will be affected, and offers assistance for those advertisers who feel they have been wrongly impacted by the new changes. All advertisers can access the landing page quality guidelines
Che sia la fine degli arbitrage negli adwords?
Sono molto curioso di vedere gli sviluppi di questo processo: mi sembra di capire che Goole non voglia eliminare le pagine non pertinenti dai suoi risultati adwords, ma solo alzare il loro investimento!
Più che figlio di una maggiore attenzione verso gli interessi degli utenti, questo processo mi sembra un ulteriore modo da parte di Google di far lievitare i propri profitti.
D’altronde in Italia i siti che investono nel circuito adwords presentando, poi, delle pagine riportanti i risultati sponsorizzati di altri network, assicurano un investimento tutt’altro che piccolo al noto motore di ricerca.
E’ vero anche che se questi investitori vedono ridotti i propri margini di guadagno, possono decidere di diminuire e/o terminare i loro investimenti nel circuito adwords.
Staremo a vedere…. intanto tutti gli investitori possono accedere on line alla guida su come realizzare landing page di qualità
Lo ammetto quando mi fisso su un argomento non mi smuovo più!
Ormai in ogni interrogazione che lancio a Google vado alla ricerca delle tracce di Google Local.
Oggi ne ho trovato una bellissima:
Vorrei tanto conoscere “Don Raffaele” a Napoli, per dirgli che la sua “pizzetteria” è in prima posizione su Google per “volo Napoli”.
Già, è proprio vero, dopo BigDaddy la rilevanza dei risultati di Google è migliorata sensibilmente!