Tag e insiemi

No Comments »

Tempo fa ho avuto già modo, anche se in toni scherzosi, di parlare delle nuove possibili tecniche SEO praticabili “nel web 2.0″.
Oggi mi voglio soffermare sull’uso e sull’organizzazione dei tag.
Molti sono ormai i siti, non ho certo la pretesa di scoprire l’acqua calda, che fanno uso dei tag soprattutto per fini di posizionamento. Scegliere delle etichette “giuste” con le quali contrassegnare gli articoli, permette, infatti, di avere delle pagine tematizzate per le keyword che più ci interessano, es: http://www.seotalk.it/labels/SEO.html.
A ben vedere i tag ci permettono di costruire, legando tra di loro tutti i contenuti inerenti una stessa tematica, tanti insiemi di significato.


Naturalmente i post possono contenete tag appartenenti a vari insiemi, in questo caso avremmo creato delle intersezioni:


Se vogliamo, però, tutti questi Tag (insiemi) potrebbero essere legati da un tag di “2° livello”, es: Posizionamento nei motori di Ricerca


Seguendo questo ragionamento, Seotalk, potrebbe essere caratterizzato da 3 soli tag di “2° livello”: “posizionamento nei motori di ricerca”, “keyword advertising”, “web marketing”.
Quindi, attuando quando detto sopra, avremmo la seguente situazione:


O meglio, se abbiamo “taggato” con intelligenza i nostri articoli, avremmo ottenuto la seguente struttura:


Immaginiamo ora di creare un legame tra i 3 tag di 2° livello, magari prevedendo un menù che riporta, nelle pagine di ricerca di ogni tag, i link agli altri due, es:
http://www.miosito.it/tag/posizionamentoneimotodidiricerca.html, presenta tutti i post taggati con “posizionamento nei motori di ricerca” e una sezione dove vengono riportati i link a: http://www.miosito.it/tag/keywordadvertising.html e http://www.miosito.it/tag/webmarketing.html.
Avremmo così creato la seguente struttura:


Niente male come sistema di internal linking no?
Che dite mi fermo qui o vado avanti a immaginare un tag di 3° livello che racchiude tutto? :-)

Posizionamento nei motori di ricerca

No Comments »

Test sul valore dell’età e del trustrank di un sito

Come molti di voi sapranno, da un po’ di mesi, ormai 5, ho aperto una mia agenzia di Search Marketing, da allora naturalmente, purtroppo nei ritagli di tempo, ho iniziato a lavorare al posizionamento di Sembox.it.
Il comportamento finora tenuto dal sito ha rispecchiato fedelmente l’iter che ormai tocca a tutti i nuovi siti che si operano in settori molto competitivi:

  1. Fase iniziale di massima visibilità: questa fase segue immediatamente la fase di indicizzazione di un nuovo sito, in questo periodo, che possiamo definire di “prova”, il sito occupa posizionamenti insperati e assolutamente “non reali”. Molti sono le teorie su questo periodo di “prova”, alcuni affermano che in questa fase sia utile a Google per raccogliere alcune informazioni relativi al nuovo sito, es: click through rate, bounce rate, tempo di permanenza sul sito, ed altri fattori capaci di rappresentare il gradimento di un sito agli utenti. Data la complessità dell’argomento, mi ripropongo in seguito di dedicare un post a questa tematica.
  2. Fase di “apparente penalizzazione”: in questa seconda fase un nuovo sito, scompare letteralmente dalle SERP, salvo ritrovarlo in 10 pagina. Sembra quasi che dopo la prima fase di raccolta dati, Google si prenda un po’ di tempo per fare le giuste considerazioni per poi arrivare a stabilire il posizionamento reale di un sito.
  3. Terza fase: il sito ricompare nei risultati del noto motore californiano, occupando i posizionamenti che merita. E’ chiaro che poi, naturalmente, i posizionamenti sono migliorabili agendo su alcuni fattori quali: la link popularity, l’aggiunta di nuovi contenuti, l’aggiornamento frequente del sito ecc.

Sembox.it, come dicevo prima, ha rispettato, subito, fedelmente questo iter, nonostante i molti amici che mi hanno linkato spontaneamente (grazie 1000! :-) ).
Attualmente (fase 3) il sito occupa posizionamenti interessanti per alcune keyword sulle quali ho puntato la mia attività di posizionamento (“visibilità on line”, “posizionamento nei risultati naturali”, ecc.) ma è totalmente assente, e quando dico totalmente intendo non presente nemmeno in ultimissima pagina, per la keyword più competitiva del settore: “posizionamento nei motori di ricerca”.
Non credo che il mio sito sia oggetto di una “penalizzazione”, credo piuttosto che a seconda della competitività di una keyword, aumenti il peso di alcuni fattori esterni capaci di influenzare il posizionamento di un sito (età di un sito, trustrank, link popularity, ecc).
A questo punto, per testare appieno questa teoria e rendermi conto dell’effettiva competitività di questa SERP, ho deciso di testare la capacità di posizionamento di Seotalk per questa keyphrases.
Questo blog, infatti, gode di un trattamento davvero favorevole da parte di Google, basti pensare che l’articolo che ho inserito ieri alle 16, alle 19 era già indicizzato.
Ora sicuramente Seotalk tratta argomenti affini al posizionamento nei motori di ricerca e fortunatamente ha molti siti del settore che lo linkano, però Sembox.it può vantare sicuramente un’ ottimizzazione dei fattori on page più “spinta”, ed un numero di link a tema (nonostante sia un sito giovane) non indifferente.
Insomma stiamo a vedere chi vince, anche se ho paura di sapere già il risultato.
Che la gara fattori on page vs fattori off page (con le dovute eccezioni) abbia inizio!!! :-)

Nuove implementazioni e pertinenza dei risultati

No Comments »

Qui si esagera!!! :-)

Le sperimentazioni mi sono sempre piaciute e, da sempre, sono un forte sostenitore dei video e delle fonti di notizie aggiornate, però dubito fortemente che gli utenti che digitano “volo roma” su Google abbiano interesse a sapere che il Cardinal Ruini ha inaugurato il primo volo Roma-Lourdes.


Devo dire che mi sento di esprimere massima solidarietà verso quel primo risultato naturale che si vede “surclassato” da 2 risultati premium e dal buon C.Ruini :-)

Scherzi a parte, è la prima volta che vedo un risultato di Google News comparire in un settore fortemente competitivo e di business come il travel. Mah… stiamo a vedere cosa succederà!

Distorsioni e potere degli anchor text

No Comments »

Tempo fa ho avuto già modo di parlare della contestualizzazione semantica e di come quest’ultima possa essere eseguita dal punto di vista informatico, mediante l’individuazione della cooccorrenza di due o più termini appartenenti allo stesso “vettore di significato”.

Oggi per pura curiosità, o meglio per distogliere un attimo la testa dal lavoro (bel metodo direte voi :-) ) ho provato a lanciare in Google alcune ricerche di termini singoli che, nella nostra lingua, possono assumere un diverso significato a seconda del contesto e, quindi, degli altri termini che li “circondano”.

Ebbene da questa ricerca mi sono accorto che nello scorso post non avevo considerato un fattore che, sempre di più, sembra capace di influenzare il noto motore di ricerca: gli anchor text.

Che le porzioni di testi linkati abbiano il potere di influenzare in modo significativo il posizionamento di un sito (vedi google boombing) lo si sa da tempo, però non avevo mai considerato quest’altra anomalia generabile dal loro utilizzo.
Mi spiego meglio, magari con qualche esempio divertente per alleggerire la lettura :-)

Ricercando termini come “tasso“, parola che in italiano può assumere vari significati e che di certo non può definirsi un “anchor text competitivo” possiamo vedere come i risultati proposti dal motore di ricerca riportino, come è normale che sia, risultati inerenti i vari significati che il temine può assumere (Torquato Tasso, Tasso inteso come animale, tasso di interesse, ecc.)

Sostituendo la parola “tasso” con termini come “immobile“, o meglio ancora “posizionamento“, keyword ben più competitive come anchor text, ma che in realtà veicolano comunque più significati, vediamo come i risultati proposti da Google prendano in considerazione una sola delle diversi accezioni che i suddetti termini possono assumere (insomma per Google il posizionamento esiste solo se fatto nei motori di ricerca :-) ).

Concludo con una raccomandazione: mi raccomando nelle fasi di link building prestate molta attenzione agli anchor text, chissà se il proprietario del ristorante “Volo Milano” registra più o meno conversioni di Expedia e di Opodo per questa ricerca :-)

Campagne PPA di Google

No Comments »

Google ha lanciato qualche settimana fa le campagne Pay Per Action riprendendo le modalità performance-based che conosciamo dai circuiti di affiliazione come Zanox e TradeDoubler.
Le campagne vengono avviate in modalità totalmente self-service dagli inserzionisti compilando una scheda prodotto disponibile dal pannello AdWords. La scheda include pochi campi tra cui: nome del prodotto e breve descrizione (che saranno visibili agli editori), url e logo facoltativi, parole chiave relative al tipo di prodotto. Successivamente gli inserzionisti caricano gli annunci di testo, grafici o con link testuali che gli editori potranno scegliere di visualizzare.


Si procede poi alla descrizione del tipo di azione che costituisce l’obiettivo della campagna: bisogna quindi specificare l’azione (contatto, registrazione, vendita ecc) e descrivere brevemente come si raggiunge l’obiettivo di conversione (compilazione di un form, check out, ecc). In questa fase viene inserita anche la remunerazione per gli editori che generano la conversione. Ovviamente anche per queste campagne sono valide le regole già apprese con i circuiti di affiliazione: le descrizioni sono rivolte agli editori e dovranno quindi motivare i siti publisher ad attivare le campagne sia attraverso una descrizione appealing che con una remunerazione incentivante.

I siti pusblisher che andranno a visionare le campagne disponibili sul circuito AdSense Referral (questo il nome delle campagne PPA lato editore) troveranno un elenco di categorie che possono essere interamente aggiunte al carrello oppure esplorate nel dettaglio alla ricerca dei settori e delle campagne più remunerative:

Sono rimasta abbastanza sorpresa dal fatto che le campagne disponibili per gli editori sul cicuito Google AdSense siano ancora veramente poche e mancano ancora la maggior parte delle aziende notoriamente performance oriented. Sarà forse l’assenza di supporto umano nelle operazioni di implementazione/promozione delle campagne o forse il lancio ancora recentissimo di questa operazione da parte di Google con modalità diverse rispetto a quelle che conosciamo dai circuiti di affiliazione, ma mi sembra che il PPA di Google stenti un po’ a decollare. Qualcuno lo sta sperimentando?

Per chi ancora non crede al potere dei blog

No Comments »

Più e più volte ho parlato dell’importanza che hanno assunto i blog e del loro ruolo nel processo di acquisto, però devo dire che questo esempio reale, raccontato tra l’altro in modo molto simpatico, vale più di un trattato universitario sull’argomento :-)

All’affermazione dell’autore

Meglio avere nel locale la Guardia di Finanza piuttosto che un blogger.

Aggiungererei però:

Meglio avere nel locale la Guardia di Finanza, se si eroga un pessimo servizio, piuttosto che un blogger.

Nascono i video spam engine

No Comments »

Alcuni giorni fa, incuriosito dalle notizie sulla universal search di Google, e più in particolare della presenza dei video nei risultati naturali del noto motore di ricerca, ho deciso di testare questo comportamento, pubblicando un mini filmato sugli uffici di SEMBOX in Youtube.

(Chiedo scusa per la qualità del video, frutto della videocamera del mio cellulare, e per il sottofondo musicale, frutto dei PESSIMI gusti di Carmine).

Ad oggi (sono passati solo 3 giorni) il video non si è ancora posizionato, e non penso che mai lo farà, nelle SERP di Google, però grazie a questo esperimento ho scoperto uno “spam engine 2.0”,
signori e signori vi presento il video spam engine http://marketingtvvideos.blogspot.com/2007/06/ sembox-agenzia-di-search-marketing.html .
A quanto ho potuto vedere, il blog prende in automatico tutti i video pubblicati su Youtube, taggati con l’etichetta “Marketing”. Che dire: le vie dello spam sono infinite! :-)

P.S: naturalmente anche questo post fa parte dell’esperimento :-)

A proposito di ricerche specifiche

No Comments »

Tanto per chiudere la settimana in allegria :-)

Da tempo si fa un gran parlare dell’evoluzione degli utenti nel modo di utilizzare e “interrogare” i motori di ricerca. La tesi, che peraltro mi trova concorde, è che le ricerche generiche (di uno o due termini) stiano lasciando il posto a query sempre più specifiche e mirate.

Ciò premesso la chiave di ricerca che mi sono trovato questa mattina tra i referer di questo blog è davvero sorprendente:

“quanto bisogna essere alte minimo per essere modelle per esempio adriana lima quanto è alta”

Non penso che l’utente (spero ragazza :-) ) abbia trovato una risposta significativa su Seotalk, però in compenso avrà scoperto l’estistenaza del SEO :-)

Che dite posso confidare sull’analisi della user experience da parte di Google, per perdere questo ottimo posizionamento acquisito? :-)

Vabbè scusate lo sclero, ma il venerdì pomeriggio tutto è concesso!

Registrazione dei domini scaduti: fine del business

No Comments »

Come molti di voi già sapranno, la registrazione di domini scaduti è diventato, in particolare negli ultimi tre anni, un vero business. Anche in Italia il fenomeno ha preso piede e, fino a poco tempo fa, alle 24.00 il nic veniva intasato di fax di lettere LAR.

Prima di continuare, faccio un breve riepilogo per chi non fosse a conoscenza del fenomeno: a causa di alcune caratteristiche dell’algoritmo di Google, quali:

  1. la link popularity
  2. l’importanza data all’età di un sito.
  3. il pagerank.

La registrazione di domini scaduti, già presenti nell’indice di Google e, quindi, già linkati da altri siti, era diventata una pratica molto comune per abbreviare i tempi di indicizzazione richiesta dai nuovi siti.
Il fenomeno, in Italia, ha interessato soprattutto aziende che, una volta registrati i siti scaduti, li utilizzavano per la pubblicazione di annunci sponsorizzati, utilizzando principalmente partership con i circuiti di Miva, Yahoo, ecc.
Google in verità aveva già parzialmente risolto il problema, diminuendo di molto il ciclo di vita (circa 30 gg.) di questi siti: un dominio scaduto, una volta “ri-registrato” può essere facilmente individuato grazie ad alcuni fattori: cambio argomenti trattati dal sito, aumento esponenziale delle pagine del sito, ecc.
Il tempo necessario a Google per l’individuazione dei suddetti elementi, rendeva comunque ancora redditizia questa pratica, a chi era riuscito ad automatizza tutte le procedure di registrazione e pubblicazione di nuovi file.

Oggi, per merito (o per colpa del nic) questo fenomeno, almeno per i “.it”, sembra giunto al termine: ho appena scoperto, infatti, che il Registro italiano ha definito nuove linee guida, in particolare ha stabilito che dopo 60 giorni dalla scadenza:”… Il Registro provvede anche a rimuovere le deleghe relative ai nameserver autoritativi per il nome a dominio in oggetto rendendo, di fatto, il nome a dominio non più raggiungibile sulla rete Internet, pur mantenendo però l’assegnazione del nome a dominio stesso al Registrante….
Semplificando, mentre prima i domini in pending erano comunque raggiungibili dagli utenti e dagli spider dei motori di ricerca (tutti voi vi sarete imbattuti nelle classiche pagine “dominio scaduto” con il logo dell’hosting di turno), ora per 30 giorni i DNS non saranno più risolvibili, ciò renderà irraggiungibili i domini in scadenza.
Questo, presumo, semplificherà di molto l’individuazione dei domini scaduti e quindi la loro esclusione dagli indici dei motori di ricerca, rendendo inutile la registrazione dei domini scaduti.

Rilevanza dei click nelle serp

No Comments »

Oggi ho deciso di parlare di uno dei tanti miti che circola nell’ambiente dei SEO: la rilevanza, ai fini del posizionamento nei risultati naturali di Google, dei click che un sito riceve nelle SERP (Search Engine Result Pages) del noto motore di ricerca.
Molti sono i SEO che sostengono la tesi secondo la quale un elevato click through rate (rapporto tra numero di click e numero di impression) possa essere benefico per il miglioramento dei posizionamenti di un sito nei risultati naturali.
La ragione della diffusione di questa tesi è data principalmente dal fatto che Google, a intervalli più o meno regolari, interpone una sua pagina di tracciamento nel passaggio dalla pagina di risultati ai siti recensiti.
Personalmente non credo molto in questa teoria, per vari motivi:

  1. I siti presenti nei primi 10 risultati sarebbero troppo avvantaggiati rispetto agli altri
  2. La mole di dati da analizzare, dato l’elevato numero di ricerche e di siti presenti in Google, sarebbe davvero impressionante.
  3. Se il click through rate fosse davvero un fattore in grado di influenzare il posizionamento di un sito, la sua rilevazione dovrebbe essere continua e non saltuaria, come oggi avviene.

Penso invece che i motivi che hanno spinto Google ad implementare questa sorta di tracciamento siano diversi e solo alcuni di essi possano essere ritenuti inerenti le logiche SEO: i dati raccolti in questa fasi, infatti, possono essere molto utili per fornire informazioni su elementi come:

  1. Il numero di risultati presi in considerazione dagli utenti.
  2. La propensione a confrontare più risultati a seconda delle aree o settori (travel, finance, educational, ecc.)
  3. La soddisfazione degli utenti: in particolare nei settori non di business, quindi non di confronto prodotti/prezzi, un elevato numero di risultati cliccati, potrebbe segnalare a Google che i siti proposti in prima pagina non hanno soddisfatto gli utenti.
  4. La diversa distribuzione di click tra la prima pagina e le successive.
  5. La diversa distribuzione dei click all’interno della pagina (non dimentichiamo che il buon Google deve comunque posizionare i suoi annunci sponsorizzati e capire fin dove spingersi con le posizioni premium).

Riassumendo: è vero che lo stesso Google afferma di voler prendere sempre in maggiore considerazione le scelte degli utenti, ed è anche vero che lo stesso analytics e la toolbar installata su moltissimi PC, possono fornire dati molto interessanti agli analisti di Mountain View.
Però credo, che le suddette informazioni, dato il loro immenso volume, possano essere utili per estrapolare delle regole generali di settore o tipologia di target, non certo per fornire elementi di ranking per ogni singolo sito presente nell’indice del motore di ricerca.