Per capire in che modo fare link building dopo gli ultimi aggiornamenti degli algoritmi di Google bisogna ipotizzare e studiare l’argomento da ogni possibile angolazione, sopratutto da quella di Google. Dopo centinaia e centinaia di considerazioni ed idee che sembravano valide ma che poi andavano in contrasto con tanti altri aspetti che non avevo considerato, sono giunto alle mie conclusioni su come fare link building nel 2012 e sul perchè Google abbia penalizzato alcuni siti piuttosto che altri. Un altro aspetto interessante riguarda i messaggi di Google su Link non naturali, chiunque abbia fatto richiesta di riconsiderazione non ha mai ricevuto una risposta precisa e dettagliata su quali fossero i link da rimuovere per uscire dalla penalizzazione, Google è sempre stato molto vago e per questo motivo ho avuto bisogno di “leggere tra le righe” e “pesare” ogni singola parola delle notifiche di Google. Di seguito proverò a ricostruire i miei ragionamenti provando a dare un senso generale al mio punto di vista, acquisito dopo molte considerazioni e dopo aver intrapreso svariate strade sbagliate.

Mettiamoci nei panni di Google…

  1. Chi per anni ha manipolato le SERP sono i SEO Black Hat
    … , per quanto si sia sempre detto che “The Content is King”, i SEO Black hat sono sempre riusciti a stravolgere le SERP e mettere in prima pagina siti non meritevoli. Il primo passo di Google è stato il “filtro manuale”, ossia l’esclusione di questi siti dalla TOP 10 grazie all’intervento manuale dei quality rater ma è impensabile che un colosso informatico come Google debba ricorrere a “correzioni manuali”. Per ottenere la soluzione definitiva, credo sia stato fatto uno studio (a mio avviso anche semplice) per individuare la tipologia di sito web e di link utilizzato generalmente dai SEO Black Hat per individuarli velocemente ed evitare che possano manipolare le SERP così facilmente. A riguardo credo che Google abbia agito NON PENALIZZANDO nessuno dei siti web coinvolti in questo giochetto, NE CHI LINKA, NE CHI RICEVE LINK, ora vi spiego perchè la penso così. Google nelle sue comunicazioni parla sempre di azioni “per alterare il pagerank”, generalmente i siti usati dai SEO Black Hat sono pressapoco spazzatura e non hanno pagerank ne autorità quindi basta continuare ad attribuire ai loro link il valore che hanno, ossia ZERO. Secondo me questa è la soluzione ideale e quella che ha adottato Google per evitare anche un secondo problema, QUELLO DELLA NEGATIVE SEO, ossia, se Google penalizzasse questi siti web e quelli linkati da loro, basterebbe puntare migliaia di link ai siti dei competitor e farli cadere come pere marce! Altro aspetto che hanno in comune i link provenienti da attività black hat sono i contenuti duplicati, generalmente chi vuole migliaia di link in fretta, scrive (o spesso copia) un articolo e lo pubblica migliaia di volte su siti low profile, quindi credo che per Google sia veramente un giochetto da ragazzi individuarli e “sterilizzarli” per evitare che qualcuno possa usarli contro la concorrenza. Ora vi direte… “Ma se è così allora chi è stato penalizzato se non quelli che hanno fatto Black Hat??” La risposta è semplice, chi ha fatto black hat è crollato come tutti gli altri (anche se non penalizzato) perchè gli sono stati tagliati via i link, chi invece ha fatto link building di un certo livello è l’unico che poteva “manipolare il pagerank” , come dice Google, ottenendo link innaturali da siti in grado di trasferire PR ma di questo ne parlo ne punto successivo.
  2. Chi ha provato a manipolare il pagerank? Chi è stato penalizzato? I SEO Grey Hat!
    Bene se sei un SEO Grey hat avrai sicuramente ricevuto qualche bella notifica di webmaster tools per link non naturali :). Sono praticamente sicuro che l’alert di web spam parta quando i link sospetti provengono da siti con Pagerank.
    Il punto fondamentale però è un altro, l’alert parte quando i link provengono da siti con PR ma soltanto quando gli articoli in cui si trova il link sono sospetti, ossia quando SONO DUPLICATI ed  HANNO ANCHOR TEXT SECCHE e sempre nello stesso punto dell’articolo (duplicato). La maggior parte dei siti web che hanno avuto penalizzazioni sono quelli che hanno sfruttato i soliti siti web di comunicati stampa ripubblicando e ripubblicando ripetutamente gli stessi articoli con le stesse anchor su tutti i siti web. Ora il punto è questo, dai siti web di comunicati stampa, con PR, è possibile fare negative SEO sui competitor ma è ovviamente più oneroso in termini di lavoro. Per avere un alert da WMT i link devono essere veramente tanti e Google sa bene che solo pochi idioti investono migliaia di euro al mese per rompere le scatole ai competitor rischiando anche che possa non funzionare.
  3. Quale link building funziona ancora oggi e funzionerà sempre?
    Questa è la nota dolente, i link che funzionano sono quelli provenienti da domini trusted, ossia domini che google considera affidabili quindi non solo quelli con PR ma quelli che compaiono in un gran numero di risultati di ricerca ed ovviamente quelli che NON DANNO LINK A COSTO ZERO, BISOGNA PAGARE ED ANCHE TANTO. Come fare a capire quindi dove andare  a procurarsi i link? E’ un lavoro abbastanza costoso, bisogna acquistare account su sistemi di studio delle parole chiave per valutare la capillarità della presenza nelle serp di un sito web… Io ne ho usati alcuni ma alla fine me lo sono fatto da solo in SEOMax. La cosa da non fare assolutamente ad oggi è valutare un sito web utilizzando SEOMoz. SEOMoz ha il suo MOZRank che viene calcolato con formule NON ALLINEATE agli standard di qualità attuali di Google. Un sito che ha un MOZRank elevato è probabilmente un sito web che ha migliaia e migliaia di link che Google ora considera SPAM. Altro modo per verificare la qualità di un sito web è quello di utilizzare Google Trends for Websites per essere sicuri che il sito abbia un volume di traffico organico decente e che quindi non sia penalizzato.

Definiti gli aspetti di base ora è necessario capire un altro aspetto fondamentale su cui ci ho sbattuto la testa un bel po prima di arrivare alla mia conclusione finale, GOOGLE ASCOLTA SOLO CHI VUOLE…

Con questo voglio dire che in presenza di link in uscita dal sito A al sito B, credo che Google si comporti diversamente a seconda di chi sia il sito A, a tal proposito ecco due ipotesi:

  1. Il sito A è un sito web dal PR basso (sotto la soglia che Google ipoteteticamente considera VERY TRUSTED)
    Il sito linka il sito B con una anchor text secca come “Vacanze a Roma”. Google NON RITENENDO ABBASTANZA AUTOREVOLE il sito web A, ignora l’anchor text ed analizza il contenuto, verifica che sia originale, identifica tutte le key più importanti e trasferisce “link juice” al linkato (con basso valore di trust) al sito B solo e soltanto se ritiene che l’articolo non sia stato fatto apposta per trasferire PR.
  2. Stessa situazione del punto 1 ma l’anchor text è “NOFOLLOW” oppure “Clicca qui” oppure il nome del sito. In tal caso il link sembra naturale e Google trasferisce tutto quello che deve al sito linkato scegliendo lui le ANCHOR… e dico LE ANCHOR, non L’ANCHOR, perchè in ogni articolo ci sono molti termini interessanti….
  3. Il sito A è MOLTO TRUSTED, google si fida e fa esattamente quello che gli abbiamo detto, finchè il sito A non commetterà errori grossolani e perderà trust.

A questi concetti , teorici e frutto di tanti tentativi e test, allego qualche vignetta che la nostra grafica ha realizzato dai miei scarabocchi su carta in fase di brainstorming 🙂

Linee guida link building 2012