Mauro Mandalari

Lavoro nel campo della comunicazione web da più di 15 anni, sviluppo strategie di comunicazione web efficaci, mi occupo di WebDesign, WebDeveloping, UserExperience, DigitalStrategy.

I motori di ricerca si sono evoluti al fine di combattere spam, tecniche di ottimizzazione un po’ forzate, contenuti duplicati e molto ancora. Conoscere le tecniche  SEO  che possono provocare le penalizzazioni permetterà di creare progetti web vincenti.  Abbiamo in passato già trattato l’argomento, e in questo articolo cerchiamo di approfondire meglio per capire insieme come cosa sono e come gestire le penalizzazioni attraverso le tecniche SEO.

Innanzitutto è bene capire tre concetti fondamentali che determinano un po’ le linee guida delle tecniche SEO sulla gestione delle penalizzazioni facendo distinzione tra:

penalizzazioni: comportano un declassamento in SERP del sito

sito bannato: esclusione totale del sito nella SERP dal motore di ricerca

filtri: il sito non viene mostrato nella SERP in base a determinate ricerche o combinazioni di keyword

Inoltre è bene sapere che esistono fondamentalmente due diversi tipi di penalizzazioni: manuale e algoritmica (o automatica).

Le penalizzazioni manuali denotano una perdita di posizioni all’interno delle SERP di Google e sono applicate manualmente generalmente dai Quality Rater di Google. Dal momento che Google rilascia spesso degli aggiornamenti è bene monitorare costantemente le modifiche per il posizionamento, innanzitutto controllando nel Google Webmaster Tools.

Le penalizzazioni automatiche sono il frutto invece del lavoro degli algoritmi di Google sempre più studiati ad hoc. Questa penalizzazione può far si che un sito web perda visibilità nella SERP per determinate parole chiave.

Le tecniche SEO che contribuiscono alle penalizzazioni

Tecniche SEO penalizzazioni SEO

Link spamdexing

Con il termine spamdexing si definiscono quelle tecniche SEO basate sui link, il cui fine è l’acquisizione di visibilità nei motori di ricerca utilizzando metodologie e/o tecniche ritenute illecite o comunque apertamente in contrasto con i termini d’uso dei motori di ricerca. Lo spamdexing è tra le prime tecniche utilizzate per creare spam al fine di manipolare artificialmente il posizionamento attraverso un lavoro sui link. È tra le prime pratiche nate prima nella fase di decollo dei motori basati sulla link popularity. La tecnica principale è la link farm che consiste nella creazione di un gruppo di siti che si linkano reciprocamente con altri collegamenti. I motori di ricerca hanno bloccato questa pratica. Esiste poi un’altra pratica legata ai link che è quella della compravendita pratica assolutamente sconsigliata in quanto l’identificazione è ormai facile attraverso il matching dei link rispetto al tema del sito.

Shadow domain

Con “Shadow Domain” ovvero dominio ombra, ci si riferisce ad un sito web istituito appositamente per gli spider dei motori di ricerca piuttosto che essere indirizzato alle persone. I domini ombra sono indicizzati dai motori di ricerca, proprio come tutti gli altri siti Web, ad eccezione del fatto che il suo contenuto sebbene sarà simile non avrà alcun senso. Le pagine vengono caricate con parole chiave che al passaggio dello Spider presentano contenuti ad alto livello utili all’ottenimento di un posizionamento al vertice generando quindi migliori risultati durante le ricerche.
Questa tecnica consiste nello sfruttare l’alta rilevanza che Google assegna al nome del dominio. Con lo shadow domain si crea un dominio ombra creato appositamente per generare traffico grazie alle keyword presenti nel dominio stesso. Questo traffico viene indirizzato su un altro e in alcuni casi i contenuti sono duplicati in quel caso si parla di mirror domain. In entrambi i casi gli effetti sono forti penalizzazioni nel ranking ed esclusione dall’indice.

Cloaking
Si tratta anche qui di un metodo che rientra nelle tecniche SEO per presentare contenuti differenti a seconda dell’user. In linea teorica non sarebbe così da demonizzare ad esempio viene utilizzato parzialmente per far visualizzare versioni diverse dello stesso sito a seconda del browser o della risoluzione. Il problema sorge quando se ne fa un uso scorretto: agli spider viene presentata una versione ottimizzata di un sito che quando visionato dall’utente appare diverso. Questa tecnica è pesantemente penalizzata e la sua scoperta comporta la cancellazione dall’indice.

Doorway pages
Parlando di cloaking non possiamo non citare la doorway che è una tecnica che ha ormai assunto una connotazione piuttosto negativa e una quasi identificazione con la cloaking. Il termine doorway indica più propriamente pagine o siti creati per essere posizionati nei primi risultati. Questi elementi però possono reindirizzare a pagine simili dove ogni risultato rimanda fondamentalmente l’utente alla stessa destinazione.
Esempi di pagine doorway:
• pagine o nomi di dominio scelti come target di aree geografiche o città specifiche che rimandano gli utenti a un’unica pagina
• pagine generate per instradare i visitatori nella parte effettivamente utilizzabile o pertinente del tuo sito
• pagine quasi identiche che sono più simili a risultati di ricerca piuttosto che a una gerarchia consultabile e ben definita
(fonte Google Search Console)

In realtà esiste un modo per poter utilizzare le tecniche SEO di doorway in maniera “pulita” ad esempio attraverso la creazione di landing page limitate, di reale utilità con argomento attinente al sito che colleghino tramite l’uso di link al sito stesso. In questo modo si potrà aumentare la link popularity del proprio sito senza creare spam.

Keyword Stuffing
Molto semplicemente consiste nell’eccessiva ripetizione delle parole chiave all’interno del sito. Rientra nelle tecniche SEO che potevano ahimè funzionare in passato per aumentare la rilevanza. Consiste nel realizzare pagine con testo invisibile e contenuto composto solo dalle keyword. Esistono algoritmi in grado di fare un analisi testuale e valutare la distanza tra una keyword e l’altra in modo da decidere se si tratta di un testo scritto in modo naturale o artificioso. Inutile dire che questa tecnica porta alla penalizzazione ed alla potenziale esclusione dai risultati di ricerca.

Testo nascosto
Le penalizzazioni per testo nascosto avvengono quando:
• il colore del testo risulta uguale o simile a quello dello sfondo
• la dimensione del font è uguale a zero o quasi
• c’è una sovrapposizione di immagini
• si utilizza il CSS o codice JavaScript per non far comparire il testo
Il consiglio è quello di evitare le tecniche SEO del testo nascosto per scalare in modo inappropriato la SERP.

Testo duplicato
Come suggerisce il nome stesso questa tecnica prevede l’utilizzo di testi o parti di essi identici consultabili da URL o domini differenti. Per combatterla i motori di ricerca utilizzano appositi filtri che consentono di individuare l’origine del testo e quindi se si tratta di un contenuto duplicato o meno. Google mette a disposizione un guida dettagliata per spiegare le principali tecniche da adottare in caso di contenuti duplicati. Di seguito un piccola infografica per capire come funziona l’individuazione dei contenuti duplicati:

Tecniche seo gestire le penalizzazioni SEO

Esistono infine dei brevetti rilasciati dai motori che aiutano a capire come evitare di incappare nei contenuti duplicati: “Methods and apparatus for estimating similarity”  e “Document detection in a web crawler system” 

 

Tecniche SEO per evitare penalizzazioni:

Tabelle nidificate

Puntare a pagine leggere e ben strutturate, l’utilizzo di tabelle nidificate rende difficile l’individuazione dei contenuti da parte dei crawler dei motori di ricerca.

L’utilizzo dei frame

Dal punto di vista dell’ottimizzatone di codice HTML, in previsione di una indicizzazione del sito sui motori di ricerca, è preferibile fare a meno dei frame in tutti i casi possibili.
Qualora dovesse essere necessario ricorrere al loro utilizzo il consiglio è quello di aggiungere contenuto testuale a cui gli spider e gli utenti di browser testuali possono accedere tramite i tag “NOFRAMES”.
In tali casi è inoltre opportuno provvedere a rinforzare i contenuti del sito offrendo ai visitatori una pagina con la mappa delle pagine, particolarmente utile e richiesta dagli spider.

I redirect automatici 

Il redirect se non fatto ad hoc potrebbe essere considerato dagli algoritmi come una tecnica di cloaking. A questo proposito consiglio una lettura su redirect 301 e 302 per un approfondimento.

L’uso del visibility 

Attraverso l’utilizzo dei CSS è possibile nascondere del testo. Solitamente questa tecnica è utilizzata per far apparire pop up o menu a piacimento. Con visibility:hidden un elemento non sarà visualizzato ma occuperà spazio nella pagina proprio come se visibile. Con display:none un elemento non verrà reso e quindi non occuperà spazio nella pagina.

Google ha elaborato algoritmi per cercare di intercettare i siti che fondamentalmente utilizzano le tecniche finora analizzate.

Come recuperare le penalizzazioni SEO

Alle volte non è così semplice ed immediato capire se un sito è stato penalizzato e soprattutto comprenderne le ragioni. Innanzitutto è utile utilizzare gli strumenti per webmaster proposti dai vari motori di ricerca come  ad esempio la Google Search Console. Inoltre esistono strumenti che ci vengono in aiuto al fine di risolvere le penalizzazioni SEO.

  • Visualizza come Google è una funzione di Google Webmaster Tools, che permette di simulare come Google esegue la scansione dell’URL del sito. Visualizza i diversi tipi Googlebot (il bot di scansione del Web di Google, a volte è chiamato anche “spider”) una volta scelto è possibile ottenere informazioni sulla risposta del URL HTTP, la velocità di download della pagina, e come Google vede la pagina. Questo strumento è utile per rilevare gli errori di base (ad esempio, se l’URL viene reindirizzato o bloccato da robots.txt) e anche per vedere il tempo di risposta del server.
  • Screaming Frog Web Crawler è un tool utile per fronteggiare una penalità di Google, in quanto è fondamentale sapere esattamente che cosa l’ha causata. Screaming Frog Web Crawler indicizza un sito e trova i problemi più comuni. Essendo in grado di gestire siti di grandi dimensioni che sarebbe poco pratico per controllare manualmente, lo rende una scelta preferita di molti professionisti SEO.
  •  Majestic SEO è uno strumento di “link intelligence” che può aiutare ad analizzare il profilo dei collegamento al tuo sito (ed a quelli dei concorrenti). Molte delle penalizzazioni di Google hanno a che fare con i backlinks,  Majestic è particolarmente utile  allo scopo di ottenere un rapporto dettagliato.
  •  Ahrefs è un tool per la ricerca di link difettosi. È uno strumento efficace per l’analisi link in ingresso e report dettagliati per i backlink. Può indicare la qualità complessiva dei domini coinvolti, e riporta problemi specifici con link singoli. L’indice Ahrefs si basa su dati provenienti da più di un trilione di connessioni. Viene aggiornato più volte all’ora per tenervi aggiornati sui più recenti sviluppi. Ahrefs è anche un buon strumento per evidenziare problemi con gli anchor text.
  •  Monitor Backlinks dopo aver importato il link da Google Webmaster Tools in Monitor, si possono cercare i backlink di tipo “dofollow” (dal momento che Google ignora presumibilmente tutti i link nofollow). Da lì, è possibile utilizzare dei filtri e verificare manualmente i backlinks.
  • Copyscape Se si sospetta che si potrebbe avere a che fare con una penalità relativa ai contenuti, Copyscape ti può aiutare a capire se uno dei tuoi contenuti esiste già altrove on-line. Questo strumento è economico e semplice da utilizzare, anche se può essere scomodo in quanto ogni URL deve essere inserito uno alla volta.
  •  Moz’s Google Algorithm Change History Questo non è tanto uno “strumento” in quanto è un grande riferimento per la diagnosi di problemi algoritmici. Google cambia i suoi algoritmi centinaia di volte ogni anno. Tutti conoscono i grandi aggiornamenti, ma può essere difficile tenere traccia degli aggiornamenti più piccoli. Include solo gli aggiornamenti confermati.
  •  Google Webmaster Tools Anche se può sembrare ovvio, Google Webmaster Tools è uno strumento vitale (se non il più importante) per tutti i siti. È l’unico vero modo per sapere come Google vede il tuo sito. Google Webmaster Tools ti avvisa direttamente su eventuali sanzioni manuali imposti da Google.

 

penalizzazioni SEO

Panda e Penguin e le penalizzazioni SEO

Per concludere possiamo dire che grazie a questi due algoritmi, il modo di fare SEO è cambiato radicalmente nel tempo passando dalle logiche del link building, al page rank e a tutti quei parametri tecnici che sono ormai perfettamente prevedibili e utilizzate dai più furbi per approdare a tecniche SEO fatte di contenuti.
La novità è che per Panda e Penguin non saranno più rilasciati aggiornamenti in quanto confluiranno nell’algoritmo principale di Google. Questo vuol dire che saranno gli spider ad applicare i filtri quindi tutto avverrà in modo del tutto automatico e soprattutto più rapidamente.
Al momento, i parametri che i nuovi Panda e Penguin useranno sono gli stessi del passato, ma c’è da aspettarsi che, grazie all’integrazione nell’algoritmo principale di Google, questi si evolveranno e pertanto c’è da aspettarsi che anche lo spam tuttora esistente venga finalmente filtrato e penalizzato.

Stay tuned.

Lavoro nel campo della comunicazione web da più di 15 anni, sviluppo strategie di comunicazione web efficaci, mi occupo di WebDesign, WebDeveloping, UserExperience, DigitalStrategy.