Preparazione

Nonostante ci possa essere la voglia di sporcarsi subito le mani e passare alla fase operativa dell’analisi come prima cosa è necessario preparare il terreno per le fasi successive del lavoro.

Crawling

Crawling è un termine usato per indicare il processo durante il quale gli spider del motore di ricerca “visitano” il tuo sito studiandone in contenuto per inserirlo nei loro indici.

Il primo passo che dobbiamo eseguire durante la nostra analisi consiste appunto nell’eseguire un crawl usando un tool, gratuito o a pagamento che sia. In questo modo sappiamo con cosa abbiamo a che fare, oltre ad avere una panoramica di eventuali errori o lacune del sito web.

Strumenti per il Crawling

Anche se è possibile creare il proprio strumento per il crawling in modo da ottenere un’analisi dettagliata che segua dei parametri custom, potrebbe non essere la scelta più semplice. Noi ci appoggiamo sempre a Screaming Frog’s SEO Spider per eseguire il crawl. Questo tool viene distribuito in modalità freemium, vale a dire che se il tuo sito ha meno di 500 pagine puoi usarlo gratuitamente, altrimenti il costo è di 149£ all’anno. Se devi eseguire questo tipo di analisi soltanto una volta per il tuo sito web che ha più di 500 pagine un’ottima soluzione è di fare una ricerca su fiverr e farsi fare una scansione del sito web per pochi dollari. Ti invieranno la scansione in formato excel che potremo consultare ogni volta che sarà necessario.

In alternativa è possibile anche usare Xenu’s Link Sleuth. Tieni però presente che questo strumento è stato creato per cercare i link rotti (ovvero i link del tuo sito web che puntano ad una pagina che non esiste) e non per scopi SEO come Screaming Frog. Nonostante ti indichi il title e la meta description per ogni pagina non è stato creato per una analisi approfondita come quella che stiamo trattando.

Configurazione del Crawl

Una volta che hai scelto il crawler che vuoi usare è necessario configurarlo in modo che si comporti come il motore di ricerca che ci interessa. Andiamo quindi ad impostare l’user agent[?] per il crawler nel modo appropriato

Googlebot - "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)”
Bingbot - "Mozilla/5.0 (compatible; bingbot/2.0; +http://www.bing.com/bingbot.htm)" 

configurazione user agent screming frog

A questo punto dobbiamo impostare il crawler decidendo il suo “livello di intelligenza”. C’è sempre stato un dibattito acceso relativamente all’intelligenza dei crawler. Di fatto nessuno sa con certezza se questi tengono in considerazione i cookies, i JavaScript ed i CSS mentre eseguono la scansione di un sito. In pratica non sappiamo se assomigliano più ad un browser o ad un semplice script curl.

Il consiglio è di disabilitare cookies, JavaScript e CSS quando eseguiamo il crawling. In questo modo possiamo diagnosticare eventuali problemi rilevati dai crawler più base. Queste considerazioni saranno applicabili anche ai crawler più evoluti.

WebMaster Tools

Nonostante il crawling sia in grado di darci tante informazioni è comunque necessario consultare direttamente i motori di ricerca. Dal momento che non abbiamo libero accesso ai loro algoritmi dovremo accontentarci dei Webmaster Tools che ci mettono a disposizione per proseguire con la preparazione delle nostra revisione SEO.

La maggior parte dei motori di ricerca offrono un pannello per diagnosticare i vari problemi, nel nostro caso ci focalizzeremo su Google Webmaster Tools e Bing Webmaster Tools.

Analytics

A questo punto dobbiamo raccogliere informazioni direttamente dai nostri visitatori. Il miglior modo per farlo è usare uno strumento come Google Analytics.

Esistono numerose alternative allo strumento gratuito di Google, per i nostri scopi possiamo usare qualsiasi strumento, basta che ci permetta di tenere traccia delle visite sul sito ed identificare dei pattern.

Non abbiamo ancora finito di recuperare dati per la nostra analisi, ma siamo a buon punto. Iniziamo!

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

Accessibilità

Se I tuoi utenti o i motori di ricerca non possono usare il tuo sito web… Beh non importa aggiungere altro. Il primo passo della nostra revisione SEO consisterà nell'assicurarci che il tuo sito e tutte le sua pagine siano accessibili.

Robots.txt

Il file robots.txt viene usato per restringere l’accesso al crawler dei motori di ricerca ad alcune pagine o sezioni del tuo sito web. Nonostante sia molto utile, è possibile che inavvertitamente blocchi i crawlers che visitano (o vorrebbero visitare) il nostro sito web.

Alcuni motori di ricerca possono ignorare queste disposizioni, ma i motori come Google e Bing rispettano le disposizioni indicate tramite questo file.

Ad esempio se il tuo file mostra il seguente testo stai bloccando l’accesso a tutte le tue pagine, che non saranno indicizzate.

User-agent: *
Disallow: /

In questa prima fase è necessario controllare il tuo file robots.txt per assicurarci che il sito sia accessibile, e che non stiamo tagliando fuori sezioni importanti del nostro sito web. È possibile controllare tramite Webmaster Tool quali pagine sono bloccate ai motori di ricerca.

Robots Meta Tags

Questo meta tag è usato per indicare al crawler come comportarsi su quella pagina specifica. Usando questo tag possiamo dirgli se indicizzare o meno una pagina e se seguire o meno i link in essa contenuti.

Per fare un esempio, se usi WordPress ed il plugin Yoast SEO hai la possibilità di impostare questo tag per ogni pagina.

robots meta tag con yoast SEO

Mentre analizziamo l’accessibilità del nostro sito web durante una revisione seo vogliamo assicurarci che nessuna pagina che vogliamo indicizzare sia impostata su noindex.

Per esempio una pagina che presenta questo codice all’interno dell’header non sarà mostrata sui motori di ricerca ed i link al suo interno non saranno seguiti dal crawler:

<meta name="robots" content="noindex, nofollow" />

Decidere quali pagine far indicizzare e quali no può rappresentare una scelta più o meno complessa. Come regola generale possiamo dire che tutte le pagine del sito dovrebbero essere indicizzate ad eccezione delle pagine legali (privacy policy, termini di servizio) che dovrebbero essere impostate come "noindex, follow”. Ovviamente questo non è sempre vero e va valutato di caso in caso a seconda delle necessità.

Codici di stato HTTP

I motori di ricerca come gli utenti non saranno in grado di visitare il tuo sito web se questo restituisce degli errori, come ad esempio errori 4xx o 5xx.

Durante il crawl dovresti identificare tutte le pagine che restituiscono un errore, con particolare attenzione agli errori soft 404. Nel caso in cui una di queste pagine non sia più disponibile si renderà necessario impostare un redirect 301 verso una pagina con un contenuto simile o rilevante.

Redirects

Parlando di redirect, non sarebbe male controllare tutti i redirect per assicurarsi che tutti i redirect siano dei redirect 301 HTTP. È necessario evitare i redirect 302, JavaScript redirect e meta refresh redirect perché questi non passano link juice[?] alla pagina di destinazione.

Sitemap XML

La sitemap XML è una mappa che i motori di ricerca usano per trovare con facilità tutti i contenuti presenti sul tuo sito web. Durante una revisione SEO, quando analizziamo la sitemap è necessario rispondere a queste domande:

  • La tua sitemap è stata segnalata tramite il webmaster tool? I motori di ricerca possono trovare la sitemap da soli, ma dovresti segnalarla esplicitamente
  • La tua sitemap è un file XML con la giusta sintassi? Segue alla lettera il protocollo delle sitemap? I motori di ricerca si aspettano un formato specifico per la sitemap di un sito web, in caso contrario potrebbero non processare la sitemap in modo corretto
  • Hai trovato pagine tramite il crawl che non sono presenti nella sitemap? Assicurati che la tua sitemap sia sempre aggiornata
  • Ci sono pagine indicate nella sitemap che non sono state trovate tramite il crawl? Se si, ti presento le pagine orfane, ovvero pagine che non hanno alcun link all’interno del tuo sito web. Trova il posto appropriato ed inserisci un link per assicurarti che abbiamo almeno un backlink[?] interno.

Architettura del sito web

L’architettura del tuo sito web definisce la struttura del tuo sito web, ovvero la sua profondità in verticale e la sua larghezza in orizzontale.

architettura del sito web

Valuta quanti click sono richiesti per arrivare alle tua pagine più importanti, cercando un equilibrio tra i livelli orizzontali ed i livelli verticali.

Elementi Flash e JavaScript

Alcuni elementi sono inaccessibili ai crawler. Nonostante recentemente tutti i menu, anche quelli più complessi, sono creati usando soltanto il CSS, è possibile vedere dei siti i cui menu sono creati in flash o JavaScript. Nonostante i motori di ricerca siano diventati più intelligenti col passare degli anni la scelta più sicura è sempre quella di evitare questo tipo di elementi, specialmente nel caso dei menu. Se il crawler non è in grado di “vedere” il menu non seguirà i link e non comprenderà l’architettura del tuo sito web.

Se vuoi valutare la navigabilità del tuo sito puoi eseguire due scansioni: una con i JavaScript attivati ed una con i JavaScript disattivati. In questo modo semplicemente comparando i risultati potrai identificare le sezioni che sono inaccessibili senza l’utilizzo di JavaScript.

Performances del sito web

È risaputo che gli utenti online hanno una soglia di attenzione molto bassa, e se la pagina impiega più di 2 secondi per il caricamento completo puoi star certo che lasceranno il tuo sito per non tornare mai più.

Allo stesso modo Google premia i siti veloci, dal momento che offrono una migliore esperienza per l’utente. E sappiamo con certezza che il principale focus di Google è proprio la user experience.

Inoltre il tempo a disposizione dei crawler è limitato, ed il numero di siti web sempre crescente. Va da sé che se nello stesso lasso di tempo il crawler è in grado di indicizzare un maggior numero di pagine effettuerà una scansione più approfondita (scansionando quindi un maggior numero di pagine).

Puoi controllare la velocità de tuo sito web usando diversi strumenti. Abbiamo scritto una guida relativa all’ottimizzazione del tuo sito web che tratta a fondo l’argomento velocità e prestazioni per WordPress

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

Indicizzabilità

Nella nostra revisione SEO abbiamo finora identificato quali pagine sono accessibili ai motori di ricerca. Adesso dobbiamo definire quali pagine sono state effettivamente indicizzate dai motori di ricerca.

Il comando "site:"

Quasi tutti i motori di ricerca hanno il comando “site:” che ti permette di eseguire una ricerca dei contenuti di un sito web specifico. Questo tipo di ricerca ci fornisce una stima del numero di pagine indicizzate dal motore su cui eseguiamo la ricerca.

Ad esempio se cerchiamo “site:supporthost.it" vediamo che ci sono 315 pagine indicizzate:

il comando site

Questo numero di pagine indicizzate non è accurato ma ci è comunque utile per avere una stima (chiameremo questo valore index count). Conosci già il numero delle pagine del tuo sito grazie al crawl che abbiamo fatto ed alla sitemap XML (che chiameremo conteggio) e saremo quindi in un uno di questi scenari:

  • L’index count ed il conteggio tramite crawl e sitemap è più o meno equivalente. Questo è lo scenario ideale dal momento che il motore di ricerca ha indicizzato tutte le pagine del tuo sito web
  • L’index count è superiore rispetto al conteggio. In questo caso è molto probabile che il tuo sito abbiamo del contenuto duplicato
  • Index count è inferiore rispetto al conteggio. Questo indica che i motori di ricerca non indicizzano molte delle pagine del tuo sito web. Probabilmente hai già identificato questo nel passaggio precedente. In caso contrario devi controllare se il tuo sito web è stato penalizzato

Se hai il sospetto che il tuo sito web abbia dei contenuti duplicati esegui nuovamente la ricerca col comando “site:” ed aggiungi “&start=990” alla fine dell’url nel browser:

SupportHost seo cerca pagine duplicate

E controlla se Google ti mostra un messaggio che indica che ci sono contenuti duplicati come questo:

SupportHost seo pagine duplicate

Se hai un problema coi contenuti duplicati non disperare, risolveremo il problema nella prossima sezione della nostra revisione SEO.

Controllo della bontà dell’indicizzazione

Scendiamo adesso in maggiori dettagli per la nostra revisione SEO. Vediamo se e come i motori di ricerca indicizzano le nostre pagine più importanti.

Facendo la nostra ricerca “site:” la pagine dovrebbero essere mostrate in ordine di importanza, partendo ovviamente dalla home page. Se così non fosse ci possono essere due tipi di problema:

  • È necessario rivedere l’architettura del tuo sito web in modo da dare più importanza ale pagine che devono stare più in alto
  • È possibile che la pagina non sia completamente mostrata nei risultati di ricerca

Ricerche di pagina

Esegui una ricerca per la pagina specifica per vedere se è inclusa nell’indice o meno:

SupportHost seo ricerche di pagina

Se non trovi la pagina nell’indice del motore di ricerca controlla che sia accessibile. Se è accessibile assicurati di non aver ricevuto penalizzazioni

Ricerche di brand

Dopo aver controllato che le tue pagine siano indicizzate devi controllare che il tuo sito sia ben posizionato se fai una ricerca col tuo brand.

Fai una ricerca per il nome del tuo brand o della tua attività. Normalmente il tuo sito dovrebbe apparire in cima ai risultati. Se il tuo sito non è proprio presente potrebbe essere stato penalizzato, vediamo come investigare ulteriormente.

Penalizzazioni sui motori di ricerca

Mi auguro che sei arrivato fino a questo punto delle revisoine SEO del tuo sito web senza aver trovato niente che possa far pensare ad una penalizzazione. Ma se credi che il tuo sito abbia subito una penalizzazione ecco quattro passi da seguire per risolvere.

1. Assicurati di essere stato penalizzato

Spesso e volentieri succede che quella che si pensava fosse una penalizzazione altro non era che un errore (ad esempio un tag noindex inserito inavvertitamente). Quindi prima di correre ai ripari assicuriamoci che si tratti realmente di una penalizzazione.

Nella maggior parte dei casi una penalizzazione sarà ovvia. Potresti aver ricevuto una notifica tramite Webmaster Tool. Oppure la tua pagina non è nell’indice nonostante sia normalmente accessibile.

È anche importante notare che il tuo sito potrebbe aver semplicemente perso del traffico a causa di un aggiornamento dell’algoritmo di Google, aggiornamenti che si fanno sempre più frequenti e talvolta catastrofici per alcuni siti. Nonostante questa non sia una vera e propria penalizzazione dovrebbe essere gestita come tale.

2. Identifica il motivo della penalizzazione

Appena sei sicuro di aver ricevuto una penalizzazione dovrai capire il motivo di questa. Se hai ricevuto una comunicazione tramite Webmaster Tools è presto fatto.

Se il tuo sito è stato vittima di un aggiornamento dell’algoritmo la situazione sarà certamente più complessa. Dovrai ricercare in rete informazioni relative all’aggiornamento fino a trovare la soluzione. Quando un simile aggiornamento viene applicato all’algoritmo i siti che ne subiscono le conseguenze sono sempre molti e non sarà difficile capire la causa del problema a seguito di una ricerca su gruppi facebook, forum e blog di settore, sia in lingua italiana che inglese.

3. Sistema il problema che ha portato la penalizzazione

Una volta identificato il motivo della penalizzazione, sistemare la causa che ha generato il problema sarà sicuramente facile.

4. Richiedi una riconsiderazione

Una volta che hai sistemato dovrai richiedere una riconsiderazione al motore di ricerca che ti ha penalizzato. Tieni presente che se il tuo sito era soltanto vittima di un upgrade dell’algoritmo questo tipo di richiesta sarà completamente inutile e dovrai semplicemente aspettare.

Per maggiori informazioni leggi le guida di Google per le riconsiderazioni e la guida di bing per uscire dalla penalizzazioni.

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

SEO On Page

Adesso spostiamoci verso un altro aspetto della SEO del tuo sito web. Le caratteristiche del tuo sito web che influenzano il posizionamento del tuo sito web.

URLs

Quando eseguaimo una revisione SEO di un sito web analizzandone le URL dobbiamo farci alcune domande:

  • L’URL è corta e leggibile? Una buona regola sarebbe mantenere le URL di una lunghezza inferiore a 115 caratteri
  • L’URL include parole chiave rilevanti? È importante usare una URL che descrive il suo contenuto
  • L’URL sta usando sottocartelle invece di sottodomini? I sottodomini sono utilizzati come domini unici dai motori di ricerca quando si tratta di passare la link juice.
  • L’URL usa dei parametri dinamici? Quando possibile usa solo URL statiche. Se non puoi evitare di usare parametri dinamici assicurati di registrarli su Google Webmaster Tool
  • L’URL usa il segno meno per separare le parole? Il segno underscore non era ben visto in passato da certi motori di ricerca. Per dormire sonni tranquilli usa il segno meno per separare le parole nell’URL

Analizzando le URLs per un intero dominio dobbiamo farci invece le seguenti domande

  • La maggior parte delle URLs seguono i punti elencati qui sopra? O sono mal-ottimizzate?
  • Basandoci sulle parole chiave trattate dal nostro sito il nome del dominio è appropriato? Contiene le keywords[?]? Sembra spam[?]?

Contenuti duplicati con URLs differenti

Durante la nostra revisione SEO, oltre a controllare l’ottimizzazione delle URLs è importante notare se ci sono dei contenuti duplicati dovuti proprio a loro.

Le URLs sono quasi sempre le responsabili per i contenuti duplicati. Se due diverse URL mostrano lo stesso contenuto il motore di ricerca crede che queste siano due pagine diverse.

Il confronto fra l’index count ed il conteggio che abbiamo indicato prima dovrebbe darti un’idea rispetto ai contenuti duplicati sul tuo sito web.

Per stare sicuro dovresti controllare che non siano presenti sul tuo sito gli errori più comuni che portano a contenuti duplicati dovuti alle URLs.

Scriveremo a breve un articolo in merito per scendere nei dettagli, se vuoi essere avvisato iscriviti alla mailing list cliccando qui.

Nella sezione relativa all’analisi del contenuto discuteremo altri sistemi per identificare il contenuto duplicato.

Contenuto

Spesso di dice “content is king”. Vediamo quindi di trattarlo come si merita.

Per investigare il contenuto di una pagina abbiamo diversi strumenti a disposizione. Il più semplice da usare è la cache di Google che ci permette di vedere una versione solo testo della nostra pagina. In alternativa puoi usare ache SEO Browser o Browseo. Questi due browser ci mostrano una versione solo testo della nostra pagina web ed includono anche altri dati interessanti relativi alla pagina come il page title e la meta description fra gli altro.

Indipendentemente dallo strumento che decidi di usare sarà necessario trovare una risposta alle seguenti domande:

  • La pagina contiene abbastanza contenuto? Non c’è una regola ben precisa ma il contenuto dovrebbe contenere almeno 300 parole.
  • Il contenuto ha un valore per chi lo legge? Questo è ovviamente una valutazione soggettiva, ma possiamo ottenere dei valori controllando il bounce rate e il tempo speso sulla pagina controllando le analytics
  • Il tuo contenuto contiene le parole chiave per cui vuoi posizionarti? Queste parole chiave compaiono nel primo paragrafo? Se vuoi posizionarti per una parola chiave devi assicurarti che sia presente nel contenuto.
  • Il tuo contenuto sembra spam? Hai esagerato con la keyword density[?], ovvero hai ripetuto troppe volte la tua parola chiave al punto da rendere pesante la lettura?
  • Ci sono errori di battitura o errori grammaticali? Se non vuoi perdere di credibilità assicurati di controllare il tuo testo per evitare errori
  • Il contenuto è facilmente leggibile? Esistono varie metriche per stimare la leggibilità del tuo contenuto come ad esempio Flesch Reading Ease, Fog Index. Questi indici però sono studiati per la lingua inglese e non funzionano altrettanto bene con l'italiano.
  • I motori di ricerca sono in grado di controllare il tuo contenuto? Se il tuo contenuto è dentro flash, o se si tratta di testo all’interno di una immagine o di JavaScript troppo complesso i motori di ricerca potrebbero non essere in grado di vedere il contenuto della tua pagina.

Durante l’analisi del tuo contenuto ci focalizzaremo su 3 aree principali:

1. Architettura delle informazioni

L’architettura del tuo sito web definisce come le informazioni vengono presentate sul sito. Durante questa fase dovresti assicurarti che ogni pagina del tuo sito abbia un obiettivo ben preciso. Dovresti anche verificare che ogni keyword che ti interessa sia rappresentata da una pagina del tuo sito web.

2. Cannibalismo

Si definisce la Cannibalismo delle parole chiave quando più di una pagina usa la stessa parola chiave per cercare di posizionarsi. Quando più di una pagina usa la stessa keyword si crea confusione per il motore di ricerca e crea confusione per gli utenti.

Per identificare il cannibalismo puoi creare un indice delle keyword per mappare tutte le pagine del tuo sito web. Una volta identificate le pagine che usano la stessa keyword puoi unire le pagine o modificarne una delle due in modo da posizionare una di queste per una keyword differente.

3. Contenuto duplicato

Il tuo sito presenta del contenuto duplicato quando presenta più pagine con lo stesso contenuto, o con contenuto similare. Questo tipo di problema può accadere sia tra pagine dello stesso sito che tra siti diversi.

Un ottimo tool per identificare il contenuto duplicato sul tuo sito web è Siteliner

Per identificare il contenuto duplicato su pagine di altri siti puoi usare Copyscape

HTML Markup

Il codice HTML delle tue pagine contiene gli elementi più importanti per il SEO, è quindi necessario controllare che il tuo codice sia valido per gli standard W3C.

W3C offre un servizio per validare il tuo codice HTML ed un servizio per validare i tuoi CSS per aiutarti a controllar eil tuo sito web

Title

Il title è la parte più identificativa della pagina. È il titolo che compare nei motori di ricerca, e quello che vedi in alto nel browser, a la cosa che le persone notano nei social media. Ecco perché è importante controllare i title del tuo sito web.

SEO Title

Mentre controlli il titolo devi farti le seguenti domande:

  • Il title è breve abbastanza? È buona pratica mantenere il title di una lunghezza inferiore ai 70 caratteri. Un title più lungo sarà tagliato dai motori di ricerca e rende difficile alle persone fare dei commenti su twitter
  • Il title descrive il contenuto della pagina? Evita di usare un titolo clickbait che in realtà on descrive l contenuto se non vuoi vedere il bounce rate schizzare alle stelle
  • Il title contiene la parola chiave per cui vuoi posizionarti? È buona norma usare la parola chiave per cui vuoi posizionarti nel title della tua pagina, ed usarla all’inizio di questo. Questa è l’ottimizzazione on-page più importante
  • Il tuo title è sovraottimizzato? Cerca di scrivere il title per i tuoi utenti, non per i motori di ricerca, e soprattuto evita il keyword stuffing

Assicurati che ogni pagina abbia un title unico, puoi usare il crawl per effettuare questa analisi. In alternativa puoi usare Google Webmaster Tools per ottenere questa informazione (controlla su ottimizzazione -> HTML Improvements)

Meta Description

La meta description non viene usata più dai motori di ricerca come fattore di ranking, ma influisce indirettamente dal momento che influenza il CTR (la percentuale di persone che cliccano sul tuo risultato dopo averlo visto).

Le domande da farsi per quanto riguarda la meta description sono le stesse del title indicate sopra. È necessario mantenere la lunghezza inferiore a 155 caratteri ed evitare di sovra-ottimizzare il testo.

Come per il title assicurati che ogni pagina abbia una meta description unica, puoi usare il crawl per effettuare questa analisi. In alternativa puoi usare Google Webmaster Tools per ottenere questa informazione (controlla su ottimizzazione -> HTML Improvements)

Altri Tag <head>

I tag title e description sono senza dubbio i più importanti dal punto di vista SEO all’interno della sezione. Facciamo un controllo ulteriore:

  • Qualcuna delle tue pagine usa il campo meta keyword? Nel tempo questo campo è stato associato allo spam, per stare sicuri conviene evitare di usarlo completamente
  • Stai usando il link rel=“canonical” in qualcuna delle tue pagine? Se lo stai usando assicurati di usarlo in modo corretto per evitare il problema dei contenuti duplicati
  • Hai dei contenuti divisi su diverse pagine? Stai usando correttamente i rel="prev" e rel="next"? Aggiungere questi parametri ai link aiutano i motori di ricerca ad identificare la paginazione sul tuo sito web

Immagini

Un foto vale 1000 parole, ma non per i motori di ricerca. Per questo motivo dobbiamo usare i metadati in modo da dare maggiori informazioni ai motori di ricerca.

Quando si analizza un’immagine da un punto di vista SEO la parte più importante sono il nome del file e l’alt text. Entrambi i testi dovrebbero descrivere l’immagine e dove possibile contenere la parola chiave per cui vuoi posizionarti.

Link in uscita

Quando una pagina linka un’altra la pagina che riceve il link è come se ricevesse un voto. Per questo è importante assicurarsi che i link in uscita siano di qualità. Infatti se stai dando un voto ad un sito di bassa qualità o peggio di spam probabilmente anche tu hai una bassa qualità.

Per valutare i link durante la revisione SEO è opportuno farsi le seguenti domande:

  • I link puntano ad un sito affidabile? Come detto sopra se dal tuo sito mandi dei link verso un sito di spam Google potrebbe arrivare alla conclusione che anche il tuo sito è un sito di spam
  • I link sono rilevanti rispetto al contenuto della pagina? I link nella tua pagina dovrebbero rimandare a risorse utili o contenuti rilevanti. Se aggiungi un link verso una pagina che non ha alcuna rilevanza con l’argomento trattato dalla tua pagina peggiora l’esperienza dell’utente e riduca la rilevanza della tua pagina rispetto all’argomento trattato agli occhi di Google
  • I link nella pagina usano un anchor text[?] rilevante? L’anchor text usa keywords rilevanti? L’anchor text di un link dovrebbe descrivere il testo della pagina a cui la pagina punta il link. Questo aiuta gli utenti a capire se voglio cliccare sul link ad al motore di ricerca a capire di cosa tratta la pagina di destinazione
  • Qualcuno dei link è rotto? Se cliccando sul link si riceve un errore 4xx o 5xx il link è considerato rotto. Puoi trovare i link rotti tramite il crawl o tramite un Link Checker
  • I tuoi link usano dei redirect inutili? Se i tuoi link interni eseguono un redirect stai diluendo la link juice che passa da una pagina all’altra del tuo sito web. Assicurati che i tuoi link interni rimandano alle pagine corrette
  • Hai dei link nofollow? Se puoi controllare i tuoi link (e quindi non si tratta di link aggiunti al tuo sito dai tuoi utenti) dovresti lasciare la link juice fluire senza blocchi.

Quando controlli i link del tuo sito web dovresti controllare la distribuzione dei tuoi link in modo che le pagine più importanti siano quelle che ricevono più link. Stai attento a non creare una situazione identificabile come rank sculpting[?] ma allo stesso tempo devi dare maggiore importanza alle pagine principali del tuo sito web.

Altri Tag <Body>

Oltre alle immagini ed i link ci sono altri elementi importanti che possiamo trovare nella sezione <html> della tua pagina web durante la revisione SEO. Ecco le domandi che dobbiamo farci durante l’analisi:

  • La pagina contiene un titolo <h1>? Questo contiene una delle parole chiave per cui vuoi posizionarti? I titoli sono sono importanti come il tag title ma hanno comunque una rilevanza e dovrebbe contenere la parola chiave per cui vuoi posizionarti
  • La pagina usa frames o iframes? Se stai usando un frame per mostrare del contenuto i motori di ricerca non associano quel contenuto alla tua pagina.
  • Rapporto tra contenuto e pubblicità. Assicurati che il contenuto non venga sommerso dalle pubblicità.

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

SEO Off Page

I parametri SEO on-page sono senza dubbio una parte importante nella nostra analisi, ma è necessario eseguire un approfondito controllo del SEO off-page

Popolarità

Anche se I siti più popolari non sono i più utili non possiamo ignorare questo parametro, che prevede il successo di un sito web. Quando si valuta la popolarità di un sito web dobbiamo rispondere ad alcune domande:

  • Il tuo sito è in crescita? Semplicemente controllando le tue analytics puoi vedere se stai guadagnando o perdendo traffico rispetto ai mesi/settimane precedenti
  • Quale è la tua popolarità comparata con altri siti simili? Puoi usare servizi di terse parti come Alexa, CompeteQuantcast o SimilarWeb per valutare la situazione
  • Ricevi backlinks da siti popolari? Puoi usare uno strumento per controllare la popolarità del tuo sito usando una metrica basata sui link come mozRank per valutare la tua popolarità e quella dei siti che ti linkano

Affidabilità

L’affidabilità di un sito web è un parametro molto soggettivo dal momento che ognuno ha la propria interpretazione e il proprio concetto per questo termine. Per evirare dei pregiudizi personali è necessario usare dei parametri che sono considerati globalmente come non affidabili.

I comportamenti non affidabili possono essere divisi in varie categorie , ma nel caso della nostra revisione SEO ci focalizzeremo su malware[?] e spam. Per controllare il tuo sito puoi affidarti a delle blacklist come DNS-BH o le API di Google. Potresti voler usare uno strumento come SiteAdvisor.

scansione siteadvisor per la ricerca di malware

Per controllare se il tuo sito potrebbe essere considerato spam da Google dovresti controllare i seguenti punti:

  • Keyword Stuffing[?] - consiste nella creazione di un contenuto con una keyword density troppo alta
  • Testo nascosto o invisibile - usare le differenze delle tecnologie dei browser e degli spider per nascondere del testo agli utenti e mostrarlo agli spider. Solitamente viene fatto mostrando del testo con lo stesso colore dello sfondo
  • Cloaking - far vedere versioni differenti della stessa pagina agli utenti ed ai motori di ricerca, solitamente viene fatto sfruttando gli IP o l’user agent

Anche se il tuo sito risulta affidabile è necessario controllare l’affidabilità dei vicini, ovvero dei siti che linkano al tuo sito e che vengono linkati dal tuo sito.

La qualità del tuo sito è definita dalla qualità dei siti che lo linkano. Per questo motivo è molto importante analizzare il profilo backlink e vedere come è possibile migliorarlo.

Esistono una serie di strumento proprio a questo scopo tra cui i Webmaster Tools, Open Site Explorer, Majestic SEO, and Ahrefs.

Ecco cosa controllare relativamente ai tuoi backlinks:

  • Quanti domini unici linkano al tuo sito web? Quanti più link meglio è, ma avere 100 link da 100 domini differenti ha molto più valore che avere 100 link dallo stesso dominio
  • Che percentuale dei backlink sono nofollow? Idealmente la maggior parte dei backlink saranno dofollow, ma tieni presente che un sito che non ha backlink nofollow è sospetto
  • La distribuzione degli anchor text sembra essere naturale? Se troppi backlink usano un “exact match anchor text” i motori di ricerca avranno il sospetto che quei backlink non siano naturali
  • I backlink ti arrivano da siti a tema? Se i link verso il tuo sito sono presenti su siti sullo stesso tema questo aiuta a far vedere il tuo sito come autorevole per quell’argomento
  • Quanto sono popolari, degni di fiducia e che autorità hanno i siti che ti linkano? Se sei linkato da troppi siti di bassa qualità anche tu sarai considerato di bassa qualità

Autorità

L’autorità di un sito web è definita da una combinazione di fattori come la qualità e quantità dei backlinks, la sua popolarità e la sua affidabilità.

Per stimare l’autorità del tuo sito web SEOmoz ci fornisce due metriche molto importanti: la Page Authority e la Domain Authority. La Page Authority ci aiuta a capire quanto in alto la pagina arriverà sui motori di ricerca mentre la Domain Authority si riferisce all’intero sito web.

Queste due metriche aggregano diverse metriche link (mozRank e moztrust fra le altre) per darti un semplice parametro per comparare la forza di una pagina o di un dominio.

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

Analisi della competizione

Adesso che hai finito la revisione SEO del tuo sito web, è giunto il momento di iniziare la stessa analisi per i tuoi competitor. È un lungo lavoro, ma una conoscenza approfondita dei tuoi competitor ti permetterà di capire cosa stanno facendo in più rispetto a te, e quali sono i loro punti deboli, in modo da poterli battere nel lungo periodo.

Seo Report

Una volta che hai terminato la revisione SEO del tuo sito e quello dei tuoi competitor è opportuno inserire tutte le tue osservazioni in un report che chiunque possa seguire per compiere i passi necessari per migliorare il sito web analizzato.

Se necessario includi qualche informazione addizionale in modo che il report sia comprensibile anche per un manager o un esecutivo che non sia necessariamente un tecnico.

Inserisci delle priorità in modo da eseguire per prime le azioni più importanti, quelle che avranno un maggior impatto sul ranking del sito web, e lasciare le cose meno importanti e le rifiniture alla fine.

Cerca di essere specifico e dare dei consigli che possano essere usati come linee guida per le future operazioni. Indicare una cosa come “scrivi dei titoli migliori” ha poco senso in quanto generico.

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

Glossario

Anchor Text: il testo cliccabile in un link, quello che viene visualizzato dell'utente come sottolineato e che dà un'idea del tipo di contenuto che troveremo nella pagina di destinazione

Backlink: Un link che da un sito esterno rimanda al nostro sito web

Keyword: letteralmente "parola chiave" per cui vuoi posizionare il tuo sito su Google. Di solito è costitutita da più di una parola, chiamata anche keyphrase

Keyword Density: la percentuale di parole chiave sull'intero testo. Solitamente si cerca di mantenere questi valore tra 1-2%

Keyword Stuffing: l'utilizzo di una parola chiave un numero eccessivo di volte fino a rendere il testo poco scorrevole. Questa pratica viene penalizzata dai motori di ricerca

Link Juice:Indica la sommatoria dei tre valori passati tramite link da un documento all’altro: tematizzazione, pagerank, autorevolezza.

Malware: applicazioni che presentano un comportamento molesto, indesiderabile o nascosto

Rank Sculpting: pratica volta a dare più importanza a pagine specifiche sistemando i link interni in modo da dare un maggior numero di link alle pagine del nostro sito che vogliamo far comparire più in alto rispetto alle atre pagine del sito web

SERP: Search Engine Results Page ovvero la pagina dei risultati del motore di ricerca

Spam: invio massivo di email indesiderate. Un sito si di spam è un sito senza un valore per l'utente volto a dare link a certi siti per farli salire nelle SERP

User Agent: In informatica lo user agent è un'applicazione installata sul computer dell'utente che si connette ad un processo server. Esempi di user agent sono i browser web, i lettori multimediali, i crawler e i programmi client mail

Abbiamo riassunto il contenuto di questo post in un comoda checklist da seguire per effettuare la revisione SEO del tuo sito web.

1 commento to “ Eseguire una revisione SEO del tuo sito web”

  1. Marco dice:Rispondi

    Complimenti e grazie!
    Mi metto al lavoro… Anche se ci vorrà un po’…

Lascia un commento

Il tuo indirizzo email non sarà pubblicato I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

TORNA SU