Ottimizzazione SEO: Posizionamento sui Motori di Ricerca

4.7/5 - (4 votes)

Ottimizzazione SEO di un sito internet, di un blog o di un eCommerce: se sei arrivato su questa pagina sei alla ricerca di una Guida SEO e/o di informazioni su cos’è la SEO e come fare SEO.

Prenditi 10 minuti e leggi questa guida fino alla fine, troverai tutte le informazioni di cui hai bisogno per migliorare il posizionamento sui motori di ricerca del tuo sito internet.

Cominciamo da una piccola introduzione sulla SEO rispondendo ad una domanda che viene fatta ogni mese da 590 persone (vedremo più avanti come faccio a sapere che 590 persone si fanno questa domanda):

S.E.O. Significato

Ogni mese 590 persone scrivono su Google “S.e.o. Significato” mentre 480 persone cercano SEO significato.

SEO è l’acronimo di Search Engine Optimization, vale a dire Ottimizzazione per i motori di ricerca.

Si tratta di un insieme di attività e strategie che hanno come obiettivo quello di semplificare ai motori di ricerca la lettura dei contenuti e delle informazioni presenti all’interno di un blog, di un ecommerce o di un sito internet al fine di migliorare il posizionamento del sito sui motori di ricerca.

Ed in particolare l’obiettivo della SEO è quello di migliorare il posizionamento organico di un sito internet.

Con il termine “posizionamento organico” si intendono i risultati non sponsorizzati (ovvero non a pagamento) mostrati all’interno della pagina dei risultati di Google, chiamata SERP.

SERP è l’acronimo di Search Engine Result Page, vale a dire pagina dei risultati del motore di ricerca, ed è la pagina che visualizzano le persone ogni volta che fanno una ricerca su Google.

Posizionarsi ai primi posti dei risultati di ricerca permette di:

  • Aumentare la visibilità di un sito internet e di conseguenza
  • Incrementare il numero di visite al sito. Questo, per un sito fatto bene, si traduce in
  • Conversioni e quindi vendite, nuovi clienti ed aumento di fatturato

Ottimizzazione SEO

Per svolgere tutte quelle operazioni che ci permetteranno di migliorare il posizionamento di un sito internet all’interno delle SERP, e quindi dei risultati di ricerca, dobbiamo prima di tutto capire come funzionano i motori di ricerca, ed in particolare Google.

Google è infatti il motore di ricerca più utilizzato, ed il motore di ricerca scandaglia costantemente il web alla ricerca di nuovi contenuti e pagine da catalogare ed indicizzare, attraverso le fasi di:

  • Crawling (Scansione): attraverso dei programmi (chiamati comunemente robot, crawler, spider) durante questa fase il motore di ricerca legge tutto ciò che è presente all’interno di una pagina o di un sito
  • Indexing (Indicizzazione): i dati letti vengono archiviati all’interno del database del motore di ricerca
  • Ranking (Posizionamento): una volta si diceva che 200 fattori concorrevano per stabilire quale posto, all’interno dei risultati di ricerca, una pagina avrebbe ottenuto. Oggi i fattori sono molto più di 200 ed i risultati possono variare anche in base all’utente che fa una ricerca (ad esempio in base alla localizzazione geografica della persona che fa una richiesta, ovvero che cerca qualcosa sul motore di ricerca).

Come funziona un motore di ricerca?

Siamo abituati a pensare che un motore di ricerca entri in funzione nel momento in cui un utente fa la sua “query”, ovvero “domanda di ricerca”.

Dopo che l’utente fa una query al motore di ricerca questo entra in funzione ed estrapola i risultati, ordinandoli e poi mostrandoli all’utente.

Questa è la spiegazione più semplice e logica che ci si aspetta quando si parla di risultati offerti da un motore di ricerca, ma in realtà i procedimenti che stanno dietro all’estrapolazione ed alla catalogazione dei risultati di ricerca sono più complicati.

Generalmente infatti, dopo che un utente fa la sua ricerca all’interno del motore di ricerca, inserendo le sue parole chiave (e quindi la “query di ricerca”, che nel caso di quest’articolo potrebbe essere “Ottimizzazione SEO”), il motore passa alla deduzione dell’argomento, ovvero cerca di capire di quale argomento stiamo parlando.

A questo proposito, dobbiamo ricordarci che ogni parola può avere diverse accezioni – in tal proposito, sull’argomento del senso delle parole, oggi si parla sempre più spesso di SEO Semantica – basta pensare alla parola “Calcio” che può riferirsi allo sport o all’alimentazione…).

Il motore di ricerca passa dunque all’analisi dell’intent, ovvero dell’intento di ricerca, che può essere:

  • Navigazionale (quando un utente ricerca un sito web specifico, ad esempio Zalando, Amazon, Nike)
  • Informativo (quando un utente cerca informazioni, ad esempio come preparare la pasta alla carbonara)
  • Commerciale (quando un utente cerca dei consigli, ad esempio miglior smartphone economico)
  • Transazionale (quando un utente vuole acquistare qualcosa, ad esempio prezzo Nike Air Force 1)
  • Locale (quando si cercano informazioni locali, ad esempio ristorante di carne vicino a me)

Dopo aver passato le informazioni agli algoritmi di settore, il motore di ricerca, già dal 2012, è in grado di personalizzare i risultati in base alle preferenze dell’utente, ai dati di navigazione, alla nostra cronologia web e ad altri fattori. Una volta dunque effettuate:

  • Query
  • Deduzione dell’argomento
  • Deduzione dell’intenzione di ricerca dell’utente
  • Filtro tramite algoritmi specializzati
  • Personalizzazione dei risultati

il motore ci mostra finalmente i risultati della ricerca. Questo dimostra come sia complicato posizionare un sito internet ai primi posti nei motori di ricerca, e ci fa comprendere come i fattori della SEO variano a seconda dell’argomento di ricerca e dei risultati presenti negli archivi del motore di ricerca.

Le SERP e la Categorizzazione degli Utenti

Fra i vari fattori che influiscono nella costruzione delle SERP (Search Engine Ranking Page),  fra il 2010 ed il 2012, si è assistiti ad una categorizzazione lato utente che, tramite i log di ricerca, ha permesso ai motori di ricerca (e a Google in particolare) di capire quali sono gli interessi degli utenti ed inserirli in determinate “categorie”.

In sostanza Google è riuscito a Profilare, e lavora continuamente alla profilazione di ogni singolo utente.

Se un utente ad esempio cerca spesso automobili e novità sul mondo delle auto, google capirà che siamo degli appassionati di automobili e ci inserirà nella categoria di persona interessate al mondo dell’automobile.

Di conseguenza Google, quando crea una pagina di risultati di ricerca, ordina i suoi risultati in base al profilo dell’utente. 

Cosa fare dunque quando creiamo un sito internet?

Prima di pensare a posizionamenti invasivi o cercare di dominare le SERP che riteniamo più interessanti, cerchiamo di capire a quale “categoria di utenti” è utile il nostro sito, e cerchiamo dunque di categorizzare il nostro sito in maniera tale da raggiungere i nostri utenti – tipo.

Come faccio a capire secondo Google a che categoria appartiene il mio sito?

Google, anche se tu non lo sai, ha già categorizzato il tuo sito internet.

Per controllare in quale categoria ha inserito il tuo sito internet Google puoi utilizzare vari strumenti, ad esempio SEOZoom (che è lo strumento che permette ai SEO di ottenere tantissime informazioni fra cui anche i volumi di ricerca delle parole chiave, Clicca qui per richiedere la prova gratuita di SEOZoom).

È chiaro che per categorizzare un sito su una determinata categoria ho bisogno di avere contenuti per quella determinata categoria.

È utile utilizzare AdPlanner, SEOZoom o altri strumenti anche per capire come sono categorizzati quelli che noi consideriamo i nostri “competitor” e cercare di farci così categorizzare da google in maniera simile.

Fattori SEO

Fra i fattori che influiscono sul posizionamento di un sito internet, e quindi fra i fattori presi in considerazione dai motori di ricerca, ci sono:

  • Nome del dominio
  • Anzianità del dominio (da quanti anni è online)
  • Struttura del sito
  • Velocità di caricamento
  • Ottimizzazione per dispositivi mobile / Layout Responsive
  • Ottimizzazione on page
  • Internal linking / Link building
  • Author Rank
  • Citazioni – Cocitazioni
  • Attività di content marketing

Ottimizzazione SEO e Guida SEO

Come ottimizzare un sito per i motori di ricerca?

Ho già parlato di Ottimizzazione Sito Web in un articolo dedicato al libro di Verdiana Amorosi:

Prima di cominciare ad addentrarsi nel mondo della Link Building bisognerebbe avere un sito ben strutturato e ottimizzato: il consiglio che dò sempre a chi mi chiede “come posizionare un sito sui motori di ricerca” è prima di tutto lavorare al sito, su quelli che si chiamano fattori onsite:

  • Struttura del sito (Template Responsive, Plugin, Permalink, Categorie, Contenuti)
  • Ottimizzazione del sito (Velocità di caricamento, semplicità di navigazione)
  • Contenuti (Imparare a fare Keyword Research, imparare ad organizzare i contenuti)

Oltre ai fattori esterni, infatti, la prima cosa da curare è l’organizzazione interna: un sito che carica velocemente, che è usabile e che ha degli ottimi contenuti fa sempre la differenza sui motori di ricerca (anche se, in alcune nicchie di mercato, l’ottimizzazione del sito “On Site” può non essere sufficiente).

Cominciare con il piede giusto è fondamentale per avere risultati migliori, e quindi vediamo quali sono i

10 Suggerimenti per aumentare la visibilità su Google

  • Registra il tuo sito su Google Search Console: ho realizzato una guida dedicata alla Search console che puoi leggere cliccando su Google Search Console. La Search Console offre diversi strumenti gratuiti che ti permetteranno di avere informazioni dettagliate sulla visibilità delle tue pagine su Google e non solo;
  • Mettiti nei panni degli utenti: prova a navigare il tuo sito come un lettore ed assicurati che il sito sia semplice da usare e che le pagine ed i contenuti che scrivi abbiano le parole che gli utenti cercano realmente
  • Utilizza i titoli appropriati: ogni pagina ed ogni articolo dovrebbe avere un buon titolo che cattura l’attenzione e che risponde ad una domanda dei lettori. All’interno dell’articolo dovrebbero inoltre essere presenti vari paragrafi (h1, h2, h3) per strutturare il testo in maniera corretta (leggi anche Come Creare Titoli (Headline) Efficaci)
  • Fornisci metatag e descrizioni valide: Plugin come Yoast SEO ti permettono di modificare la descrizione che comparirà per i tuoi contenuti su Google: fornire una buona descrizione ti permetterà di avere uno “Snippet” più attraente ed interessante, migliorando il CTR della tua pagina sui motori di ricerca.
  • Attenzione ai Permalink: è Google stessa a dire da sempre che gli URL dovrebbero essere leggibili. Bisognerebbe impostare degli URL interessanti e semplici, un esempio pratico è l’URL di questo articolo: www.monetizzando.com/ottimizzazione-seo/
  • Struttura correttamente i link interni: è sempre Google, già nel 2011, a consigliare ai proprietari di siti web e blog di accertarsi che le pagine particolarmente importanti siano associate ad un link in un’altra pagina del sito già indicizzata da Google, per approfondire leggi anche l’articolo dedicato ai link interni
  • Non usare molto JavaScript e Flash: Imposta i contenuti e gli elementi di navigazione fondamentali del sito come testo, ricorrendo facoltativamente a JavaScript e Flash per ottimizzarli o metterli in risalto. Google preferisce i siti leggeri e rapidi nel caricamento, non pieni di banner, flash, JavaScript, PopUp e PopUnder!
  • Utilizza gli attributi ALT per le immagini: per Google è più semplice identificare il contenuto di una immagine se ha l’attributo ALT (utile anche nel caso l’immagine vada corrotta per un motivo qualsiasi e l’utente anziché vedere un errore può leggere l’alt tag dell’immagine). Se non sai dove prendere le immagini per i tuoi articoli leggi immagini gratis per blog
  • Sito Responsive: Prova a vedere come carica il tuo sito su vari dispositivi Mobile, rendilo Responsive e possibilmente Retina Ready. Se utilizzi WordPress ci sono oggi moltissimi template che sono già responsive, puoi vedere una mia selezione su Temi WordPress
  • Dai il massimo ai tuoi utenti: Google, nelle sue linee guida, spiega che lo scopo principale di un sito è offrire l’esperienza migliore ai tuoi utenti, misura le modifiche che fai al sito con Google Analytics e con lo strumento per ottimizzare il sito (su Google Analytics ho creato un Tutorial: Come inserire Google Analytics su Sito WordPress)

Il dominio e la struttura del sito internet.

Il primo passo dovrebbe essere sicuramente la scelta del dominio. Perchè non bisogna pensare solo ai motori di ricerca ma anche agli utenti, e se il dominio non è semplice da ricordare (o non riesce ad entrare in testa) allora probabilmente già stiamo partendo con il piede sbagliato.

Una volta scelto il dominio (e ricordo che c’è chi acquista domini scaduti) è molto importante scegliere un buon hostingscegliere un buon CMS (oggi si sa che il più utilizzato e WordPress) ed un buon template per wordpress.

Evita di installare troppi plugin (componenti aggiuntivi), cercando a tal proposito di tenere sotto controllo la velocità di caricamento del nostro sito internet.

Una volta impostato tutto questo si può lavorare sulla struttura del sito (noto è il consiglio di creare una struttura ad albero, non andare troppo in profondità con le sottocategorie ed utilizzare i tag in maniera intelligente e non come se non ci fosse un domani!).

All’interno della struttura del sito dovrebbero essere considerate parti come le pagine principali (con ottimizzazione dei titoli ed i vari h1, h2, h3, …, ottimizzazione delle descrizioni, linking interno delle pagine principali, …). Anche le URL devono essere “SEO Friendly” (chissà, magari ti eri scordato di impostare i permalink.

Content is king?

Con l’esperienza maturata negli anni non so dirti se davvero “Content is king”, posso però dirti che i contenuti di qualità, nel tempo, vengono sempre più premiati dai motori di ricerca (e, sopratutto, dagli utenti).

Scrivi qualcosa che sia utile per gli utenti in un linguaggio comprensibile da chiunque, altrimenti non verrai letto.

Ricorda di inserire i grassetti, gli elenchi puntati dove necessario/utile, spaziare bene il testo, creare un buon piano editoriale (leggi l’articolo dedicato al piano editoriale).

E’ importante creare sia contenuti “attuali” (che possono portare traffico nel breve termine) sia contenuti che possano invece garantire una “stabilità di traffico nel tempo” in quanto contenuti sempre utili.

A proposito, non parlare di qualsiasi argomento ma ricorda di scegliere la tua nicchia (e magari ampliarla lentamente nel tempo).

Una volta creato il contenuto non aspettarti il miracolo ma promuovi il tuo contenuto sfruttando i social (e senza fare SPAM) ed i gruppi, le community ed i forum. Ricorda di regalare qualche tuo contenuto eccezionale (ovvero di scrivere dei guest post solo per siti di qualità e fama molto alta) per dimostrare ciò che vali, e non lesinare consigli e suggerimenti.

Una volta creato un buon contenuto prova a contattare anche persone che parlano del tuo stesso argomento e suggerisci il contenuto che hai creato: i link in ingresso sono importanti (ovvero è importante che le persone parlino dei tuoi contenuti e del tuo sito, sia inserendo i link sia commentando o citandoti fra altri esperti).

Usabilità: Fai che il tuo articolo sia letto (e il tuo sito visitato)

Puoi scrivere gli articoli più belli del mondo, ma se il font è 8 pixel sta tranquillo che… non li leggerà nessuno.

Lavora sull’usabilità del tuo sito internet, prova tu stesso a cercare “i tuoi migliori articoli” e naviga sul tuo sito come un utente: si riescono a trovare molte informazioni?

È difficile trovare i tuoi articoli più ca**uti? Lavora sull’usabilità, sulle spaziature dei testi, sulla dimensione dei caratteri, … Insomma rendi il tuo sito appetibile. E non dimenticare mai di sperimentare ed analizzare i risultati.

Perché nessuno condivide i miei contenuti?

Hai scritto un articolo fantastico e aspetti che la gente lo condivida. Ma tu l’hai condiviso? Conosco tantissime persone che sperano nella condivisione… senza che loro stessi condividano i contenuti migliori che hanno pubblicato.

Se non lo fai tu perché dovrebbe farlo qualcun altro? Comincia a dare il buon esempio (a proposito, puoi condividere anche dei buoni contenuti dei tuoi competitor, non c’è nulla di male, non trovi?)….

La link building secondo me è una vera e propria arte.

Non è per tutti.

Non sanno farla tutti.

E sopratutto non è una scienza esatta.

Se non sai farla non sperimentare suoi tuoi clienti.

Crea dei progetti tuoi “pilota” sui quali fare i tuoi test ed affinare le tue tecniche. Evita di fare SPAM (fare link building non significa fare spam, significa costruire una solida realtà in rete), impara a creare delle relazioni solide e ricorda di confrontarti (in maniera educata) con chi ne sa più di te.

Questo è solo l’inizio mio caro Semola, se ti intriga il mondo della SEO potrai leggere vari manuali, ma niente ti formerà più della sperimentazione e del confronto con professionisti seri.

Uno dei problemi di moltissimi siti internet è sicuramente la presenza, all’interno del sito, di link “rotti” o non funzionanti.

Nel corso della vita di un blog o di un sito internet è naturale (e giusto) linkare altri siti internet, ma capita che, a distanza di anni, alcuni domini non vengono più rinnovati, oppure alcune pagine vengono cancellate, e questo provoca l’aumento di “link non funzionanti” all’interno dei nostri siti.

Un link non funzionante non solo è una “esperienza negativa” (se così possiamo definirla) per un utente che visita il nostro sito (e che cliccando si aspetta di trovare qualcosa di utile e non una pagina che non esiste più): può dare l’impressione che il sito internet non sia poi “così curato” e, in ogni caso, non piace a google.

Se un sito internet ha molti link che puntano verso indirizzi rotti, sbagliati o non funzionanti, a lungo andare questo potrebbe essere un problema, ma, fortunatamente, il problema è facilmente risolvibile.

Con WordPress infatti basta installare un semplicissimo plugin molto funzionale: Broken Link Checker: una volta installato ed attivato, all’interno del nostro sito (che funziona con piattaforma wordpress chiaramente), comparirà una voce “Link Checker” su “impostazioni”: sarà lui in automatico a controllare periodicamente se ci sono link corrotti e a suggerirci di apportare modifiche (eliminare il link, aggiornarlo, …).

TrustRank di Google: Cosa è?

Il TrustRank nasce per combattere le pagine web considerate Spam. E’ un algoritmo che permette di controllare e gestire i link che puntano alle pagine web, evitando in questo modo di mostrare agli utenti pagine che sono considerate come Spam.

I siti internet vengono così suddivisi in siti ad alto trust, siti a basso trust (credibilità) e siti spam.

Inizialmente il TrustRank era un marchio registrato da Google che serviva a combattere il fenomeno delle truffe online e del phishing. Successivamente Yahoo adottò il termine per parlare di tecniche per combattere lo spam su internet.

Cosa è il TrustRank?Il TrustRank è una analisi dei link e dei contenuti di un sito internet che permette di capire quali sono i siti internet autorevoli e quali quelli di Spam. Se il nostro sito è linkato da siti con forte trust (per antonomasia siti importanti a carattere nazionale come ad esempio siti di comuni, regioni, quotidiani come Repubblica, Corriere in Italia, ….) molto probabilmente il nostro sito è da considerarsi di qualità, viceversa, se i siti che ci linkano hanno basso trust, il nostro sito non avrà molta credibilità.

In sintesi, il TrustRank classifica le pagine ed i siti internet e dà loro più o meno autorevolezza.

Ma il Trust Rank di un sito internet serve a dare credibilità e rilevanza non solo ad una determinata pagina o al dominio in generale, bensì a tutti gli articoli ed i contenuti presenti sul sito. Da notare anche che nel 2008 google ha rinunciato al marchio registrato “TrustRank”.

In un vecchio video del 2011 è possibile ascoltare Matt Cutts che spiega cosa intende Google con “Trust”:

Gli algoritmi di Google analizzano le pagine web che non sono classificate come Spam (vengono chiamate “Seed”, ovvero “Semi”), gli esperti (umani) analizzano le pagine assegnando dei punteggi e indicando agli algoritmi quali pagine sono da inserire nella categoria spam e quali invece sono di alta qualità; l’algoritmo procede di conseguenza classificando le altre pagine.

Come acquisire TrustRank, ovvero come acquisire autorevolezza

Gli Hub sono i siti che collegano il sito analizzato e l’autorità di un sito. I siti vengono considerati autorevoli se:

  • Sono molto aggiornati;
  • Hanno tanti link in entrata di qualità;
  • Hanno link in entrata non solamente verso la home page ma anche verso altre pagine;
  • Hanno pochi link in uscita;
  • Puntano nei link in uscita a risorse specifiche e non generiche.

Quali sono i fattori che incrementano il Trust Rank?

  • La presenza di un certificato SSL;
  • Il Logo “Hacker Safe”;
  • Il Nome dominio registrato per un lungo periodo (10 anni);
  • I contatti e gli indirizzi del proprietario del sito reperibili;
  • La privacy Policy;
  • La ricezione di link autorevoli.

Libri sulla SEO

Se vuoi approfondire le tue conoscenze sulla SEO probabilmente sarai interessato a conoscere quali sono i migliori libri sulla SEO in commercio.

Come prima cosa non posso non parlarti del mio libro dedicato alla SEO:

Sicuramente uno dei libri che ha fatto la Storia, forse per essere stato uno dei primi libri completi pubblicati sull’argomento, è SEO Power di Giorgio Taverniti, un libro scritto dal fondatore dello storico FORUM GT.

Altri libri sicuramente degni di nota sono SEO e SEM di Marco Maltraversi, poi il famosissimo The Art of SEO di Eric EngeStephan Spencer e ancora Link Building di Ivano di Biasi.

Qui di seguito trovi i box per comprare questi testi direttamente su Amazon:

Not Provided e SEO

Per un utente è semplicissimo “nascondere” ai proprietari dei siti internet le proprie ricerche: i risultati not provided sono tutti i risultati degli utenti che effettuano ricerche dopo aver effettuato l’accesso su google (con gmail, con youtube, con google+, …): basta effettuare l’accesso per nascondere, ai proprietari dei siti, le parole chiave utilizzate nella ricerca.

Oggi tantissimi siti internet, quando accedono alle proprie statistiche, vedono che i “not provided”, sono circa il 60 – 80% del traffico totale verso un sito internet.

Cosa significa realmente la perdita di questi dati?

In breve, la perdita di questi dati significa:

  • Modificare il modo in cui misuriamo le performance SEO dei siti internet ed i lavori di ottimizzazione;
  • Che il traffico organico da google non può essere tracciato a livello di parole chiave tramite google analytics;
  • Che possiamo comunque estrapolare un numero limitato di parole chiave tramite Google Webmaster Tools;
  • Non abbiamo più la possibilità di vedere i dati di traffico su parole “long tail”, “Gruppo di parole chiave” e “brand”;
  • Si è avuta una perdita di visibilità delle nuove parole chiave che stanno emergendo nel nostro sito e sulle quali creare nuove opportunità / contenuti;
  • Abbiamo bisogno di utilizzare metriche differenti per capire le performance SEO;
  • Dobbiamo aumentare il numero di parole da cercare per il posizionamento e valutarle con le URL che perforammo meglio all’interno del nostro sito.

Come misurare allo il successo e le performance delle operazioni SEO?

I professionisti SEO utilizzano una combinazione di: ranking, traffico, conversioni come metriche e KPI per misurare i risultati del lavoro che si sta svolgendo. Le metriche disponibili ancora oggi sono:

  • Una panoramica del traffico che proviene dai motori di ricerca;
  • Il numero totale di conversioni da traffico organico o da URL;
  • I termini critici di ricerca;
  • Alcune parole chiave che stanno portando traffico al nostro sito.

E’ importante oggi misurare quali sono le pagine che portano più traffico (che ricevono più traffico) dalla ricerca organica all’interno del sito e cercare di capire quali sono le parole chiave correlate a queste pagine.

Utilizzare Google WebMaster tools per capire quali sono le variazioni a livello di clic / impressions per le parole chiave, tenendo a mente che questi dati non sono precisi al 100% e sono disponibili per una piccola percentuale di parole chiave.

Redirect 301 e Canonical

Nel 2009 Matt suggeriva di utilizzare il rel=canonical quando non era possibile utilizzare un redirect 301.

Ma, scrive un utente, il 301 compromette le prestazione perchè richiede ai browsers di fare un altro “viaggio” verso il mio server. Non è possibile utilizzare il rel=canonical ovunque al posto de Redirect 301?

Matt Cutts risponde in maniera abbastanza diplomatica: Tu sei il proprietario del tuo sito internet quindi tu decidi quando utilizzare il redirect 301 e quando il rel=canonical. Ma la maggior parte delle volte io (Matt Cutts) raccomando l’utilizzo del Redirect 301.

Questo perché tutti sanno come offrire e chiamarlo.

Lo sanno gli utenti, i browsers, i motori di ricerca. Solitamente inoltre il Redirect 301 serve perché stai migrando qualcosa del tuo sito verso una nuova posizione (una nuova location).

Come Indicizzare Velocemente Contenuti su Google?

È possibile forzare l’indicizzazione di un sito web o di una pagina, un contenuto, un articolo, su Google?

I tempi impiegati da Google per indicizzare una pagina web variano in base a numerosi fattori, è possibile però forzare Google a “passare dal nostro sito” per visualizzare un contenuto.

Si tratta di un sistema che va usato con moderazione e che permette di richiedere il passaggio di Googlebot dal nostro sito in maniera immediata: è una pratica lecita (non si tratta di black hat SEO) che permette di analizzare una risorsa in modo immediato.

Basterà infatti aprire la Google Search Console quindi andare su “Scansione/Visualizza Come Google”.

Da questa pagina possiamo dunque inserire l’URL della pagina o del sito da indicizzare, scegliere fra desktop e mobile quindi cliccare su “recupera” o su “recupera e visualizza”: in questo modo Google recupererà il contenuto della pagina e noi potremo cliccare sul bottone “Invia all’Indice” quindi fare la nostra richiesta di indicizzazione/reindicizzazione.

L’hanno chiamato “disavow links tool” (qui la pagina del “Disavow Links Tool”).

Prima di tutto chiaramente puoi controllare i tuoi links recenti, controllare tutti i link che puntano al tuo sito e, generalmente, ricevi (questa è una funzione presente già da un pò di tempo) un messaggio da Google che ti dice più o meno: “Sul tuo sito sono stati ritrovati dei link innaturali, malevoli, o di bassa qualità”, e ti viene consigliato di rimuoverli.

Generalmente, quello che bisognava fare, era cercare di contattare i siti che linkavano il nostro sito, chiedendo di rimuovere i link verso il nostro sito.

Matt Cuts precisa che, se non hai adottato strategie aggressive lato SEO non è un problema rimuovere alcuni link che hanno bassa qualità.

In questo video, in inglese, Matt Cuts, parla di questo nuovo strumento introdotto ad Ottobre 2012, di come utilizzarlo e quando va utilizzato, consigliando di utilizzare il “Disavow Tools” solo in casi estremi e particolari, e di non usarlo in maniera massiva.

Il Disavow Links Tool, ovvero loStrumento per Disconoscere i link, come spiegato anche nel video, non deve essere utilizzato in modo massivo, ma dovrà essere utilizzato, a quanto pare, solo in situazioni particolari o casi estremi.

E’ evidente inoltre che sarebbe stato più comodo per i SEO e per i proprietari di siti internet avere un comodo segno di spunta di fianco all’elenco degli URL che linkano un sito internet per comunicare a Google “questo consideralo valido / questo disconoscilo”.

Dovrebbe dunque essere una importante arma per combattere non solo chi ci linka a nostra insaputa, ma anche chi vuole fare del SEO inverso (ovvero attuare operazioni black hat sui siti dei competitors per far salire automaticamente il sito principale).

Differenza Black Hat SEO e White Hat SEO

Qui di seguito puoi vedere un esempio di pratiche Black Hat SEO e pratiche White Hat SEO: non si tratta di un elenco completo ma di alcuni esempi che ti faranno capire quali sono le differenze fra chi lavora in maniera “pulita” o white e chi invece cerca a tutti i costi di posizionarsi sui motori di ricerca.

Strategie Black Hat SEO

  • Contenuti Duplicati
  • Testo Nascosto (Invisible Text) e Keyword Stuffing
  • Cloaking o Redirection degli utenti verso altri siti o pagine
  • Links da siti con contenuti non rilevanti

Strategie White Hat SEO

  • Creazione di contenuti di valore rilevanti
  • Immagini ben etichettate
  • Link e Riferimenti da siti rilevanti
  • Frasi complete, semplici, grammaticalmente corrette
  • HTML Compliant
  • Titoli di Pagine Unici e Rilevanti

Algoritmi SEO

(Dal 2003 al 2012)

L’evoluzione di Google e del suo motore di ricerca.

Gli aggiornamenti agli algoritmi Dal 2003 al 2007 hanno mirato a colpire i siti internet che effettuavano una ottimizzazione eccessiva delle pagine di un sito internet (over optimization on page).

– 2003 –

Google dance: (Gennaio 2003) Aggiornamenti mensili che mirano a migliorare i risultati di ricerca (Boston, Cassandra, Esmeralda, Fritz) e causano il cambio di posizione frequente di un sito internet nelle SERP.

Florida: (Novembre 2003) Vengono colpiti ed identificati i siti internet che fanno keyword staffing e le tecniche di over optimization on page.

– 2004 –

Austin: (Gennaio 2004) Vengono migliorati gli algoritmi che riconoscono tecniche black hat on page (testo nascosto e keyword stuffing all’interno dei meta tags);

Brandy: (Febbraio 2004) Aggiornamenti che mirano ad espandere l’indice, lavorare su una indicizzazione semantica (LSI) ed aumentare l’attenzione alla rilevanza del testo di un link (Anchor Text). Google migliora la sua comprensione dei sinonimi e la keyword analysis.

2005 –

Google Local Maps

Nofollow: (Gennaio 2005) Google, Yahoo! e Microsoft introducono l’attributo “nofollow” con l’obiettivo di controllare la qualità dei link in entrata. L’attributo indica ai motori di ricerca di non seguire alcuni link (fra cui link spam e commenti dei blog).

Allegra: (Febbraio 2005) Si parla di Sandbox e LSI, diversi webmaster notano cambiamenti nelle SERP ma non si capisce l’obiettivo di questo algoritmo, forse Google inizia a penalizzare link sospetti.

Bourbon: (Maggio 2005) Si suppone che Bourbon cambia il metro di valutazione dei contenuti duplicati all’interno di un sito internet.

Local Maps: (Ottobre 2005) Grande aggiornamento algoritmico che incide sui fattori di ranking per il Local SEO.

Jagger: (Ottobre 2005) Con una serie di aggiornamenti google colpisce link di bassa qualità, link reciproci, schemi di link e vendita di links.

2006 – NON PERVENUTO: Dall’infografica non sembra ci sia stato nessun aggiornamento algoritmico in google (molto strano!)

– 2007 –

Universal Search (Maggio 2007). Non si tratta di un vero e proprio aggiornamento algoritmico, ma google inserisce ora nelle serp Notizie, immagini, local ed altri motori verticali. Si dice che da questo momento la vecchia serp con 10 risultati cessa di esistere.

– 2008 –

Suggest (Agosto 2008) Google inserisce i suggerimenti di ricerca in un box, mentre gli utenti stanno scrivendo una parola chiave, si evolverà negli anni in google instant.

Gli aggiornamenti effettuati fra il 2009 ed il 2010 sembrano dare grande importanza ai segnali di ranking legati ad un brand.

– 2009 –

Google Caffeine

Vince (Febbraio 2009) Grande aggiornamento che sembra favorire i grandi brand.

Rel Canonical Tag (Febbraio 2009) – Google, Microsoft e Yahoo! annunciano il supporto per il tag Canonical, attraverso il quale i webmaster possono inviare segnali di canonicalizzazione alla ricerca bot senza incidere sui visitatori (rel=”canonical”).

Caffeine (Agosto 2009) Google rilascia un grande cambiamento infrastrutturale progettato per accelerare il crawling ed espandere l’indice, integrando indicizzazione e posizionamento quasi in real time.

Real Time Search (Dicembre 2009) – Vengono forniti contenuti in tempo reale per Google News, Twitter e nuovi contenuti che vengono indicizzati insieme ad altre fonti all’interno di feed in tempo reale (compresi anche i social media a seconda dell’argomento).

– 2010 –

Google Instant

May Day (Maggio 2010) – Fra aprile e maggio i webmaster notano un calo del traffico da long-tail. Matt cutts conferma che quest’algoritmo impatta sulle query long tail (vengono colpiti siti con grande quantità di articoli porveri).

Brand Update (Agosto 2010) – Non un vero e proprio aggiornamento algoritmico, Google mostra nelle Serp più risultati dello stesso dominio.

Google Instant (Settembre 2010) – I risultati di ricerca vengono mostrati durante la digitazione di una query. Gli impatti sulle SERP in realtà sono poco significativi, l’aggiornamento aiuta semplicemente a dare risultati più velocemente agli utenti.

Social Signal (Dicembre 2010) – Google e Bing utilizzano i segnali sociali come fattori di ranking.

Fra il 2011 ed il 2012 i segnali sociali aumentano di importanza all’interno degli algoritmi di ranking di Google.

– 2011 –

Google Panda

Attribution (Gennaio 2011) – Google, per combattere l’aumento dei casi di Spam, lancia un aggiornamento che aiuta a risolvere i problemi di attribuzione dei contenuti. Precursore del Panda…

Panda (Febbraio 2011) – Ecco che vengono colpiti i siti con contenuti di bassa qulità, le content farms, i siti con molta pubblicità rispetto ai contenuti e siti con problemi qualitativi di contenuti (arriva in Europa ad Aprile 2011).

+1 Button (Marzo 2011) – Google lancia il pulsante +1. Questo pulsante influenza i risultati di ricerca all’interno dei social circle (Anche per gli annunci a pagamento).

Schema (Giugno 2011) – Google, Yahoo! e Microsoft annunciano un supporto consolidato per i dati strutturati, creando degli schemi con l’obiettivo di arricchire i risultati di ricerca.

Google+ (Giugno 2011) – Google lancia google+, le innovazioni introdotte sono le cerchie di utenti e l’integrazione con i prodotti di Google (all’inizio solo Gmail, oggi in continua espansione).

Pagination elements (Settembre 2011) – google per prevenire problemi di contenuti di crawling e contenuti duplicati introducegli attributi rel=”prev” e rel=”next”.

Freshness (Novembre 2011) – Google annuncia l’aggiornamento algoritmico della freschezza dei contenuti (impatta il 35% delle query).

– 2012 –

Google Penguin

Search+ Your World (Gennaio 2012) – Google annuncia il cambiamento delle impostazioni sui contenuti social di Google+, che adesso vengono integrati nei profili utente e compaiono nelle SERP (possono essere disattivate le personalizzazioni tramite un pulsante).

Ads Above the fold (Gennaio 2012) – Google aggiorna gli algoritmi relativi al layout delle pagine e svaluta i siti con troppa pubblicità nella parte alta (above the fold).

Venice (Febbraio 2012) – Viene effettuato un miglioramento dei risultati organici localizzati ed integrati con i dati di ricerca.

Penguin (Aprile 2012) – Over Optimization Penality e WebSpam Update: l’algoritmo agisce su fattori di spam fra cui keyword stuffing.

Knowledge Graph (Maggio 2012) – Dati aggiuntivi integrati nelle SERP per avere informazioni su alcune persone, film, luoghi, musica, …

DMCA Penalty Pirate Update: (Agosto 2012) Vengono penalizzati siti con ripetute violazioni del Copyright.

Exact Match Domain (Settembre 2012) – Viene cambiato il modo in cui si valuta la corrispondenza esatta dei domini con l’argomento del sito.

Hai bisogno di consulenza? Contattami.

Approfondimenti e Conclusioni

In questa sezione ho scelto di inserire alcuni link che ritengo interessanti.

25 Errori SEO “che distruggono il tuo posizionamento su Google” – http://www.ilmioposizionamento.it/25-errori-seo-distruggono-posizionamento-google/

Questo articolo verrà aggiornato costantemente, per rimanere aggiornato puoi aggiungerlo ai preferiti o iscriverti alla Newsletter di Monetizzando®.

Buon lavoro e buon posizionamento sui motori di ricerca,

Valerio

Ultimo aggiornamento 2024-03-01 / Link di affiliazione / Immagini da Amazon Product Advertising API

Dubbi? Domande? Esprimi la tua Opinione!