Ora Google penalizza i siti non responsive

responsive

Sappiamo già che la maggior parte del traffico web avviene da dispositivi mobile: per migliorare l’esperienza da mobile sul motore di ricerca, Google ha introdotto un aggiornamento sul suo algoritmo di posizionamento, penalizzando i siti non responsive, ovvero la cui visualizzazione non si adatta alla dimensione ridotta degli schermi dei dispositivi mobile.

Da Aprile 2015, dopo l’update denominato Mobilegeddon, i siti non responsive venivano già penalizzati nelle ricerche effettuate da mobile. Ma, come ha spiegato in un post Klemen Klobove, “Cercare su Google una risposta buona e rilevante, non dovrebbe dipendere dal device utilizzato. Si dovrebbe ottenere la migliore risposta a un’interrogazione su smartphone, tablet o desktop”.

I siti che non superano il test per verificare se il sito è mobile-friendly dovranno correre ai ripari in poche settimane.

Uno studio di Adobe sulle attività dei consumatori su siti di marca dal secondo trimestre 2014 al secondo trimestre 2015 ha rilevato che il traffico organico a siti non ottimizzati per la visualizzazione da device mobili è sceso del 10% nei primi mesi dopo il Mobilegeddon. Questo ha inciso anche sui budget marketing: il calo del traffico sui siti ha fatto salire i costi della spesa per la ricerca su mobile con un cost per click in aumento del 16% anno su anno mentre il tasso di click-through è sceso del 9% rispetto allo stesso periodo. In altre parole, le imprese hanno quindi pagato di più per ricevere meno traffico. Questo per dire che il costo conseguente all’avere un sito non responsive non è più giustificato.

Visite provenienti dalla prima pagina delle SERP di Google

Il principio base, lo sappiamo tutti, è che il traffico proveniente da una pagina di Google (SERP) diminuisce molto velocemente all’aumentare della posizione.

Secondo uno studio di Opify è essenziale apparire in prima pagina, e sono assolutamente d’accordo con questa affermazione. Secondo Chitika la prima pagina delle SERP porta il 91,5% del traffico: rende molto bene l’idea del calo di traffico per le pagine successive il seguente grafico:

Percentage of Google Traffic

Tuttavia non è sufficiente essere presenti nella prima pagina: la pecentuale di click infatti decresce molto velocemente all’aumentare della posizione: le prime tre posizioni da sole valgono infatti circa il 60% del traffico.

percent traffic by google result
Percent traffic by Google result (first page)

Personalmente, utilizzo il grafico sopra più in termini qualitativi che quantitativi: non solo infatti la maggior parte delle  SERP infatti è personalizzata per l’utente, ma sempre più spesso Google testa differenti tipi di SERP nelle quali compaiono Google Maps, Google Shopping, Google Hotel Finder.
Inoltre, guardare ciecamente alla posizione fa spesso perdere di vista il fatto che l’obiettivo deve rimanere la conversione ottenuta attraverso una pagina che offra un contenuto di qualità in relazione alla keyword ricercata. Non c’è nulla di più controproducente di una landing page incoerente per l’utente: quando viene analizzato un report di posizionamento, i dati dovrebbero sempre essere accostati alle percentuali di rimbalzo (ovvero di abbandono della pagina), e messi in relazione con la percentuale conversione, sia essa una richiesta di informazioni, un preventivo o un acquisto.

Gli errori del codice HTML penalizzano il posizionamento su Google?

La risposta viene da Matt Cutts, capo del dipartimento anti spam di Google: “Google non penalizza i siti web che presentano errori di codice o un HTML non correttamente funzionante”. Ma…

Gli errori di sintassi HTML di una pagina possono essere facilmente scovati da appositi validatori: il migliore in assoluto è il validatore W3C, ovvero del World Wide Web Consortium. L’assenza di errori HTML garantisce la corretta visualizzazione della pagina, oltre che una maggiore efficienza nel caricamento.
Perciò, anche se la presenza di un errore HTML non costituisce una penalizzazione, possiamo desumere che nella misura in cui un errore HTML può risultare non gradita all’utente, questa si tradurrà indirettamente in una penalizzazione sul posizionamento su Google.
Come ribadito da Matt Cutts in altre occasioni,

“Causation is not correlation”

ovvero il fatto che un errore HTML non produca una penalizzazione, non esclude che i siti con errori HTML siano posizionati peggio dei siti senza errori. Anzi.
Questa affermazione risulta a mio avviso ancora più importante, perchè sottolinea il fatto che Google premia la qualità del contenuto apprezzata dall’utente: non può limitarsi a considerare un errore tecnico come fattore di demerito, ma lo può fare attraverso il giudizio dell’utente!

SEO Tip #1: Le Keywords sono importanti ma…

SEOtip-1

SEO e posizionamento per ogni entità del Web devono essere considerate una conseguenza, non un obiettivo: Il Web non accrescerà mai la sua qualità finchè le keywords saranno considerate un obiettivo.
Ricordiamo che un buon posizionamento è solo il primo gradino per arrivare alla conversione: cura la tua landing page ancor prima!

Il Seo è morto (dal Vangelo Secondo Wired)

I risultati di ricerca di Google sono ormai intasati dalla pubblicità. Ecco perché c’è chi pensa che il Seo abbia ormai fatto il suo tempo. A sostituirlo sarà lo Smo, il social media optimization.

Di fronte all’ennesimo articolo che tratta in modo così superficiale la SEO, rimango per lunghi minuti a fissare lo schermo, basito. Penso e ripenso, e, poiché sono così lontano dalla minima comprensione delle ragioni – ammesso che ce ne siano (la mia speranza è che non ce ne siano!) – la tentazione è quella di chiudere il browser e dimenticare. Si, proprio come si fa con la polvere che, non sapendo dove buttare, la si infila e dimentica sotto al tappeto. Si sicuro mi tratterrò dal rispondere e commentare l’articolo: non certo per snobismo, ma perché non credo nell’efficacia del rispondere alla provocazione: ho la sensazione che sia più utile che ciascuno trovi le proprie ragioni. Il cattivo odore non può essere spiegato a parole, ognuno deve provare dal vivo l’esperienza da solo. Inoltre possiamo trovare facilmente talmente tanti articoli di ottima qualità, che semplicemente non ci si può permettere di trattare l’argomento in modo così superficiale e di parte. A tutto ciò si aggiunge quell’articolo maschile davanti a SEO, “il”, che immediatamente mi ha indotto a compiere quel classico gesto di scaramanzia non proprio fine: “il” SEO è la persona che esegue la SEO!

Che sia ottenere mera visibilità l’obiettivo dell’articolo? Che sia proprio quello di ottenerla grazie al potente effetto virale tra i SEO? Ma con quale scopo? Non avranno tenuto conto, i giornalisti di Wired, della pessima reputazione che rastrellano?
E, badate bene, anche tra i Social Media Manager?

Non è la prima volta che si accende una battaglia di orticello tra gli stregoni che vendono a caro prezzo il successo sul web: quelli che vendono la SEO da un lato e quelli che vendono la “SMO” dall’altro. Questi ultimi, attratti da un mercato ancora vergine ed immaturo, che prospetta facili guadagni. Ma un approccio professionale alla materia esclude a priori che chi racconta abbia degli interessi specifici di parte.

Perché? Perché? Continua a risuonare nella mia testa. Anche in questo l’Italia di distingue! Un’altra delusione, dopo essermi convinto che la conoscenza della SEO, su cosa sia e a cosa serva, stesse facendo qualche passo avanti. A prescindere da come viene trattata per esempio su Wikipedia (e non è una barzelletta, leggi qui). Ho poi provato a cercare informazioni sul giornalista: mi sono impantanato in questa SERP, provatela anche voi! Certo è che questo articolo mi pare secondo solo a quello “Dall’antico Egitto a Google: se non sei «indicizzato» non esisti” apparso sul corriere.it oramai il 15 Aprile scorso.

Dimenticavo: ti interessa l’articolo incriminato? A me no, se però ci tieni ecco la fonte:
Il Seo è morto. Lunga vita all’ottimizzazione social

Google Starter Guide: la Bibbia del SEO

Navigando sul web è possibile trovare molte guide riguardanti la SEO (Search Engine Optimization).
Per una persona che però è alle prime armi è necessario avere un punto di riferimento, un documento che possa in maniera semplice darle tutte le informazioni di cui ha bisogno per fare i modo che il proprio sito venga correttamente digerito dai motori di ricerca. La preziosa risorsa di Google è disponibile a questo link.
Sebbene non dica cose nuove, (Google stesso si scusa per questo), è un punto di riferimento valido per tutte quelle persone che si avvicinano per la prima volta a questo fantastico mondo.
Andremo a riassumere in maniera molto semplice e quindi accessibile a tutti gli argomenti più interessanti trattati da Google.

Partendo dalle basi, è giusto analizzare i titoli e le descrizioni del sito web perché esso possa essere indicizzato nel miglior modo possibile.
Se digitiamo la query di ricerca “Coca Cola” una delle prime cose che possiamo osservare è lo “snippet” contente titolo, descrizione e URL del sito (vedi foto).
Coca-Cola

Il titolo deve essere semplice, unico, breve e deve poter comunicare ai vostri clienti e ai crawler dei motori di ricerca il contenuto della pagina presa in considerazione.
Solitamente il titolo mostrato è quello presente nel tag “title” che si trova all’interno dell’head del sito web.
Il secondo campo che accompagna il titolo e che ci fornisce un riassunto della pagina è la descrizione.
Sebbene Google possa decidere quale sia la descrizione migliore da mostrare al visitatore, spesso far apparire ciò che vogliamo è molto semplice, basta solamente scrivere i contenuti in maniera efficiente.
Generalmente la descrizione viene infatti prelevata dal tag  “meta description” altre volte invece, se la descrizione non è unica, se non è presente il meta tag o per altri motivi, può venir prelevata da una qualsiasi parte di testo della pagina web.
L’importante è avere una descrizione che sia sempre semplice, unica e breve.
Per chi volesse approfondire questi aspetti consiglio di guardare il seguente video:

Passiamo ora ad analizzare la struttura delle URL.
Anche in questo caso  il discorso è analogo a quello fatto in precedenza, le URL devono essere semplici, brevi e soprattutto navigabili.
E’ utile infatti che un link es: www.blog.it/articolo/immagine sia navigabile anche rimuovendone una parte es: www.blog.it/articolo/ .
E’  poco producente utilizzare link contenenti troppe parole chiave e link che non seguono in maniera corretta ed efficiente la struttura del sito web.

Una volta analizzato lo snippet è giusto controllare bene anche la struttura del sito web ed altri piccoli fattori che possano influenzare l’indicizzazione del sito.
Per la navigazione, è importante concentrarsi sulla semplicità e facilità di utilizzo! L’utente che entra nel vostro sito web deve poter navigare da una pagina all’altra senza problemi e, ogni pagina dovrà essere strutturata nella maniera più ordinata possibile.

Anchor Text
Importante valore è svolto inoltre dagli anchor text.
E’ importante che essi siano scritti con criterio, vale la regola vista per titoli e descrizioni: brevi, semplici ed efficaci!

Altro aspetto spesso sottovalutato è l’ottimizzazione delle immagini.

Per ogni immagine è giusto prevedere l’utilizzo dell’attributo “alt”.
In linguaggio HTML fornisce un’informazione testuale quando l’immagine non può essere visualizzata.
E’ quindi doveroso tenere a mente che questo attributo è fondamentale per gli Spider di Google.

Il documento tratta infine un aspetto molto importante, l’attributo nofollow.
Il significato di questo attributo è sostanzialmente: Il link su cui è applicato non deve essere seguito dai Crawler.
Delle volte è infatti utile avvisare i motori di ricerca che il link in uscita preso in considerazione non è affine al nostro sito web e di conseguenza non va seguito.

Parliamo ora di 2 file molto importanti che dovrebbero sempre accompagnare il vostro sito.
Il primo è il file Sitemap.xml .
Si tratta di un file XML contenente tutte le pagine del sito  in modo gerarchico, consentendo così a Google di venir a conoscenza di tutti gli URL.
E’ sempre utile creare due Sitemap, una da inserire per il motore di ricerca e una invece che possa servire come “mappa” per i vostri clienti.
Ecco un modo pratico e veloce per generare automaticamente la vostra sitemap: http://www.xml-sitemaps.com/

Andiamo ora ad analizzare il file Robots.txt.
Spesso è necessario che alcune pagine non vengano indicizzate perché private o non necessarie.
Il modo migliore per impedire ai bot di indicizzare una pagina è quello di inserire un nofollow sul file robots.txt.
Il file Robots.txt va poi inserito sulla pagina root del vostro sito web.

Per concludere vi consiglio di utilizzare i “Google Web Master Tools”  che vi permetteranno di ottimizzare il vostro sito al meglio, rendendolo così appetibile ai motori di ricerca.
Ricordate comunque che il sito va reso appetibile soprattutto per i vostri visitatori.

Spero che questo articolo vi abbia dato un punto di riferimento dal quale iniziare il vostro percorso verso il meraviglioso mondo del SEO.
Vi lascio con una frase di Tim Berners-Lee con lo scopo di farvi riflettere un pò.

Il Web non si limita a collegare macchine, connette delle persone.
Tim Berners-LeeDiscorso al Knight Foundation, 2008

In arrivo Penguin 2.0: altra stangata per i SEO furbetti?

Il 2013 è stato annunciato come l’anno delle penalizzazioni. Ora, il 10 Maggio Matt Cutts annuncia su twitter

we do expect to roll out Penguin 2.0 (next generation of Penguin) sometime in the next few weeks though

Il 13 Maggio, pubblica un interessantissimo video in cui annuncia le novità che dobbiamo aspettarci per l’anno in corso.

Quali sono dunque i cambiamenti in vista per la SEO? I SEO saranno costretti a correre ai ripari o possono dormire sonni tranquilli?
Ecco una sintesi delle novità che dobbiamo aspettarci, finalizzate a combattere lo spam e la black hat SEO (mi è piaciuta molto la sua citazione: “high quality content” come primo obiettivo)

  • nessun cambiamento in vista per i SEO che hanno sempre avuto come obiettivo l’high quality content: anzi il loro laoro sarà maggiormente tutelato
  • penalizzazioni per gli articoli a pagamento (publiredazionali) non segnalati come tali, ma pubblicati con lo scopo di modificare il ranking (“Stiamo anche guardando agli advertorial. Non abbiamo nulla contro di loro, purché sia chiaro all’utente che quel contenuto è stato pagato” e quindi non è naturale, aggiungo io)
  • miglioramento nella capacità di analizzare i link (backlink) del web, al fine di classificare in modo più preciso i temi che sono collegati ai singoli link
  • maggiore attenzione ai siti web hackati, con l’obiettivo di rilevarli in modo efficace e segnalare la violazione
  • i siti realmente autorevoli per gli utenti per la loro categoria di appartenenza saranno maggiormente premiati (“Stiamo lavorando per capire meglio quando qualcuno è una sorta di autorità in un ambito. Può essere medico, turistico o qualsiasi altro. Chi verrà riconosciuto come autorevole dagli algoritmi, avrà posizionamenti migliori: pensiamo che i suoi contributi possano essere più adatti agli utenti”). A mio avviso quindi si prospetta una connessione ancora più profonda con le interazioni sociali, ovviamennte all’interno di Google+, la cui importanza è in crescita.
  • riduzione dei cluster di domini presenti nella prima pagina delle SERP (nessuna variazione per le successive). Sarà quindi garantita una maggiore pluralità si siti: garantita quindi più “democrazia”.
  • migliore comunicazione rivolta ai webmaster negli strumenti per webmaster: indicazioni e suggerimenti più dettagliati per aiutare a migliorare il web.

Infine, l’aggiornamento Panda 2.0 dovrebbe cercare di affinare la capacità di trattare i casi limite trattati come penalizzazione. Ammorbidimento in vista quindi nei confronti di chi è stato ingiustamente punito.

Attenzione alla qualità al fine di ottenere risultati migliori per l’utente è il principale obiettivo di quest’anno. Questo Penguin 2.0 vuole disinfestare il web dall’immondizia purtroppo ancora troppo presente, togliendo di mezzo quei siti ancora presenti nelle SERP ma che offrono bassa qualità per l’utente. Matts assicura:

Se crei dei buoni contenuti, non avrai grossi problemi e non dovrai preoccuparti dei cambiamenti

E ancora:

Credo che ci sarà da divertirsi perché stiamo vedendo un grosso miglioramento: chi usa tecniche spammose si posizionerà molto di meno, e al contempo aiuteremo molte piccole e medie imprese, ed i webmaster. È questo quello che vi dovete aspettare nei prossimi mesi in termini di SEO

Riassumendo, diamo il benvenuto a Penguin 2.0, che darà una bella ripulita alle SERP (anche in Italia)!

La SEO è un’opinione? La chiudiamo insieme ai social network?

L’attenzione di quelli che chiamiamo “media” nei confronti del web è senza dubbio cresciuta negli ultimi tempi, fenomeno certamente prevedibile ed inarrestabile. Beppe Grillo ha sicuramente fornito uno stimolo a parlarne, c’è entrata (quasi) tutta la politica e di recente anche il Papa è stato gettato nella mischia.
L’interesse rivolto verso web e social media ha così stimolato l’interesse anche del giornalismo “tradizionalista”, che si è trovato a gestire impreparato un nuovo fenomeno, di portata inaspettata. Chiunque può parlare ed intervenire, non ci sono gerarchie e, in particolare su twitter, chi c’è è in mutande: nessuna possibilità di nascondersi, l’unica possibilità che rimane è rispondere, interagire con i commenti. Non è difficile immaginare come molti giornalisti non abbiano gradito questo cambiamento di prospettiva: in particolare vorrei citare le dichiarazioni di Giuliano Ferrara (leggi l’articolo), che sentenzia

Chiudiamo facebook e twitter. In Cina lo fanno, perché noi no? Siamo una democrazia, facciamolo

Prevedibile la risposta del Web: la posizione è riassumibile nell’interessante post di Riccardo Esposito: Giuiano Ferrara evidentemente è in ritardo, non capisce o non vuole capire che il mondo della comunicazione è cambiato e non rimane altra possibilità che capire e poi adeguarsi.
Se ne parla parecchio di Web, anche attraverso mezzi che fino a ieri l’anno ignorato. Ecco, a mio avviso, la spiegazione alla presenza di articoli che, chi come me “lavora” nel Web, non sa neppure come classificare.
Google, altro argomento gettonato. Bene, visto che è la porta d’accesso al Web per gran parte del 52% della popolazione italiana che accede al Web, dai due anni in su: 28,6 milioni gli utenti nel mese di Febraio 2013 (fonte Audiweb).
Secondo un articolo di Marta Serafini apparso sul Corriere della Sera il 15 Aprile 2013

Essere in alto nell’elenco dei risultati del motore di ricerca significa vivere. Indicizzazione e posizionamento ormai sono le parole dalle quali in Rete non si può prescindere. Un dogma, che non vale solo per chi fa ecommerce o per chi vuole pubblicizzare un bed and breakfast

Penso tra me, leggendo “non sono tanto d’accordo su fatto che sia un dogma …”, e grazie a dio non vale solo per gli ecommerce e i b&b; ma procedo con la lettura

[Il Pagerank] L’invenzione geniale? Un valore numerico che Google attribuisce a tutti gli indirizzi dopo che è stato passato al setaccio il codice dei siti. Per iniziare vanno inseriti dei codici univoci nella struttura html, composti da lettere e cifre. Basta sbagliare una virgola e si scompare

Vivo ogni giorno nel terrore che il mio sacrificato lavoro scompaia a causa di una virgola di troppo. Solo un pazzo potrebbe scegliere un lavoro di questo tipo: tutto il giorno impegnato a pregare l’oracolo Google affinchè prenda in considerazione le proprie pagine web. Ma allora cosa fare?

Chi lavora nelle agenzie specializzate sa bene, ad esempio, quanto il corpo di un carattere usato in un titolo sia importante. Poi, ci sono parole che devono essere ripetute anche 20 volte in una pagina affinché la posizione in classifica salga

Ecco il segreto: Il SEO è simile ad un mantra: è sufficiente ripetere le preghiere sotto forma di parola chiave, e si acquista la visibilità

Un lavoro monumentale, che per un piccolo sito può arrivare a costare cinquemila euro al mese e richiedere due ore di lavoro al giorno

Cinquemila euro al mese per due ore di lavoro al giorno? Cioè i SEO guadagnano, per una media di 160 ore di lavoro al mese, addirittura quattrocentomila euro al mese? Ma allora ditelo, che mi metto subito a farlo!

[…] sia i soggetti politici che i privati devono fare i conti con questo aspetto», avverte Giuliano Noci, docente del Politecnico di Milano

Ecco perchè hanno bisogno di tutti quei soldi, i politici: per poter pagare i SEO!

Ma, passata l’iniziale euforia, mi interrogo. Articolo furbo o articolo superficiale? Mi piacerebbe essere smentito, ma propendo per la seconda ipotesi. Sul web si possono trovare molti eccellenti articoli su cosa sia la SEO, e anche di meno eccellenti come un mio post. Si interroga anche Riccardo Scandellari e afferma nel suo post, confrontandosi con l’ottimo post del blog tagliaerbe

Chiunque ne sappia un minimo di SEO in queste ore si sta facendo grasse risate per le cose scritte dal Corriere e se fate il confronto tra i due articoli capirete il perché.

Voi cosa ne pensate?

SEO: cos’è e in cosa consiste

La SEO è un’attività che permette ad un sito web di essere trovato sui motori di ricerca all’interno delle sezioni non a pagamento

Come si realizza un’attività SEO? La strategia
SEO Rimando ad un mio precedente post per approfondire il significato del termine. La SEO è un’attività tecnica e operativa di applicazione di una strategia, senza la quale questa attività non avrebbe senso. Fare SEO senza avere una precisa strategia sarebbe come pensare di arrivare in cima ad una montagna senza neppure avere in mano una cartina topografica: la probabilità di sprecare energie girandoci intorno alla ricerca del sentiero che porta in cima sarebbe elevatissima.
Il primo (e fondamentale) aspetto di una strategia SEO è la definizione dell’insieme delle parole chiave, “clusterizzate” in pacchetti, che considero utili al sito web da posizionare sui motori di ricerca. Se per esemio devo posizionare un sito ecommerce che vende arredamento, il primo passo consisterà nel definire attraverso quali gruppi di parole chiave intendo intercettare l’utente. I gruppi di parole chiave per un un negozio di arredamento sono, per esempio: cucine moderne, cucine classiche, cucine country, bagni, salotti, camere da letto, …. I gruppi di parole chiave generalmente coincidono con il settori di business dell’azienda, e sarà sensato dare un peso sulla base degli interessi prevalenti dell’azienda. Accenno volontariamente all’importante fattore dell’interesse dell’azienda, in quanto sarà compito del SEO analizzare e capire l’interesse sul web rispetto ai vari gruppi: dal confronto dell’interesse sul web e quello dell’azienda spesso emergono importanti considerazioni che hanno risvolti importanti nella definizione della strategia.

Una volta espanso ogni gruppo di parole chiave, servendosi anche di tool come il Keyword tool di Google, Übersuggest e altri (ogni SEO ha la sua ricetta, a proposito), si determinerà su quali keyword focalizzare la propria attenzione, e con quale tecnica. Per esempio, per alcune keyword potrei decidere di essere presente sulle rete di ricerca attraverso annunci sponsorizzati, per altre potrei decidere si essere presente attraverso portali di settore, per altre ancora deciderò di essere presente attraverso il posizionamento naturale.

A questo punto, se il sito non è ancora stato realizzato, verranno attivate le competenze necessarie alla realizzazione della gabbia logica del sito. La gabbia logica è una griglia in cui verranno posizionati i blocchi di cui è costituito il sito. La scelta e disposizine dei blocchi è un punto nevralgico della strategia, che sarà determinante per il successo del sito. La gabbia logica, una volta definita, viene consegnata al web designer che si occupa della grafica. Purtroppo nella maggior parte dei casi i SEO si trovano ad ottimizzare siti web già realizzati, e per i quali ci sono poche o nulle possibilità d’intervento strutturale. Questo aspetto va attentamente considerato perchè mi aiuta a capire a cosa posso permettermi di puntare e con quali strumenti.
Una volta terminata la grafica, che sarà il risultato di un lavoro creativo e di analisi dei competitor (sia on-line, cioè siti web, che off-line, cioè i vicini di casa), avremmo finalmente il contenitore pronto.

La competenza che entrerà ora in gioco ora è la creazione di contenuti di valore, che saranno tanto più efficaci quanto saranno in grado di rivolgersi all’utente e fornire una soluzione ai suoi problemi, che costituiscono la motivazione per cui si sta rivolgendo al motore di ricerca.

Chiaramente i contenuti andranno costruiti sia per gli utenti che per i motori di ricerca: cioè il contenuto di un testo è sempre finalizzato all’utente, ma l’oggetto sarà stato scelto in modo da intercettare un bisogno dell’utente che cerca soluzione del web tramite i motori di ricerca. Mi spiego meglio: cercherò di parlare in modo approfondito di divani nel momento in cui so che la probabilità che una persona, che ha il bisogno o desiderio di sostituire il divano di casa, si rivolge all’aquisto via web. Se i divani vengono acquistati via web, mentre le cucine no (si preferisce rivolgersi all’interior design), i contenuti che parlano di divani saranno strutturati in modo diverso dai contenuti che parlano di cucine.

I contenuti inseriti saranno quindi ottimizzati: non solo quelli testuali, ma anche immagini e (se presenti) i video, per i quali avrò scelto una strategia di posizionamento attraverso YouTube. I contenuti saranno non solo ottimizzati per i motori di ricerca, ma anche rispetto al device: inutile precisare che gabbia logica e grafica (entrambe!) saranno state studiate in modo specifico per i diversi device. Questo perchè, fondamentalmente, l’utente che esegue una ricerca locale per la parola chiave pizza, molto probabilmente ha voglia di mangiare una pizza e quindi sapere dove si trova e come raggiungere la pizzeria: non sarà certo interessato a leggere la storia del locale!

L’ottimizzazione on-page sarà inoltre coadiuvata dall’ottimizzazione off-page: determinerò le strategie finalizzate all’ottenimento di link “utili”, avvalendomi anche dell’importantissima collaborazione di quella parte delle popolazione che identifica nei social network la porta d’accesso al web: l’altra parte invece identifica il web con Google (ma non dimenticherò di dare attenzione anche agli altri motori di ricerca, in particolare considerando la geografia: per esempio il principale motore di ricerca in Russia è Yandex).

Una volta on-line, inizierà la fase di Web Analytics e di repostistica. Analizzare, studiare il modo in cui l’utente interagisce con il sito per migliorare e proporre soluzioni che siano sempre più adatte alle sue esigenze. Sarà solo l’inizio del persorso di crescita della visibilità e successo on-line del sito web.

Cosa è cambiato. Non c’è più la SEO dei vecchi tempi (aggiornamento 16 Aprile 2013)

Quando la SEO è nata, agli inizi c’erano poche e semplici regole per ottenere la prima posizione sui motori di ricerca. Inizialmente bastava riempire il metatag keywords e il gioco era fatto. Poi gli algoritmi si svilupparono perchè ci si era resi conto che si abusava di queste regole: era necessario tutelare la qualità dei risultati cercati dall’utente. E in questo modo ebbe inizio la rincorsa dei SEO: le regole cambiavano, e i SEO le rincorrevano. Metodologia, questa, che mi ricorda tanto il regolamento sul doping nel ciclismo: ciclisti costantemente obbligati ad inseguire i limiti di legge per poter arrivare primi.
Ecco quindi Panda, Penguin, EDM Penalty, che con le loro regole hanno prima penalizzato, e poi fornito delle tecniche per risalire sulle SERP. La pratica ha dimostrato che la penalità non è mai stata un deterrente sufficiente ai SEO per non abusare delle regole. L’abuso è sempre dietro l’angolo, sistematizzato da contratti che garantiscono entrate un tanto a keyword posizionata: dimenticandosi che il posizionamento è una conseguenza, non un obiettivo.
Perciò documentatevi, cercate di capire cosa è la SEO oggi e diffidate di chi vi propone tecniche miracolose per scalare le prime posizini senza giustificare quale tipo di strategia intente perseguire.

Cosa ne pensa Matt Cutts sulla sovraottimizzazione dei contenuti

Per sovraottimizzazione si intende un’uso eccessivo delle tecniche di ottimizzazione, volto a “scalare” le SERP su singole parole chiave, spesso più per apparire bravi agli occhi del cliente inesperto: l’esperienza insegna che portano più graffico pagine ottimizzare su parole chiave della long tail che quelle ottimizzate su una singola keyword. Inoltre è chiaro che una pagina sovraottimizzata offrirà uno scarsa user experience all’utente, e quindi è a rischio penalizzazione (vedi questo mio post).

In questo video Matt Cutts spiega la sua opinione a riguardo: SEO e keyword sono importanti, ma un sito che presenta sempre gli stessi titoli e ripete sempre le stesse parole solo per “salire” sui motori di ricerca rischia di risultare vero e proprio spam agli occhi dei lettori.

 

Posted in SEO

Google premierà sempre più la qualità dei contenuti

Matt Cutts annuncia l’aggiornamento dell’algoritmo Panda per il 16-18 Marzo: Google premierà sempre più la qualità dei contenuti

Il nuovo aggiornamento, annunciato da Matt Cutts al Search Marketing Expo, è stato studiato per penalizzare i siti che eseguono attività di promozione fornendo contenuti di scarsa qualità per l’utente, con particolare attenzione a spam e network di link. Al centro dell’attenzione siti che si basano su liste di link senza fornire un valore aggiunto.

Gli algoritmi di Google sembrano muoversi inequivocabilmente nella direzione di un’analisi sempre più raffinata delle pagine web e verso il miglioramento dell’accesso alle informazioni rilevanti, personalizzate a seconda del cluster di utenti.

Posted in SEO