Come sta cambiando Google, il principale motore di ricerca e quali sono gli aspetti da considerare per la visibilità del nostro sito internet. Dopo il seminario presso il Google Lab di Zurigo, è diventata molto più chiara quella che è la politica di Google nei prossimi anni e cosa dovremo aspettarci da questi cambiamenti. E’ chiaro che il lavoro del SEO sarà sempre più centrale nelle politiche di visibilità online di una azienda ma è anche chiaro che il mestiere del SEO sta cambiando in modo radicale. Tecniche Black hat e White hat Gli operatori sanno che esistono tecniche che Google considera Black hat, cioè non accettate perchè frutto di tecniche che sono veri propri inganni o imbrogli. Queste tecniche sfruttano il lato “oscuro” del motore, soprattutto i suoi punti vulnerabili (ebbene sì, Google non è una macchina perfetta) ma man mano che questi veri e propri bug vengono individuati e sistemati, lo spazio di manovra dei SEO “smanettoni”, spesso veri e propri imbroglioni, si riduce drasticamente. 4 giorni fa, Google ha dato un vero giro di vite agli “hacker” e ha iniziato a penalizzare fortemente la stragrande maggioranza dei siti web che non corrispondono a quelle che sono le direttive di Google per l’indicizzazione, ripeto, indicizzazione e non posizionamento di un sito web. In poche parole, si viene completamente estromessi. Il problema è che per “rientrare” occorrono esattamente tre anni di purgatorio e non c’è verso di trovare scappatoie, nemmeno modificando il nome a dominio. Google si accorge in tempi rapidissimi, dell’ordine di qualche millisecondo, se il contenuto di un sito penalizzato è stato modificato e sposato su un altro dominio e non si potrà fare null’altro che attendere. Alcune tecniche più conosciute sono: Testo e link nascosti: il classico testo dello stesso colore dello sfondo della pagina, tecnica vecchissima ma ancora utilizzata; i link nascosti sono link presenti ma non visibili, ed hanno lo stesso colore del testo, senza effetti “onmousehover“. Pagine doorway o gateway: si tratta di pagine che non hanno vero contenuto, ma sono state create per essere indicizzate dai motori e “spingere” altre pagine interne del sito o di un altro sito. Non sono utili agli utenti, poiché non contengono informazioni di alcuna natura. Cloaking: si tratta di una pagina creata appositamente per i motori di ricerca, diversa da quella che viene invece vista dagli utenti. In breve, quando viene identificato uno spider all’interno del sito, uno script gli mostra una versione differente della pagina web. Keyword stuffing: questa tecnica consiste nell’aumentare la frequenza di parole chiave all’interno di un testo, con la speranza di aumentare la pertinenza del sito rispetto alla ricerca di quelle parole. Desert scraping: è una tecnica che consiste nel prelevare contenuti non più indicizzati in Google (pagine di domini scaduti, contenuti di siti che sono stati cambiati) e riutilizzarli nei propri siti. Link spam: utilizzare software o circuiti automatici di scambio link (link farm) per aumentare la popularity del sito in maniera non naturale. Esistono altre tecniche più raffinate, che fino a qualche giorno fa sono sempre state considerate White hat, cioè accettate e consigliate, come il back link da blog (la tecnica di farsi recensire da un blog con alto valore di ranking e inserire nel testo un backlink al proprio sito con tanto di autore). Questa tecnica è entrata nell’elenco delle tecniche Black hat. Molti blogger tendono a risolvere il problema inserendo un comando “nofollow” al link e all’autore inibendo cioè il bot di Google (il robot per intenderci o anche spider) di seguire il link ma anche questo non è più sufficiente. E’ invece considerato white hat tutto ciò che da valore al contenuto, che lo qualifica e che permette ad un utente di comprendere se quello specifico contenuto è interessante per lui a tal punto da indurlo in una azione. Spiegheremo più avanti cosa intendiamo con contenuto di qualità. Sostanzialmente, oggi, la visibilità di un sito sarà sempre più dipendente dalla qualità del contenuto, sia esso video, testuale, siano esse immagini. Il contenuto non è più quindi solo un elaborato che può venire dalle mani del committente ma deve essere vagliato, riveduto e corretto da qualcuno che ha le conoscenze tecniche per ottimizzare quei contenuti in funzione di un processo di visibilità. Un buon contenuto è il 70% dell’opera Cosa si intende per buon contenuto. Uno degli aspetti principali di Google è che il motore di ricerca analizza i contenuti in modo semantico. Dice Wikipedia: “L’analisi semantica è l’attività di assegnazione di un significato, un senso, alla struttura sintattica corretta e, di conseguenza, all’espressione linguistica. Il processo computazionale automatico che effettua tale assegnazione di significato alle parole di un testo è detto disambiguazione. I significati, ovvero i sensi, spesso sono rappresentati tramite collezioni di sinonimi o synset. Un synset (acronimo di synonym set) definisce un concetto noto all’uomo mediante l’insieme di sinonimi (lessicalizzazioni) utilizzati per esprimerlo nella lingua di interesse. Un concetto viene tipicamente classificato in una gerarchia di concetti. Attribuendo ai vari synset i codici univoci, si può classificare i concetti in una struttura reticolare con le relazioni, detta ontologia, ed arrivare a traduzione automatica che permette di passare da una lessicalizzazione ad un’altra.” Da questo si può capire quale sia il motore che produce le traduzioni del sistema GOOGLE TRANSLATE. In fin dei conti, GOOGLE TRANSLATE non è altro che il risultato ottenuto dalle capacità sempre più raffinate di analisi semantica dei contenuti che il motore è in grado di fare. Ogni giorno GOOGLE TRANSLATE migliora la qualità delle sue tradizioni e ogni giorno affina la sua capacità di analisi. Oggi Google è in grado di comprendere, selezionare classificare: Se un contenuto è stato copiato Se il contenuto è stato copiato ma manipolato o cambiato, cioè riconosce l’origine del testo Se il contenuto è pertinente rispetto alla dichiarazione di intento del sito Se il contenuto è off topic o on topic rispetto alla media delle ricerche effettuate Se il contenuto potrà essere interessante in futuro Se il contenuto non è interessante per un visitatore (user) Se il contenuto è falso nelle sue dichiarazioni Se il contenuto è stato scritto o prodotto in modo naturale (umano) Se il contenuto è interessante Se il contenuto rispecchia le netiquette Se il contenuto rispecchia le modalità introdotte con il W3C Se il contenuto è fruibile per i portatori di Handicap Se il contenuto è stato prodotto per essere responsive (device mobili) Se il contenuto rispecchia valori cromatici accettabili Per fare un esempio pratico: Google è in grado di verificare la veridicità di una dichiarazione tipo “i nostri prezzi sono i migliori al mondo” e lo fa anche. Nel caso dovesse verificare che non è vero, penalizza fortemente. Le tecniche che Google usa per verificare sono tantissime ma bisogna sempre rendersi conto che la base dati di google è la più grande al mondo. Un contenuto ben strutturato è sempre composto da: • Titolo • Descrizione • Call to action • Corpo del testo e immagini Il titolo è una delle cose più importanti per Google e una delle più deprecate da parte dei clienti. Il titolo, che deve essere al massimo di 54 caratteri e ribadiamo 54, deve essere pertinente con il titolo principale del sito (che per Google è la dichiarazione di intento) e deve essere pertinente con il resto del contenuto o corpo del testo e immagini. Se ad esempio in un sito Web troviamo nel Menù, la dicitura Prodotti e da lì una sequenza di sottodiciture con i nomi dei prodotti tipo AHF 48 questo è un modo deprecabile di usare il titolo. Il titolo innanzitutto DEVE essere sotto tag H1 e in una pagina deve esserci UN SOLO H1, e deve ad esempio essere: VIDEORIPRODUTTORE AHF 48 MINOLTA. Il sito deve essere un sito che vende o produce apparecchiature elettroniche o generiche o specifiche e il testo del Videoriproduttore deve essere ovviamente parlante. La descrizione è una descrizione breve, generalmente di 160 caratteri che riassume in poche parole ciò che segue e serve per due scopi, il primo scopo è quello di far capire in tempi brevissimi se il resto del contenuto, per il visitatore, è interessante. E serve in ultimo per dare allo SNIPPET una identità interessante per cui valga la pena di essere cliccata. Sostanzialmente non si scopre nulla di nuovo. Chi in modo professionale e ordinato sviluppa siti web per la visibilità, non ha certo motivo di pensare che tutto ciò, siano cose nuove. Il punto è che Google sempre di più intende lasciare spazio alle zone “grigie” e favorire quindi il contenuto di qualità. Due menzioni meritano la call to action e le immagini. La Call to action è l’invito nei confronti dell’utente di effettuare una azione, generalmente è un click su un bottone oppure il riempimento di un form di contatto o l’iscrizione ad una newsletter. Ma anche l’invito ad un acquisto in un ecommerce è di fatto una call to action e questo lascia ampi margini di riflessione sulla qualità deprecabile di molti siti di commercio elettronico dove già il prodotto viene presentato come fosse il menù di un ristorante e l’invito all’acquisto non ha nulla di persuasivo ed invitante. La stessa regola qualitativa vale per le immagini. Google ormai riconosce facilmente un melo da un pero o una margherita da una gerbera e riesce a “taggare” le immagini secondo un principio semantico. Ciò significa che all’interno di un contesto, di un discorso, di una pagina e quindi di un contenuto, le immagini devono essere pertinenti, devono avere una “logica espressiva”. La scelta delle immagini è quindi un passaggio molto delicato nella stesura di un contenuto. Chiaro poi che i metadati applicati all’immagine come titolo, descrizione, nome del file, devono seguire lo stesso processo che viene utilizzato per la stesura del contenuto in cui l’immagine viene incorporata. Pochi si soffermano al fatto che una immagine, nominata DSC0001.jpg per google ha ben poca rilevanza all’interno di un contesto semantico rispetto a videoproiettore-minolta.ahf-40.jpg e pochi si soffermano persino a pensare che anche per il proprio uso e l’indicizzazione nei propri archivi, utilizzare un METODO porta a semplificare la ricerca dei file nei propri sistemi. E allora, se non abbiamo cura noi dei particolari, perchè dovrebbero avercela gli altri? Se voi aveste un archvio enorme di immagini tutte memorizzate a casaccio e doveste cercare una immagine particolare di un viaggio o di una foto fatta ad un campo di fiori, come la cercate se non avete adottato un metodo di indicizzazione? Scrivere per il web Ma vogliamo dirla tutta? E’ un mestiere che non si inventa. In linea teorica i clienti non dovrebbero scrivere nessun testo per il proprio sito: 99 volte su 100 non sono capaci. Se vale ciò che abbiamo scritto sopra, a maggior ragione diventa complesso quando si devono produrre contenuti che garantiscano quella visibilità necessaria per colpire il target giusto. Essere persuasivi nella comunicazione, sul web non basta, bisogna sapere: con quali parole chiave essere visibili, essere indicizzati e posizionati in quale lingua si vuole comunicare o in quali lingue perchè cambiano gli approcci la geografia della comunicazione, cioè oltre alla lingua è importante il dove si comunica la tempistica con la quale si vuole essere visibili i device sui quali essere visibili. Oggi scrivere per il web significa saper dosare tutte le componenti descritte qui per farne un contenuto che Google sappia apprezzare, catalogare come importante e di qualità e da lì fornire quel servizio di visibilità che a noi interessa per un ROI che abbia un senso. Per scrivere per il web occorre quindi pianificare. E per pianificare occorre avere le idee chiare. Avere le idee chiare significa sapere che tipo di modello di business adottare e di conseguenza, da lì declinare la comunicazione. Google in fondo è in grado di capire se un sito web è centrato sull’argomento, se offre servizi a prezzi validi e se si raccontano bugie o mezze verità. E’ assolutamente contestabile l’idea generalizzata per cui siccome sei sul web allora sei visibile. La visibilità è un processo complesso che richiede fasi piuttosto critiche di analisi e valutazione di diversi fattori che spesso persino a livello aziendale non vengono considerati. Scrivere per il web quindi, significa scrivere per Google? E’ la domanda che spesso ci sentiamo fare. La risposta è no. Google è user oriented, cioè ragiona mettendosi nei panni dell’utilizzatore o meglio del navigatore e pretende, sottolineo pretende, che il contenuto sia prodotto, redatto, presentato e scritto pensando solo ed esclusivamente a lui, allo user. E’ da qui che occorre partire quando si ragiona in termini SEO. Occorre essere naturali, veritieri e considerare l’ambiente nel quale lo user che a noi interessa viene sollecitato dalla nostra comunicazione persuasiva e questo quasi sempre, salvo in rari casi, non è mai compito del cliente. Oggi, la SEO, cioè la Search Engine Optimization è assolutamente centrale per un sito web. Ottimizzare un sito per i motori di ricerca significa iniziare dalle basi, da ciò che ha spinto il cliente a voler essere presente sul web. Si riparte da qui. E l’achitettura? Di quello parleremo prossimamente. Scrivi Cancella commentoLa tua email non sarà pubblicataCommentaNome* Email* Sito