Al fine di offrire agli utenti i migliori risultati di ricerca possibili, il colosso mondiale delle ricerche Google ha operato nel suo algoritmo di ricerca apportando alcuni cambiamenti e aggiornamenti significativi.
L’obiettivo è quello di penalizzare i siti web con contenuti di “bassa qualità”, un eufemismo per identificare e smascherare i siti dedicati e soliti ad aggregare e plagiare i contenuti. I cervelli di Mountain View mirano a restituire alla gente risposte (risultati di ricerca) più pertinenti alle domande (query di ricerca) il più velocemente possibile.
L’aggiornamento all’algoritmo di ricerca è dedicato al sistema di ranking per promuovere, e mettere in risalto, i contenuti originali limitando gli “scopiazzatori” e riducendo lo spam.
Come dichiarato da Google, i cambiamenti apportati avranno un impatto di quasi l’11,8% delle query di ricerca ed il “cambiamento algoritmico” è progettato in modo tale da sfavorire e far scivolare nelle SERP diverse tipologie di siti…
Questo aggiornamento è progettato per ridurre al minimo i risultati di ricerca dei siti di qualità bassa, di basso valore a detta degli utenti con contenuti copiati da altri siti web e siti che non sono semplicemente utili.
Allo stesso tempo, Google conferma che tale aggiornamento favorirà gli utenti nel trovare contenuti originali il più possibile inerenti alle proprie “domande” di ricerca. Pertanto, prosegue Google sul blog ufficiale…
Non possiamo fare un grande miglioramento senza incidere nelle SERP per molti siti. Google dipende dai contenuti di alta qualità creati dai siti web di tutto il mondo, e noi abbiamo la responsabilità di offrire i contenuti migliori. Pertanto, è importante premiare i siti di alta qualità, proprio ciò che l’aggiornamento all’algoritmo di ricerca fa.
L’update, vale la pena notare, non si basa sui feedback ricevuti da Personal Blocklist (estensione rilasciata recentemente da Google per bloccare i siti web indesiderati dai risultati di ricerca), tuttavia la grande G ha esaminato i dati ricevuti dal componente aggiuntivo e li ha confrontati con i siti contrassegnati come spam dal nuovo algoritmo di ricerca.
Quali sono questi siti? Un giorno, forse, Google rileverà qualcosa…
Da Mountain View affermano di essere molto entusiasti del lavoro svolto, un grande passo nella giusta direzione per aiutare la gente a trovare maggiore qualità nelle pagine e nei risultati di ricerca.
Per cominciare, il cambiamento all’algoritmo interessa (per ora) solo gli Stati Uniti. Nel corso del tempo verrà esteso in altre nazioni, Italia compresa!
[photo credits – gv91]
#1pexatar
e per quelli come me che raccolgono contenuti di altri siti? Spariremo da Google??
#2Nikopolidis
Non penso, anche se sono dell'idea che alcuni aggregatori sono utili.
Penso che lo devi intendere in questo modo:
– tu possiedi il sito B, che è un aggregatore di informazioni sulla mountain bike. Prendi le informazioni anche dal sito A;
– un utente fa una ricerca specifica su Google: "Come cambiare i freni ad una Mountain Bike";
– seppur il tuo sito indicizza l'articolo tratto dal sito A, verrà dato rilievo a tale sito piuttosto che al tuo. Tu potrai godere sul traffico diretto.
Ovviamente questa è l'idea che mi sono fatto.
Ci sono poi degli aggregatori, come Liquida, che reputo un ottimo contenitore di contenuti, però lo visito direttamente, non mi è mai capitato di ottenere un risultato di ricerca che indicizzasse l'aggregatore piuttosto che l'articolo originale.
#3pexatar
Speriamo, comunque leggevo su punto informatico che ci sono già dei riscontri negativi 🙂 comunque sono fiduciuso di non sparire dal web, almeno fino a quando i miei 84 visitatori affezionati continueranno a passare 😀