La parola d'ordine del nuovo GoogleBot è qualità. Una delle problematiche che affligge il celebre motore di ricerca è la scalata nel ranking di siti che hanno un'elevata ottimizzazione, ma in realtà sono scarsi di contenuti: siti interessanti e più opportuni al contesto ricercato finiscono troppo in basso nel SERP e quindi rimangono poco reperibili. Insomma, posizionare il sito web nella giusta posizione.
Siti troppo ottimizzati potrebbero quindi essere penalizzati. Secondo Matt Cutts, capo sezione Anti Webspam di Google, non è una lotta contro la figura del Web Master, ma solamente un vantaggio per gli utenti: "gli utenti avranno una maggior possibilità di vedere siti con contenuto originale piuttosto che siti che copiano o estraggono in contenuti dai siti originali". Le cosiddette "content farm". Questi siti hanno un numero elevato di parole chiave (anche di argomenti non inerenti al proprio contenuto), fanno uso eccessivo di link e a volte utilizzano anche tecniche SEO non proprio lecite o convenzionali. Rischiano perciò di "rubare" il posto ad altri siti e far perdere tempo agli utenti.
Siti troppo ottimizzati potrebbero quindi essere penalizzati. Secondo Matt Cutts, capo sezione Anti Webspam di Google, non è una lotta contro la figura del Web Master, ma solamente un vantaggio per gli utenti: "gli utenti avranno una maggior possibilità di vedere siti con contenuto originale piuttosto che siti che copiano o estraggono in contenuti dai siti originali". Le cosiddette "content farm". Questi siti hanno un numero elevato di parole chiave (anche di argomenti non inerenti al proprio contenuto), fanno uso eccessivo di link e a volte utilizzano anche tecniche SEO non proprio lecite o convenzionali. Rischiano perciò di "rubare" il posto ad altri siti e far perdere tempo agli utenti.
Capire se un sito o un articolo è interessante o meno, di buona o di scarsa qualità è però molto difficile per un bot, anche se è di Google. I nuovi algoritmi punteranno proprio a migliorare la semantica che sta dietro ad una buona ricerca, ma resta ancora il dubbio su come verrà giudicata la qualità di un prodotto. Alcuni ipotizzano che se, nel caso di un articolo giornalistico come questo, vi è la presenza di commenti da parte di utenti, allora l'articolo potrà rientrare tra i contenuti di qualità. Per altre tipologie non è altrettanto facile.
D'altro canto invece c'è la voce di chi, cercando di rendere più visibile il proprio sito in maniera corretta, potrebbe trovarsi penalizzato. Questo non è corretto se il sito in questione è qualitativamente interessante.
Il vero problema è che non si potrà mai definire con un algoritmo quella che è, e rimarrà sempre, una sensazione soggettiva. Qualcuno verrà penalizzato, altri verranno premiati: evitare di mostrare contenuti-cloni è comunque già un bel passo in avanti, forse il primo verso la vera ricerca semantica.
fonte: ibtimes.com
Nessun commento:
Posta un commento