Google et sa nouvelle technique de détection de spam
Matt Cutts, responsable de l’équipe anti-spam de Google, a récemment annoncé que le moteur de recherche de Google s’était doté d’une nouvelle technique de détection de spam. En 2010 il y avait eu deux changements algorithmiques majeurs qui s’étaient focalisés sur la médiocrité des sites. L’objectif ciblé et perpétuel est bien évidemment de réduire la quantité de spam qui sévit en ligne. Google redouble d’effort, ce nouvel algorithme – c’est comme ça qu’il faut l’appeler – est déjà opérationnel n’est pas à l’ordre du jour.
[Mise à jour: D’après Barry Schwartz, de Search Engine Land, Matt Cutts aurait déclaré aujourd’hui que le nouvel algorithme est lié au blocage de sites de faible qualité (scraped content) et non aux fermes de contenu (content farms).]
Quelles seront donc, en 2011, les conséquences pour le webmaster/propriétaire du site ? Et pour l’utilisateur ?
Pour le webmaster.
Je dirais plutôt : quels seront les dégâts occasionnés ? Le nouvel algorithme devrait impacter le trafic des sites qui génèrent et publient quotidiennement du contenu pauvre et en abondance (des fermes de contenu, content farms). Qu’ils aient ou pas d’annonces propulsées par Google AdWords n’y changera rien, je dois ajouter au passage que l’achat d’annonces n’a aucun impact – direct (techniquement parlant) – sur le référencement naturel. Alors quels seront les sites visés ? Selon la nouvelle de Nicolas Guillaume, journaliste chez ITespresso.fr, il pourrait s’agir de sites créés sur le modèle de contenus produits à la demande ; en Europe les concernées seraient Wikio Group, Populis et Commentçamarche. Je doute sur la liste d’exemples cités, il faudra attendre quelques mois de plus pour voir les réelles conséquences de ce nouveau changement.
Pour l’utilisateur.
Les pages de sites qui reprennent (scraped content) et/ou copient (duplicate content) le contenu original d’autres sites devraient avoir plus de mal à gagner des places dans le classement des résultats de recherche. Cela devrait être une bonne nouvelle pour l’utilisateur dans la mesure où les résultats de recherche devraient être plus frais, plus pertinents, plus exhaustifs.
Trêve de vision binaire, je terminerai cet article sur le cas de Communique-de-presse.info, mon modeste site. Comme beaucoup d’autres je suis en effet tour à tour webmaster et utilisateur. Communique-de-presse.info exige que chaque communiqué publié ne provienne pas d’un ou de plusieurs autres sites. Le contenu original est un des piliers de sa réussite, du moins il devrait l’être. Il faut donc cesser avec le Duplicate Content, je ne me fatiguerai pas de le dire.
En tant que googler et selon les requêtes que je tape il m’arrive de voir – encore en 2011 – des montagnes de sites au contenu de piètre qualité qui dominent les premiers résultats. Bravo pour le SEO, mais entre le SEO et la qualité il y a tout un monde, sans la qualité c’est la chute assurée…
Morgan Prive
29 janvier 2011 22 h 41 minL’algorithme a changé et certains référenceurs/spammeurs commencent à se plaindre de chute dans les SERPs. Ce n’est pas encore parfait, mais ca viendra bien un jour 🙂
Amitiés.
Sacha
30 janvier 2011 3 h 54 minEh bah j’ai envie de dire tant mieux.
Essayant depuis le rebut de pas tricher, de faire du contenu original je vais pas m’en plaindre
Aurélien
30 janvier 2011 13 h 10 minEffet d’annonce ou nouveaux algorithmes ?
A mon avis pour l’instant, il ne s’agit que d’une déclaration d’intention, l’avenir nous le dira.
Le résultat pourrait être de voir privilégier les gros sites et les sites de “marque” au détriment des sites plus modestes.
Christophe
1 février 2011 11 h 08 minTien au fait ! Et les annuaires du style pages jaunes et autres site spécialisés où il faut payer pour voir son nom sur le site ? seront-il aussi considéré comme des fermes de contenu ou de liens ? j’espère que oui car ils sont toujours les favoris de google mais pour moi ils ne garantissent pas la qualité du service proposé.
NG
18 février 2011 22 h 39 minMerci d’avoir cité ITespresso dans votre billet 😉