7 causes de pénalités manuelles expliquées par Matt Cutts (et solutions)
Matt Cutts propose sept nouvelles vidéos dans YouTube – traduites en Français – pour expliquer les causes de pénalités manuelles – ou actions manuelles – les plus fréquentes qui pourraient toucher les sites web qui s’adonnent au webspam.
La semaine dernière Google proposait un nouveau lien dans Google Webmaster Tools : les « Actions manuelles ». C’est une option qui permet au webmaster de savoir concrètement pourquoi son site web a été touché par une pénalité manuelle de Google. Il existe en effet différents cas de spam :
1. Le spam de contenu généré par les utilisateurs
Le spam généré par l’utilisateur peut être détecté dans un forum, un blog avec les commentaires activés, les livres d’or, etc. En cas de spam généré par l’utilisateur la pénalité n’affecte qu’une partie du site web. Exemple : le site de Mozilla avait été touché par une pénalité de Google. Matt Cutts préconise l’utilisation d’un captcha complexe, l’activation de la modération des commentaires, l’application de l’attribut rel=nofollow aux liens hypertextes, etc.
2. Le texte caché et / ou le Keyword Stuffing
Il s’agit de techniques qui consistent à cacher le texte aux utilisateurs, mais pas aux moteurs de recherche et aux ordinateurs. Le Keyword Stuffing est une répétition de mots clés et peut prendre la forme d’un texte incompréhensible généré par un programme.
3. Le spam pur et simple
Matt Cutts parle de blackhat. Dans ce cas la pénalité touche généralement la totalité du site web.
4. Le contenu peu informatif, sans intérêt pour les utilisateurs
Matt Cutts prend l’exemple des pages satellites. Il explique le cas d’une entreprise qui crée une page pour chaque ville. La première page contient un contenu raisonnable, les autres disposent d’un contenu identique à la première, seul le nom de la ville change. Ces pages là sont inutiles, ajoute Cutts, leur contenu est peu informatif. Cutts cite également les sites affiliés ou pages d’affiliation, mais aussi la syndication – récupération de contenu de piètre qualité ou sans valeur ajoutée.
5. Les liens non naturels depuis un site tiers
Dans cet article Matt Cutts et son équipier disent aux webmasters de supprimer les liens non naturels qu’ils ont acquis pour leur site web pour « gagner ou regagner la confiance de Google ». Cutts leur propose de se faire aider par un consultant SEO ou une agence. Pour gagner cette confiance ils demandent aux webmasters de leur fournir une documentation via la demande de réexamen à Google pour prouver qu’ils font des efforts. Cette documentation aidera beaucoup Google affirme le co-équipier de Cutts.
6. Les liens non naturels depuis son site web
Dans cette vidéo ci-dessous Matt Cutts et son équipière expliquent la différence entre un lien naturel et un lien non naturel. Le lien naturel peut se définir comme un choix éditorial, c’est un lien vers un site que les utilisateurs estiment utile. Concernant les liens non naturels il s’agit généralement de vente de liens, d’échanges de liens excessifs – Google tolère donc les échanges de liens mais avec modération -, de liens qui pointent vers des sites au contenu de piètre qualité et contenant du spam. Ils donnent des solutions pour traiter les liens non naturels, il y a notamment l’application de l’attribut rel=nofollow, l’ajout d’une instruction de blocage d’URL dans le fichier robots.txt, voire même la suppression des liens.
7. Les liens non naturels depuis un site – actions sur ces liens
Dans cette vidéo Matt Cutts explique quel est l’objectif de son équipe anti webspam. Il précise ensuite que Google a beaucoup avancé dans sa lutte contre le webspam. Avant un domaine, un site entier pouvait être touché par une pénalité de Google, aujourd’hui Matt Cutts affirme que Google s’inscrit dans un cadre plus protecteur. Google peut simplement annuler la valeur des liens considérés comme non naturels.
De manière générale la solution préconisée par Google est le nettoyage du site. Tout site web touché par une pénalité peut sortir de sa pénalité si le travail de nettoyage est bien réalisé et si le webmaster est de bonne foi. C’est un peu comme si Google invitait les webmasters à la rédemption.
Loïc
12 août 2013 8 h 33 minUn bon récapitulatif mais qui donne tout de même l’impression que Google a encore du mal a distinguer le bon contenu du mauvais (hors soupe de mots-clés vraiment incompréhensible).
Reste le linking sur lequel il a tout de même fait de gros progrès en terme de “chasse au spam”, il faut bien l’avouer parce que la plupart des SEO n’hésitaient pas il y a encore un an ou deux a balancer du lien de type CP en masse. Le fait est que chaque nouvelle mesure rend les référenceurs plus prudents et complexifie autant les futures mesures que Google devra prendre.
Bon Cheap Bon Genre
12 août 2013 11 h 23 minCe qui me rassure, c’est que dans l’ensemble, ça reste quand même du bon sens. On nous demande de faire un travail “naturel”, donc basé sur ça, ça permet d’éviter toutes pratiques non naturelles qui seront pénalisées…
Annaïs