Le cimetière du SEO : les techniques de référencement à oublier

Le SEO est une discipline en constante évolution. Le monde du webmarketing en mouvement perpétuel, l’hégémonie Google et le perfectionnement de ses algorithmes de recherche, les exigences et le comportement des utilisateurs en pleine mutation, l’essor des plateformes de communication (réseaux sociaux, blogs. Etc.)… Force est de constater qu’on ne référence plus un site Internet comme on le faisait il y a 10 ou 20 ans.

Devant ces changements d’ordre multiples, les moteurs de recherche (Google en tête) ont été poussés à repenser leurs usages, de sorte qu’aujourd’hui, ce n’est plus le site qui a le plus de mots clés ou de backlinks qui obtiendra le plus de visibilité (merci Panda, merci Penguin). Au contraire, le contenu le plus proche de la recherche du client sémantiquement parlant, le plus naturellement rédigé, apporteur d’une véritable valeur ajoutée au visiteur et susceptible d’être partagé sera davantage mis en avant. La chasse aux meilleurs positionnements sur les SERPs (agl. pages de recherche) a aujourd’hui laissé place à l’utilisateur.

Les questions et constats suivants ont donc émergé : quel est son comportement devant l’information ? Quels peuvent être les axes à travailler pour optimiser l’expérience utilisateur ? Quels mots clés sont susceptibles d’être recherchés ? De plus en plus de sites en sont conscients et agissent en conséquence, mettant ainsi de côté certaines pratiques, devenues obsolètes et considérées comme abusives par les moteurs de recherche. 1ère Position, agence en référencement web depuis 1999, vous liste quelques-unes de ces pratiques à proscrire : bienvenue dans le cimetière du SEO.

Contenu

Trop de mots clés… tuent le mot clé.

Si on suit les évolutions évoquées dans l’introduction, le nombre d’occurrences d’un mot clé n’est plus un critère de positionnement pour une page ou un site donné. Au revoir donc au contenu “suroptimisé” : où le mot clé principal est inséré à tout va dans le contenu et le balisage, au point de former des phrases et des propos qui manquent de sens et de valeur ajoutée concrète pour le lecteur. Aujourd’hui, c’est simple : au lieu d’écrire pour Google, on écrit pour l’utilisateur.

Et dans ce sens, plutôt que suroptimiser un contenu, on le rend au contraire plus naturel, en utilisant le mot clé (puisqu’il le faut), en fournissant un contenu sensé et compréhensible (susceptible d’être repris et partagé), et en privilégiant l’utilisation du champ sémantique et de synonymes afférents au mot clé principal.

Suroptimiser les ancres de lien

Une fois lancé dans la course à l’acquisition de liens (à faire avec intelligence), il peut être tentant de n’utiliser que des ancres correspondant à des mots clés stratégiques, sur lesquels on aimerait se positionner. Or, aujourd’hui, Google détecte bien cela comme de la suroptimisation. Les liens qui émanent comme ceux qui sortent d’un site donné doivent paraître les plus naturels possible.

La solution réside dans la diversification des ancres de lien et des mots clés utilisés. En plus des mots clés stratégiques (qu’il est quand même important d’utiliser), on peut par exemple utiliser le nom de domaine du site, le nom de la marque du site, etc. Les “cliquez ici” sont aussi utilisables, mais ils n’apportent pas spécialement une plus-value à votre linking.

Recourir au cloaking

Parmi les techniques à proscrire au moment de rédiger sur un site Internet, le cloaking figure parmi les plus sournoises. Il consiste à mettre en place sur une même page un contenu suroptimisé, à destination des moteurs de recherche (donc truffé de liens et de mots clés mis en avant) et un contenu plus agréable à lire, mis en forme et aéré, cette fois mis en place pour le visiteur. Certains poussent le vice en cachant le contenu destiné aux moteurs de recherche aux yeux des internautes.

Cette technique est tout bonnement à éviter, les robots des moteurs de recherche étant maintenant programmés pour repérer à la fois le contenu caché, le contenu dupliqué s’il y en a, et le contenu de mauvaise qualité.

Utiliser la “triplette du bourrin”

Outre la dénomination loufoque, la triplette du bourrin consiste dans la répétition du mot clé principal d’une page dans une balise Title, une URL et un H1.

Le fait que celui-ci soit remonté dans ces 3 éléments ne donne pas forcément plus de puissance à une page donnée. Mais cela s’oppose directement à une démarche de création de contenu qualifié, d’autant plus si le mot clé est répété dans d’autres éléments de la page (balise Description, balises Hn, paragraphe…). Aujourd’hui, il n’est guère efficace de recourir à ce genre de méthode, notamment parce que les mots clés dans les URLs n’ont pas vraiment de valeur.

Optimiser chaque page web pour une variante de mot-clé

…soit un mot clef par page. On parle désormais d’une thématique par page.

L’algorithme de Google a évolué, il comprend désormais le sens d’une page et ses variantes. Il n’est donc plus forcément utile de créer une page par variante de mot-clé. On parle plutôt de thématique par page.

Technique

La technique représente un des piliers fondamentaux pour le SEO, à la fois pour l’indexation, le crawl mais aussi la disposition du contenu dans l’espace.

Intégrer les balises META Keywords

Au même titre que la balise Title et la balise Description, toutes deux importantes pour le référencement, la balise Keywords est une balise META, par définition invisible à l’internaute. Elle fut très utilisée par les moteurs de recherche, notamment les ancêtres de Google Altavista, Infoseek ou Yahoo.

Elle a été créée dans le but de positionner une page d’un site sur les mots clés afférents à son contenu.

Toujours dans la fameuse course à l’optimisation du site Internet, la balise Keywords a longtemps été utilisée par les anciens sites afin de se positionner sur des mots clés de manière abusive (utilisation des mots clé marques des concurrents, multiples occurrences de mots clés pour maximiser les chances d’apparition aux premières places), ou alors pallier le manque de contenu et ainsi se positionner sans réel effort.

Désormais, la balise META Keywords n’est plus utilisée et prise en compte par Google comme critère de référencement.

Utiliser du Flash sur un site Internet

Le Flash est un des ennemis jurés des référenceurs. S’il a permis (à l’époque) des progrès en termes de contenus, loin des sites HTML offrant des contenus très statiques, il est aujourd’hui à proscrire.

Google a longtemps été dans l’incapacité de référencer un site en Flash. Si ce n’est plus le cas aujourd’hui, les progrès technologiques ayant fait progressivement place au Mobile (AnyTime, AnyWhere, Any Device, responsive, Index Mobile-First lancé depuis 2017…), le Flash est définitivement tombé en désuétude.

D’ailleurs pour l’anecdote, Flash ne s’affiche pas sur les smartphones et les tablettes. De quoi définitivement assurer la mort du Flash.

Abuser de l’Exact Match Domain

Un Exact Match Domain est un nom de domaine qui répond exactement à une requête saisie sur les moteurs de recherche. En clair, l’URL du site correspond point par point à votre requête Google. Exemple : le domaine “voiture-pas-cher.com” était utilisé pour se positionner sur “voiture pas cher”. Cela pouvait servir de gage de réassurance et de découverte d’informations à moindre effort pour le visiteur.

Si cela avait tendance à influencer leur choix, des abus ont également été commis par les sites, avec des URLs à rallonge.

Les moteurs de recherche ont donc été contraints de mettre en place une mise à jour de leur algorithme visant à baisser la valeur des mots clés présents dans un nom de domaine, et donc par extension d’une URL en EMD.

Netlinking

Le netlinking consiste en l’acquisition de liens à partir de sites externes. Voici quelques pratiques désormais désuètes.

Inscrire son site sur un maximum d’annuaires en ligne pour faire décoller son positionnement

Il fut un temps où inscrire son site sur un maximum d’annuaires avait un réel impact sur son positionnement qu’importe la qualité de l’annuaire. Aujourd’hui l’inscription sur des annuaires doit être minutieuse afin d’avoir un effet positif sur le SEO et non le contraire. Il faut choisir le type d’annuaire (généraliste, thématique, ou local) mais aussi prendre en compte certains critères qualitatifs : rythme des mises à jour, validation manuelle, Trust Flow, entre autres.

Utiliser les communiqués de presse pour sa stratégie de netlinking

Depuis 2013, Google ne considère plus les liens émanant d’un site de communiqué de presse. Il s’agit aujourd’hui de sources de liens désuètes. Si ce type de lien est facile à obtenir, ces sites et de contenus texte sont peu qualitatifs en termes de SEO. De plus, ils sont en réalité peu consultés par le grand public. Cette pratique peut prendre des allures de fermes à liens : des thématiques diverses sans lien évident pour ne pas dire inexistant.

Recourir au netlinking massif

Les dérives passées en termes de netlinking ont poussé les moteurs de recherche à mettre en place des guidelines précises, améliorer leurs algorithmes évaluant la qualité du linking, et réprimer les abus (comme la pénalité Penguin, créée par Google en 2012). C’est la raison pour laquelle l’acquisition de liens doit se faire le plus naturellement possible et dans une optique pérenne (donc pas d’achat ou d’échanges abusifs…).

Typiquement, acquérir des liens de manière massive et sans stratégie fondée (netlinking à partir de sites pénalisés / blacklistés, de sources sans réelle corrélation ou proximité thématique) n’envoie pas un bon signal à Google, qui y voit même une sorte d’artificialité. (Au revoir à toutes les fermes de liens, communiqués de presse, etc.). Les démarches pérennes, naturelles et étalées dans le temps (que ce soit d’ailleurs pour le netlinking, la création de contenus…) sont à privilégier.

Se créer des backlinks sur les forums

Il est inutile de commenter sur les forums en vue d’y insérer des backlinks : en effet, ceux-ci seront en Nofollow, ce qui signifie qu’ils existeront bien, mais qu’ils ne transféreront aucun “jus de référencement” vers un site Web.

Le PR est mort… Vive le Citation Flow et le Trust Flow !

Le PageRank était une notation (sur 10) mise en place par Google pour évaluer la popularité d’un site Web et son exposition, sous forme d’une petite barre verte.

Aujourd’hui tombés en désuétude, à cause de nombreux abus (liés au netlinking et à une qualité sur le site pas toujours bonne), d’autres indicateurs sont utilisés pour évaluer la popularité et l’intérêt des sites. Parmi eux, le Citation Flow et le Trust Flow, mis en place par Majestic, permettent d’évaluer l’intérêt d’un site en termes de popularité, de confiance, et le type de liens qui pointent vers lui. Ces deux indicateurs ont bien fini par supplanter le PageRank, ceux-ci offrant plus de détail et de nouveaux indices, plus en lien avec les nouvelles politiques de qualité initiées par les moteurs de recherche.

En conclusion, l’engagement des moteurs de recherche à rendre le référencement plus naturel s’est démontré dans leurs démarches, leurs guidelines et leurs fréquentes mises à jour d’algorithmes de qualité. À ce titre, Google lance des algorithmes de manière publique et privée (donc imprévisibles), visant ainsi à rétablir un certain équilibre entre chaque site et optimiser les chances des sites qui mettent leur contenu aux normes.

Si les salves des algorithmes Google Panda (entre 2014 et 2015) et Penguin (dont la dernière date de 2016) ont poussé les sites à augmenter la qualité de leur contenu et rétabli une certaine équité, il reste aujourd’hui à s’attirer les grâces d’un tout autre protagoniste : le visiteur. En clair, tout ce qui est produit à moindre effort (suroptimisation, duplication, automatisation…) est à proscrire : le SEO, c’est avant une affaire de pérennisation et de résultats à (très) long terme.

Ces articles peuvent aussi vous intérresser

Commentaires

  1. Fabien Branchut

    La suroptimisation des ancres de liens peut être dangeureuse (pénalités Google), mais uniquement les ancres de liens des backlinks (liens sur d’autres sites vers le vôtre). Il est conseillé de “suroptimiser” les ancres de liens internes.

  2. Super article de blog, le référencement naturel n’est pas facile à obtenir, c’est des combats acharnés qui nous permettrons de réussir.

  3. Le griffoul

    Merci pour ces informations dans un domaine en constant mouvement. J’ai toutefois l’impression que Google se transforme en gros catalogue d’achats avec une sur-pondération des sites marchands…

Laisser un commentaire

XHTML: Vous pouvez utiliser ces tags : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <s> <strike> <strong>

En tête de liste sinon rien
Take the lead!
Référencement : visez la première page Google
Comment être
en 1ère page de Google en 2019 ?
Le Livre Blanc
des 20 ans de 1ère Position
Quel budget
pour une meilleure position sur Google ?
Réponse rapide et prestation sur-mesure.

Partagez vos objectifs
de vente ou marketing
avec nos consultants en référencement et stratégie digitale

Être recontacté !

Selon votre besoin, consultez directement notre équipe d’experts

Vous souhaitez

Connaître nos offresNous proposer vos services

Vous êtes

Une grande entrepriseUn grand compteUn artisanUne TPEUne PME

Votre besoin

Référencement Naturel SEORéférencement Payant SEAAuditRéseaux SociauxRédaction de contenuFormation

Votre projet

J’accepte les conditions | Lire

Une agence certifiée

Nous contacter