Les secrets du SEO black hat

Ils spamment Google sans vergogne et nous grillent parfois sur nos requêtes chéries… mais comment font ces vilains référenceurs black hat ?

La black hat SEO est aussi vieux que Google
Depuis qu’il y a des moteurs, il y a des spammeurs !

Qu’est-ce que le SEO black hat ?

Il s’agit de l’ensemble des techniques SEO visant à faire progresser un site web dans les Serp mais ne respectant pas les directives du robot. Elles s’opposent au référencement white hat, respectueux des consignes de Google.

Est-ce que le SEO black hat fonctionne ?

Evidemment, sinon personne ne l’utiliserait ! S’il était inefficace, Google ne dépenserait ni argent ni énergie pour ôter de son index les pages ainsi boostées.

Il s’agit toutefois de méthodes risquées : la pénalité, qui prend le forme d’un déclassement ou d’un blacklistage, n’est jamais loin. Notons que celle-ci est d’ailleurs prise en compte dans le business model des référenceurs BH expérimentés.

Cela va de soi : le SEO black hat ne fonctionne que s’il est bien mené… tout comme le référencement white hat !

2021 : Paul Sanches et Mathieu Gheerbrandt établissent un état des lieux du SEO BH

Le SEO black hat est-il légal ?

En soi oui, les consignes de Google n’ayant pas force de loi. Cependant, certaines pratiques s’appuient sur du hacking, qui est évidemment illégal, ou encore sur le plagiat, tout aussi prohibé. Des personnes malveillantes ont pour objectif de faire chuter un concurrent (le negative SEO), ce qui est encore interdit et passible de sanctions.

Quelles sont les techniques black hat utilisées en SEO ?

Techniques on page

Elles visent à proposer au robot un contenu ultra-optimisé sur les requêtes visées.

Bourrage de mots-clés (keyword stuffing). Très simple, il s’agit de répéter ad nauseam le mot-clé visé dans la page. Tant pis pour l’internaute, seul le robot compte !

Texte caché. Il y a plusieurs façons de dissimuler du texte à l’internaute, bien qu’il reste accessible au robot : texte de la couleur du fond de la page, position hors écran via un style CSS ou toute autre astuce technique.

Cloaking. C’est le fait de présenter une version de la page au robot (au hasard, une page ultra optimisée) et une autre aux visiteurs humains. A noter que le cloaking peut être partiel (dissimulation de liens aux internautes, par exemple).

Abus de données structurées. Par exemple, faire afficher, via les microdatas, un rich snippet montrant une note moyenne élevée sur un très grand nombre d’avis pour sa page, c’est facile, mais c’est de la triche si ces avis n’existent pas.

Techniques on site

Généralement, l’objectif est de faire croire à Google qu’il se trouve face à un site très important et constamment augmenté de nouveaux contenus.

Texte à trous. Pour être présent, par exemple, dans plusieurs villes, on peut créer une page par ville qui inclut un texte à trous. Il suffit ensuite de remplir le trou avec le nom de la ville. « Nous livrons en moins de 48 h à [Ville] ».

Ferme de contenu. Ecrire longuement sur tout et n’importe quoi, faire rédiger les utilisateurs (UGC) plus ou moins gratuitement pour obtenir un très gros site est une méthode qui a eu son heure de gloire. Officiellement, le filtre dévastateur Panda a été déployé en 2011 en l’honneur des fermes de contenu.

Content spinning. Très utilisé pour obtenir du contenu dans des pages répétitives (pages de villes, etc), il démarre par la création d’un masterspin, qui contient les variations du texte à venir. {Bonjour|Salut|Hello} {les enfants|les petits|les poulets}. Après avoir généré les différentes variation à l’aide d’un programme ad hoc, il suffit de les comparer entre elles (différents algorithmes sont disponibles) pour éliminer les plus similaires (risque de duplicate content). On dispose alors d’un grand nombre de textes « originaux ». Cette technique se marie avec le « texte à trous », mais se fait supplanter par les IA génératives.

Génération automatique de contenu. Un grand nombre d’outils, dont l’IA, sont capables de générer automatiquement des quantités astronomiques de textes et de les mettre en ligne, donnant au robot l’illusion d’un site important et fréquemment mise à jour.

Copie et plagiat. Pourquoi se fatiguer à produire du contenu, alors qu’on peut se contenter de récupérer celui des autres ? Au menu : scrap de sites web, réécriture automatique, copie de site étranger et traduction, etc.

Pages satellites (doorway pages). Suroptimisées et invisibles pour l’internaute (quand il tombe dessus, il est automatiquement envoyé sur une autre page), leur création a été longtemps un must du SEO Black hat. En effet, elles permettaient par exemple de se positionner sur des termes qui n’avaient pas leur place dans le site web (vocabulaire, site uniquement composé de visuels, etc.) mais étaient recherchés par les internautes. Google semble bel et bien avoir éradiqué les pages satellites de son index.

Techniques off site

Le linking, facteur de positionnement le plus important, est évidemment le terrain de jeu préféré des référenceurs BH.

Echange de liens. Un lien selon Google, c’est une recommandation, un vote. Ca ne peut pas être provoqué. Les échanges de liens, d’articles, etc. sont pratiqués depuis toujours mais restent prohibés par le robot.

Spamco. Le spam de commentaires de blogs est une technique ancienne, qui date de l’époque où les commentateurs des articles de blogs pouvaient laisser un lien vers leur site web, lien bel et bien pris en compte dans le calcul du Pagerank de la page cible. D’abord réalisé « à la main », le spamco s’est très vite automatisé grâce à des outils capables de repérer les bons spots et de poster tout seuls des commentaires bateaux. Les spammeurs les plus sauvages n’hésitaient pas à générer plusieurs milliers de liens par jour. C’est le spamco et le spam de forums qui ont incité Google, Yahoo! et Bing à créer l’attribut nofollow, destinés aux liens sortants d’un site web non généré par l’éditeur.

Spam de forums. Même logique que le spamco : il s’agit de repérer des forums soit pour y placer des messages incluant des liens vers son site web, soit encore plus simplement y créer des profils qui, eux, contiennent ces liens. Même évolution aussi : d’abord artisanal, le spam de forums s’est automatisé, engendrant l’attribut nofollow et contribuant au mauvais caractère de toute une génération de modérateurs.

Ferme de liens. Il n’y a quasiment plus de projets de ce type. La première ferme de liens française était Populiens. En adhérant à une telle ferme, on récupèrait un lien depuis les sites de tous les autres participants, via une page automatiquement mise à jour sur son site… et sur celle des autres. Facilement repérables (et repérées !) par le robot, les fermes de liens ont été abandonnées au début des années 2000.

Splog. Contraction de Spam Blog. L’idée est de créer un (ou plusieurs) blog(s) et de les alimenter en contenus richement dotés vers le site que l’on cherche à « pousser ». La technique ayant évolué, on parle aujourd’hui de PBN (Private Blog Network).

Achat de liens. Bien qu’ayant atteint un niveau industriel via des dizaines de plateformes à succès, la pratique de l’achat de liens reste bel et bien interdite par le robot. Même si les support les plus prestigieux vendent du lien, même si on l’appelle autrement (« article sponsorisé » ou autre), c’est sanctionnable. Depuis 2018, le discours officiel de Google sur l’achat de liens a changé. Alors qu’avant, il pénalisait fortement le vendeur et l’acheteur, aujourd’hui il affirme se contenter de ne plus prendre en compte ces liens. Il est possible que cela soit dû au fait qu’on ne maîtrise pas forcément ses backlinks et qu’on peut ainsi être victime d’une malveillance (voir : Negative SEO).

Récupération (et redirection) de domaines expirés. Chaque jour, des dizaines de milliers de domaines sont abandonnés par leur propriétaires. Certains d’entre eux pointaient sur un site web populaire, qui a donc récupéré d’excellents liens. Il s’agit donc de récupérer ces domaines et, par la même occasion, leur référencement (les liens qu’ils sont acquis sont, pour la plupart, toujours en place). De là, on peut les exploiter pour monter un nouveau site web, les rediriger vers un autre projet ou les inclure dans un PBN.

Ninja Linking. Le link ninja est un lien posé par un référenceur sur un site tiers, par astuce. Le spammeur talentueux sait repérer les bons spots et en exploiter les failles légales pour y poser son lien. Les supports prestigieux (officiels et/ou à forte audience) sont des cibles privilégiées, car le lien généré est censé amener beaucoup d’autorité au domaine lié. Exemple de cible classique : Wikipédia, malgré les nofollow dont sont assortis les liens sortants.

PBN (Private Blog Network, ou réseau de blogs privés). Un PBN efficace combine plusieurs techniques black hat (génération automatique de contenu, récupération d’expirés, cloaking…). Il s’agit de monter un puissant réseau de site web liant le site principal (money site) en étant le plus discret possible, pour éviter notamment les dénonciations de concurrents auprès de Google. La production de PBN peut être plus ou moins automatisée.

Hacking. Pirater un site web pour y poser ses liens est une pratique très prisée dans le cadre de certains business illégaux, comme la contrefaçon ou la vente de produits interdits.

Negative SEO. Si je n’arrive pas à doubler mon concurrent, pourquoi ne pas lui nuire ? Le negative SEO repose sur deux façons de faire. La première est de hacker le site pour y implémenter des instructions pour le robot (balises noindex, redirection, balises canoniques, liens…). Le seconde est de doter le site de caractéristiques spammy (par exemple, de lui générer un grand nombre de backlinks automatiques, du contenu prohibé, etc.), puis d’attendre qu’il se fasse pénaliser ou, simplement, de le dénoncer à Google. C’est tout aussi illégal que le hacking mais ça existe et ça fonctionne. Il est parfois judicieux de mettre en place une surveillance et des actions pour s’en prémunir.

Cette liste n’est pas exhaustive, les meilleurs SEO black hat se distinguant par leur créativité et leur talent pour mêler ces techniques entre elles.

Idées reçues

Le black hat SEO ne fonctionne pas sur le long terme. Avec un peu de pratique et d’expérience, on repère des projets full BH qui restent au top pendant des années.

Le SEO black hat, c’est du SEO automatisé. Si les projets d’automatisation ont beaucoup de succès (qui ne rêve pas de créer 50 ou 500 sites complets et optimisés en trois clics ?), on peut très bien tricher « à la mano ». Automatisation des processus et BH ne sont pas synonymes.

Le black hat SEO, c’est facile et pas cher. Comme pour les techniques white hat, ce n’est pas aussi simple. Il faut du talent et de l’expérience pour réussir à se positionner sur des requêtes intéressantes, quelles que soient les techniques utilisées. La difficulté est de donner de la puissance à son projet tout en restant en-dessous des radars. Un tel dosage ne se trouve pas du premier coup ! Enfin, dès que l’on s’attaque à des requêtes un peu disputées, pas de secret, il faut mettre les moyens en conséquence.

Le black hat SEO est incontournable sur certaines requêtes. Il peut arriver que certains secteurs d’activité soient, sur une période donnée, effectivement dominés par des référenceurs BH. L’inverse est aussi vrai. Mais jusqu’ici, ça a toujours évolué, dans un sens ou dans l’autre, et le plus fréquemment de manière cyclique ! Pourquoi certaines SERP se figeraient tout à coup, et se fermeraient à tel ou tel type d’acteurs ?

Comment Google lutte-t-il contre le SEO black hat ?

Le black hat a pour effet de dégrader, aux yeux du robot, la qualité de son index, au point qu’il ne donne plus satisfaction aux utilisateurs. Il se dote donc de moyens importants pour éradiquer le spam des résultats de recherche.

  1. La Google Search Quality Team, composée d’humains, repère et sanctionne les tricheurs. Elle est épaulée par environ 10 000 Quality raters dans le monde, employés par des sous-traitants.
  2. Quand une pratique black hat devient trop importante, un filtre spécifique est intégré à l’algorithme. Il est d’abord déployé de manière périodique, puis il est peu à peu intégré à l’algorithme.
  3. Google dispose d’une arme ultime : la dénonciation, qui peut avoir lieu soit de manière privée via le formulaire ad hoc, soit publiquement dans le forum des webmasters.

Retrouvez les meilleures définitions dans le glossaire SEO de La Mandrette !


Laurent Peyrat, expert SEOL’auteur : Laurent Peyrat dirige La Mandrette, qu’il a fondé en 2016. Il pratique et enseigne le SEO depuis plus de vingt ans. Titulaire d’un M2 E-business, il donne aussi plusieurs conférences chaque année.