
Les technologies changent, les failles demeurent.
Au début des années 2000, les pionniers du SEO ont révélé, parfois malgré eux, la faiblesse du moteur qui allait dominer le monde : Google classait les pages selon une logique purement mathématique, indifférente au contenu réel. Il suffisait d’en comprendre les ressorts (fréquence de mots-clés, signaux de popularité) pour modeler le classement à son avantage. Le système récompensait la technique SEO plutôt que la compétence sectorielle et l’ancrage métier.
Ce déséquilibre a structuré toute une économie de la visibilité. Les SEO black hat furent les premiers à penser en termes d’algorithme plutôt qu’en termes de sens. Leur argument : ce n’est pas le spammeur qui fausse le classement, c’est le classement qui rend le spam possible.
Deux décennies plus tard, la même mécanique refait surface. Non plus dans la recherche, mais dans la génération de contenu. Les intelligences artificielles génératives, en produisant et hiérarchisant des réponses, reproduisent le biais fondateur du SEO : une architecture de décision sans connaissance réelle du terrain.
Une hiérarchisation sans savoir-faire
Les grands modèles de langage sont entrainés pour estimer la probabilité d’une phrase. Ils n’ont ni culture professionnelle, ni critères métier. Ils ne savent pas ce qu’est un bon article scientifique, une analyse financière juste, ou une information vérifiée : ils en déduisent la forme, jamais la légitimité.
Cette absence de référentiel ouvre un espace d’optimisation : il devient possible d’orienter les IA comme on orientait autrefois les moteurs.
Certaines entreprises expérimentent déjà, avec succès, des stratégies de visibilité “générative”, visant non plus à être trouvées par Google, mais citées par ChatGPT, Gemini ou Claude. Les procédés sont empiriques, mais la logique est claire : comprendre comment le modèle construit la crédibilité, puis s’y insérer.
Le retour annoncé du filtrage anti-triche
La conséquence sera inévitable : la mise en place de filtres anti-spam pour l’IA.
La tâche est autrement plus complexe qu’à l’époque des moteurs. Filtrer un lien ou une page, c’est traiter des objets mesurables ; filtrer une idée, une formulation ou une intention relève de la linguistique, de la sociologie et de l’éthique. L’enjeu ne sera plus simplement de faire face aux abus, mais d’arbitrer la frontière entre influence et manipulation algorithmique.
Une répétition systémique
On assiste à une répétition structurelle. A chaque fois qu’un système prétend hiérarchiser l’information sans s’appuyer sur les métiers qu’elle concerne, il engendre ses propres distorsions.
Hier, Google classait les pages sans consulter les experts des domaines qu’elles traitaient. Aujourd’hui, les IA produisent des réponses sans dialogue réel avec ceux qui détiennent la compétence de fond. Dans les deux cas, le vide d’expertise crée une surface exploitable.
Le risque, cette fois, dépasse le champ du marketing : il touche la structuration même du savoir. Là où le SEO avait altéré la visibilité du web, les IA affectent désormais la fiabilité des représentations. À mesure que ces systèmes s’imposent comme interface de consultation de l’information, la question n’est plus : que montre la machine ? mais selon quel métier, quel critère et quelle autorité décide-t-elle ?
Vers une redéfinition de la fiabilité
La prochaine étape sera épistémologique : redéfinir ce qu’est une information fiable dans un environnement où la médiation humaine est absente. Les filtres anti-spam viendront, oui, mais ils ne suffiront pas : les spammeurs auront toujours une longueur d’avance. Tant que les systèmes de classement, qu’ils trient des pages ou des phrases, resteront déconnectés de l’expertise réelle, ils resteront ouverts à la manipulation.
Aussi longtemps que les machines classeront sans comprendre, il sera toujours possible de les tromper.

L’auteur : Laurent Peyrat dirige La Mandrette, qu’il a fondé en 2016. Il pratique et enseigne le SEO depuis plus de vingt ans. Titulaire d’un M2 E-business, il donne aussi plusieurs conférences chaque année.
L’intelligence artificielle transforme notre métier à toute vitesse ! Pour rester informé :
- Le vide d’expertise, point aveugle des intelligences artificielles
- IA et SEO : le Chain of Thought redéfinit la recherche en ligne
- Menaces et opportunités de l’IA sur le SEO
- Les IA génératives (GPT-4) en agence SEO
- Fantin Deliège évoque l’IA et le SEO
- Rankbrain, le superpouvoir de Google
- Le SEO expliqué par une IA
- GPT-3 et SEO