Un matin de mars, un client nous transfère un rapport d’audit sémantique. En rouge, une ligne : « Densité du mot-clé principal : 1,7 %. Recommandation : passer à 2,2 %. » On a fermé le fichier, ouvert la Search Console du site, et constaté que 40 % des URLs produits ramaient avec un LCP au-dessus de 4 secondes. Personne ne parlait de ça dans l’audit. Mais la densité de mots-clés, elle, avait son petit warning coloré.
Voilà le problème. On continue de mesurer des pourcentages comme si les algorithmes de Google fonctionnaient avec des calculettes, alors qu’ils ont basculé sur des modèles de compréhension fine du langage depuis des années. La densité de mots-clés n’est pas un levier. C’est un bruit de fond.
D’où vient cette obsession du ratio parfait
La notion de densité de mots-clés remonte à l’époque où les moteurs de recherche analysaient les pages comme des sacs de mots. Plus un terme apparaissait, plus la page était jugée pertinente pour ce terme. Des outils ont alors formalisé des fourchettes « idéales », souvent entre 1 et 3 %, en s’appuyant sur des corrélations statistiques mal interprétées. Un site classé premier contenait en moyenne 2,1 % du mot-clé principal, donc il fallait viser 2,1 %. Causalité inversée, biais de survivant, appelez ça comme vous voulez : le résultat, c’est que toute une industrie s’est mise à compter des occurrences.
Sauf que Google n’a jamais communiqué de seuil. Et depuis l’arrivée de Hummingbird en 2013, la compréhension du langage a radicalement changé. Le moteur ne compte plus des répétitions. Il dérive le sens global d’une page à partir de son contenu, de sa structure et des entités qu’elle mobilise.
Pourquoi Google a tordu le cou à cette métrique il y a plus de dix ans
Les algorithmes modernes comme BERT ou MUM n’ont pas besoin que vous écriviez « chaussures de running pas cher » huit fois pour comprendre que vous vendez des baskets à prix réduit. Ils analysent le contexte, les co-occurrences, les relations entre entités. Une répétition excessive peut même paraître suspecte : elle signale un contenu fabriqué pour les moteurs, pas pour un humain.
Les évaluateurs humains de Google, ceux qui alimentent les données d’entraînement des classificateurs, suivent des consignes qui ne mentionnent jamais la densité de mots-clés. Ils évaluent l’autorité, la qualité de l’information, l’effort éditorial. Créer un contenu qui sonne artificiel à force de vouloir caser une requête n’importe comment, c’est dégrader ces signaux bien plus importants. Le keyword stuffing, même dilué, reste un anti-pattern.
Ce que Google mesure à la place du nombre d’occurrences
Le moteur cherche à répondre à l’intention de recherche de l’utilisateur. Ça passe par plusieurs couches : la pertinence thématique globale, la couverture des sous-sujets que les internautes explorent après la requête initiale, et la reconnaissance des entités nommées. Si vous écrivez un guide sur la migration d’un site Next.js, Google s’attend à croiser des termes comme getServerSideProps, middleware, cache-control, pas juste « migration Next.js » répété toutes les 80 lignes.
C’est une logique de structure, pas de fréquence. Un paragraphe dense qui définit une notion sans jamais répéter le mot-clé exact peut envoyer un signal sémantique plus net qu’un pavé de 600 mots qui le ressasse.
Le vrai risque : quand la densité de mots-clés dégrade vos Core Web Vitals
Le lien est indirect, mais il est têtu. Un texte gonflé artificiellement pour atteindre une pseudo-cible de fréquence, c’est du poids inutile dans le DOM. Sur une landing page qui doit charger vite, chaque nœud supplémentaire compte. Des paragraphes alourdis par des reformulations forcées allongent le contenu visible et repoussent les éléments interactifs. Résultat : un LCP dégradé, un TTI qui grimpe, et un INP qui souffre si le navigateur doit parser une montagne de texte avant de répondre au premier clic.
On préfère un contenu concis, direct, qui va à l’essentiel. L’optimisation des Core Web Vitals commence par le nettoyage du superflu, y compris dans la rédaction. Enlevez les répétitions inutiles, réduisez la taille du texte à ce qui est utile pour l’utilisateur, et vous verrez souvent un effet positif sur le LCP simplement parce que la page est plus légère à afficher.
Arrêtez de compter et structurez vos entités
La seule métrique de contenu qui mérite votre attention, c’est le taux de conversion après atterrissage. Une page peut avoir une densité de mot-clé « parfaite » selon les standards d’un outil, et un taux de rebond de 90 %. À l’inverse, un texte qui ne contient le mot-clé principal que deux fois mais qui répond à toutes les questions de l’internaute le gardera sur la page, générera des clics, et enverra à Google le signal ultime : l’utilisateur satisfait.
⚠️ Attention : des plugins SEO continuent d’afficher un score de densité avec des voyants verts ou rouges. Ce n’est pas un indicateur fiable. Google ne calcule pas ce ratio pour établir un classement.
La bonne pratique est simple : écrivez pour couvrir un sujet, pas pour positionner un mot. Quand vous générez du contenu via un outil comme Claude Code vs Cursor IDE, l’objectif n’est pas de lui demander de répéter une requête x fois, mais de lui fournir le contexte nécessaire pour produire un discours structuré autour des entités pertinentes.
Une page produit refaite en 20 minutes, sans un seul comptage
Prenons un cas concret. Une fiche produit pour un thermostat connecté. Version initiale : le rédacteur a inséré « thermostat connecté 2026 » 14 fois dans un texte de 300 mots. Densité : 4,7 %. Le score des outils était au rouge, trop élevé. Pourtant, la page se classait en milieu de deuxième page. On a réécrit les descriptions en se concentrant sur les attributs techniques (compatibilité Zigbee, API ouverte, plage de température), sans jamais répéter le mot-clé complet plus de trois fois. Résultat : le taux de clic a augmenté, le temps passé sur la page aussi. La position a grimpé sans qu’on regarde une seule case de densité.
Le temps qu’on a gagné à ne pas traquer des pourcentages, on l’a investi ailleurs. Par exemple, on a réduit le bundle JavaScript de la fiche produit en migrant le state management local vers Zustand. Moins de re-rendus, un TTI divisé par deux. Ce genre d’optimisation est bien plus corrélé à une progression dans les SERPs que n’importe quel ajustement lexical. C’est le même raisonnement que celui qu’on applique à State management React Zustand : on structure la logique, on ne compte pas les imports.
Questions fréquentes
Un outil SEO me suggère une densité de 1,5 %. Dois-je l’ignorer ?
Oui. Ces recommandations sont basées sur des moyennes statistiques qui n’ont aucune valeur prédictive. Suivre ces pourcentages vous pousse à sur-optimiser un signal que Google ne mesure pas. La seule règle est la clarté : si votre mot-clé apparaît naturellement, vous en avez assez.
Est-ce que la densité de mots-clés compte encore pour Bing ?
Bing utilise également des modèles de compréhension sémantique et n’a jamais documenté de seuil de densité. Les mêmes principes s’appliquent : couvrez votre sujet, apportez de la valeur, et la pertinence viendra.
Quelle est la différence entre densité et fréquence des mots-clés ?
La densité est un pourcentage (occurrences du mot divisées par le nombre total de mots). La fréquence est un compte brut. Aucune des deux n’a d’impact direct sur le classement si le contenu n’est pas pertinent. Utiliser l’une ou l’autre comme objectif d’écriture revient au même : c’est un biais d’optimisation.