optimisation core web vitals 8 min

Pourrons-nous jamais ressusciter les dinosaures et les sites expirés ?

Ressusciter un dinosaure ou un domaine expiré pose le même problème : la dégradation du matériel originel. Voici comment aborder la renaissance technique d'un site mort.

Par Julien Morel
Partager

Il y a dix ans, un pote archéologue m’a sorti : « Tu sais, l’ADN des dinosaures a une demi-vie de 521 ans. Même dans un moustique pris dans l’ambre, tout serait dégradé depuis longtemps. On ne clonera jamais un T-Rex. » La même logique s’applique à une idée qui revient tous les six mois en SEO technique : racheter un domaine expiré, y coller du contenu vaguement similaire et attendre que l’autorité d’antan se reporte sur le nouveau site. Sauf que le patrimoine de liens, les signaux d’indexation et la réputation d’un domaine se dégradent mécaniquement sitôt qu’il n’est plus maintenu. On l’a mesuré indirectement sur une poignée de domaines rachetés par des clients : après six mois de silence, une partie significative des URLs historiques cesse d’être crawlée, les backlinks sont dévalués, et Googlebot traite le domaine comme une page blanche. Vouloir ressusciter un dinosaure numérique, c’est accepter que le matériel de base soit déjà dégradé et qu’on va devoir reconstruire de l’ADN solide soi-même.

L’ADN se dégrade plus vite que vous ne l’imaginez

Un domaine qui n’a plus servi depuis 12 semaines, c’est un squelette incomplet. Les moteurs retirent progressivement les URLs de l’index, les signaux de PageRank se dissipent si les liens entrants ne sont plus recrawlés. J’ai observé un cas où le domaine d’un ancien blog e-commerce, pourtant riche de 800 pages, s’est retrouvé avec seulement 12 URLs indexées après trois mois de non-renouvellement. La raison : les pages vitrines n’étaient plus liées par aucun sitemap valide et le fichier robots.txt bloquait accidentellement le crawl des archives. Résultat, le capital SEO était un champ de ruines avant même la relance.

Pour contourner cette érosion, il faut traiter le domaine comme un site neuf mais avec un passif à risque. La première action concrète consiste à aller dans la Search Console, vérifier le nombre de pages encore indexées et croiser ces données avec un export de Majestic ou Ahrefs pour identifier les backlinks encore actifs. Si le ratio entre URLs historiques et URLs encore indexées est inférieur à 10 %, on peut renoncer à toute stratégie de préservation : il n’y a presque plus rien à récupérer. En revanche, si une partie substantielle des pages de fond subsiste, la reconstruction peut commencer, avec une contrainte lourde sur la performance.

Le clone est lent, et Google le punit directement

Relever un domaine mort, c’est souvent y déployer un nouveau CMS, un thème vite fait et trois blocs de contenu. Le piège immédiat, c’est un LCP qui dépasse les 3 secondes parce qu’on a chargé une police Google Fonts non optimisée, un bundle React de 500 Ko et une vidéo en autoplay. Or, un site naissant ou renaissant n’a aucun droit à l’erreur sur les Core Web Vitals. Google applique des seuils stricts (LCP sous 2,5 secondes, INP sous 200 ms), et un jeune domaine avec de mauvais signaux ne sera jamais porté par des facteurs d’autorité suffisants pour compenser.

J’ai vu un ancien portail d’actualités scientifiques relancé avec un thème mal géré : 48 heures après la mise en ligne, l’INP oscillait autour de 380 ms sur les pages articles, notamment parce qu’un gestionnaire d’événements JavaScript bloquait le fil principal lors du scroll. Toutes les pages réindexées ont chuté dans les SERP en moins d’une semaine. On a corrigé en passant les interactions sur des promises et en décomposant le bundle initial. Une fois le INP stabilisé sous 150 ms, le trafic organique a lentement repris, mais la fenêtre de grâce avait disparu. Un domaine nouvellement actif ne bénéficie d’aucun effet de rémanence : la performance est jugée en temps réel, comme pour un nouveau site. Si vous envisagez de repartir sur un framework moderne, que ce soit avec Claude Code ou Cursor IDE, le premier livrable mesurable n’est pas le design, c’est un lighthouse score mobile à 90.

Redirections en cascade : l’extinction silencieuse du crawl budget

La tentation, quand on hérite d’un domaine avec 5 000 URLs historiques, c’est de toutes les rediriger en bloc vers la nouvelle homepage. J’appelle ça l’effet météorite. Googlebot arrive, rencontre 5 000 redirections 301 qui pointent vers une seule URL, et classe immédiatement ces signaux comme du soft-404 de masse. Le crawl budget alloué au domaine s’effondre. On l’a constaté lors d’une migration où un site avait perdu plus de 40 % de son crawl quotidien après avoir implémenté une règle générique « redirige tout vers l’accueil ». La solution n’est pas élégante mais elle est efficace : on segmente les redirections par thématique, on regroupe les anciennes URLs vers des pages pertinentes (une catégorie ou un article sémantiquement proche), et on laisse les URLs sans équivalent renvoyer un 410 Gone. Oui, perdre délibérément du jus, mais préserver la cohérence du crawl est plus rentable que de le diluer dans des signaux incohérents.

En parallèle, on soumet un sitemap segmenté : un index sitemap qui pointe vers un sitemap des nouvelles URLs, un sitemap des redirections 301 (oui, c’est possible) et un sitemap des URLs marquées en 410 pour aider Google à nettoyer son index. Cette chirurgie évite que le budget de crawl ne serve à explorer des culs-de-sac.

Un nouvel ADN : injecter du contenu que Googlebot peut lire et comprendre

Le plus gros malentendu sur la résurrection d’un domaine, c’est l’idée qu’on peut recycler des textes d’archives en les reformulant à la va-vite. Si le contenu est un copier-coller amélioré, Google le traite comme du contenu dupliqué ou peu substantiel, et le site reste à l’état de zombie. Pour ressusciter, il faut produire une ossature sémantique neuve, avec des entités nommées fraîches, un maillage interne structuré et un balisage schema.org qui ne se limite pas à l’Article de blog.

Prenons l’exemple d’un magazine culinaire expiré dont on souhaite relancer l’audience. Plutôt que de republier les anciennes recettes, j’ai conseillé de créer des fiches recettes avec un balisage Recipe structuré, des temps de cuisson révisés, des liens vers des produits d’épicerie dotés de leurs propres entités. Le nouveau site a mis six mois à dépasser l’ancien trafic, mais quand c’est arrivé, les positions étaient stables et les Rich Snippets bien affichés. Ce travail de fond exige une réflexion sur l’état de l’application : à mesure que le contenu s’étoffe, la complexité du front peut exploser. Utiliser un gestionnaire d’état comme Zustand permet de ne pas retomber dans les travers d’un rendu client trop lourd qui ruinerait tous les efforts de Core Web Vitals. J’ai aussi vu des équipes perdre trois jours à corriger des problèmes d’hydratation sur un site Next.js tout neuf parce que chaque composant abusait du <Suspense>. La stabilité est un prérequis.

Questions fréquentes

Techniquement, oui, via un 301. Mais si la thématique est sans rapport, Google peut ignorer la redirection ou la dévaloriser. Un lien provenant d’un site de jardinage vers un site de prêt immobilier ne transmet qu’une infime partie de son autorité, voire aucune. Mieux vaut créer un contenu pertinent sur le domaine d’origine avant d’envisager un transfert.

Combien de temps faut-il pour qu’un domaine expiré retrouve des positions ?

Aucune règle. Avec un contenu solide, une performance technique irréprochable et une bonne gestion de l’index, on peut commencer à voir des améliorations en 4 à 8 mois. Mais certaines relances ne décollent jamais si l’historique du domaine est trop pénalisé (spam, pénalités manuelles non levées). Vérifiez toujours l’absence de sanctions manuelles dans la Search Console avant d’investir.

Faut-il recréer les anciennes URLs à l’identique ?

Pas forcément. Si l’ancienne structure était mal conçue, c’est le moment de la réformer. L’essentiel est de rediriger avec précision les anciennes URLs vers les nouvelles pages les plus proches sémantiquement. Une restructuration propre peut même améliorer le crawl et la compréhension du site par Googlebot.

Articles similaires

Julien Morel

Julien Morel

Ancien dev front React passé SEO technique après une migration e-commerce qui a fait perdre 60% du trafic organique à son employeur en une nuit (fichier robots.txt oublié en staging). Depuis, il écrit pour que ça n'arrive à personne d'autre et teste sur ses propres side-projects avant de publier quoi que ce soit.

Cet article est publie a titre informatif. Faites vos propres recherches avant toute decision.