Mon site a perdu du trafic Google : que faire ?
- Une baisse de trafic Google peut avoir des dizaines de causes différentes, et il faut d’abord confirmer qu’elle est réelle avant de paniquer.
- Google Search Console est votre meilleur allié pour identifier la source du problème.
- Les mises à jour d’algorithme, les erreurs techniques et la perte de backlinks sont les trois causes les plus fréquentes.
- La date exacte de la chute est une information cruciale : elle oriente tout le diagnostic.
- Le délai de récupération varie de quelques jours à plusieurs mois selon la nature du problème.
- Dans certains cas complexes, faire appel à un consultant SEO est la décision la plus rentable.
Je vais être honnête avec vous : il n’y a pas de situation plus stressante, pour un propriétaire de site web, que d’ouvrir ses statistiques un matin et de constater une chute brutale de trafic. Le genre de chute qui fait froid dans le dos, qui remet en question des mois de travail, et qui génère une foule de questions anxiogènes. Pourquoi ? Depuis quand ? Est-ce que je vais récupérer mes positions ? Est-ce que j’ai fait quelque chose de mal ?
Je connais ce sentiment, et je peux vous dire une chose rassurante : dans la grande majorité des cas, une baisse de trafic Google est diagnosticable, et donc traitable. Ce n’est pas une fatalité. C’est un problème à résoudre, méthodiquement, sans précipitation. Dans cet article, je vous guide à travers un protocole complet, du premier constat jusqu’aux actions correctives, en passant par les causes les plus probables. Accrochez-vous, on y va.

Première étape : confirmer la baisse (et éviter les fausses alertes)
Avant de vous lancer dans un audit frénétique de votre site, je vous recommande vivement de commencer par une chose simple : vérifier que la baisse est réelle. Cela peut sembler évident, mais vous seriez surpris du nombre de personnes qui passent des heures à chercher un problème SEO alors que la vraie cause est un dysfonctionnement de leur outil de mesure.
Vérifier dans Google Search Console vs Google Analytics
Ces deux outils ne mesurent pas la même chose, et c’est précisément ce qui les rend complémentaires. Google Analytics mesure les sessions et les utilisateurs sur votre site, tandis que Google Search Console mesure les impressions et les clics depuis les résultats de recherche Google. Je vous conseille de les consulter simultanément pour croiser les données.
Si votre trafic chute dans Google Analytics mais reste stable dans la Search Console, le problème n’est probablement pas lié à votre référencement. Il peut s’agir d’une baisse de trafic social, direct, ou d’une défaillance dans le suivi. À l’inverse, si la chute apparaît dans les deux outils, le signal est bien organique, et il faut creuser.
Distinguer une baisse réelle d’un problème de tracking
Voici quelques scénarios trompeurs que j’ai rencontrés fréquemment et qui peuvent simuler une baisse de trafic sans qu’il y en ait vraiment une :
- Un snippet de Google Analytics mal installé ou supprimé par erreur lors d’une mise à jour du thème.
- Un filtre de vue mal configuré dans Google Analytics 4, qui exclut une partie du trafic.
- Une migration vers GA4 mal réalisée, avec une rupture dans la continuité des données.
- Un plugin de cache qui bloque le chargement des scripts de tracking.
Pour valider l’intégrité de votre tracking, utilisez l’extension Chrome « Tag Assistant » de Google, ou vérifiez en temps réel dans GA4 que les visites s’enregistrent correctement lorsque vous naviguez vous-même sur le site.
Identifier la période exacte de la chute
Cette étape est, à mon sens, la plus sous-estimée de tout le processus. La date exacte à laquelle le trafic a commencé à chuter est une information d’une valeur inestimable. Elle va vous permettre de corréler la baisse avec un événement précis : une mise à jour de Google, une modification technique sur votre site, la publication ou la suppression d’un contenu.
Dans Google Search Console, allez dans « Performances » et sélectionnez une plage de 16 semaines. Observez précisément à quel moment la courbe commence à infléchir. Notez cette date, elle va devenir votre boussole pour toute la suite du diagnostic.
Les causes les plus fréquentes, classées par probabilité
Une fois la baisse confirmée et la date identifiée, on peut passer à l’étape suivante : trouver le coupable. J’ai volontairement classé ces causes par ordre de probabilité décroissante, sur la base de ce que j’observe le plus souvent dans mes analyses. Bien entendu, chaque site est un cas particulier, et plusieurs causes peuvent se combiner.
Si votre site a perdu du trafic Google, il est crucial de déterminer s’il s’agit d’un site penalized by Google.
Une mise à jour d’algorithme Google
C’est, de loin, la cause la plus fréquente. Google déploie des centaines de mises à jour par an, dont plusieurs « Core Updates » majeures qui peuvent reclasser massivement les résultats de recherche. Depuis 2022, la « Helpful Content Update » a particulièrement maltraité les sites dont le contenu était perçu comme superficiel, automatisé ou essentiellement rédigé pour les moteurs plutôt que pour les humains.
Une perte de trafic Google peut être causée par un update Google, il faut donc savoir comment réagir dans ce cas.
Si votre site a perdu du trafic Google, il est possible que cela soit lié à une refonte, il faut donc savoir que faire.
Mon avis là-dessus est tranché : si vous avez été touché par une Core Update, c’est rarement une sanction arbitraire. C’est le signal que Google envoie pour vous dire que votre contenu ne répond pas suffisamment bien aux attentes des internautes sur vos sujets. La solution n’est pas technique, elle est éditoriale.
Une pénalité manuelle
Moins fréquente qu’une mise à jour algo, mais beaucoup plus radicale dans ses effets. Une pénalité manuelle est infligée par un employé de Google, manuellement, après vérification que votre site enfreint les consignes aux webmasters. Les causes les plus courantes sont les pratiques de netlinking manipulatrices, le contenu dupliqué, ou le cloaking.
Pour savoir que faire quand mon site a perdu du trafic Google, il faut d’abord comprendre si c’est un update Google.
La bonne nouvelle, c’est que les pénalités manuelles sont immédiatement visibles dans Google Search Console, dans la section « Actions manuelles ». Si vous n’y voyez rien, vous n’avez pas de pénalité manuelle. Simple et clair.
Des pages désindexées ou bloquées par erreur
Voici une cause qui arrive plus souvent qu’on ne le croit, et qui est souvent le fruit d’une inadvertance lors d’une mise à jour du site. Une balise « noindex » ajoutée par erreur sur des pages importantes, un fichier robots.txt mal configuré qui bloque Googlebot, ou un paramètre de confidentialité activé sur WordPress qui empêche l’indexation, peuvent tous provoquer une chute de trafic significative.
Je vous conseille de vérifier en priorité l’URL de votre robots.txt (votresite.fr/robots.txt) pour vous assurer qu’il ne contient pas de directive « Disallow: / » intempestive, et de contrôler via la Search Console que vos pages principales sont bien indexées.
La perte de backlinks importants
Les backlinks, ce sont les liens entrants qui pointent vers votre site depuis d’autres domaines. Ils constituent l’un des signaux de confiance les plus puissants aux yeux de Google. Si un site référent important a fermé, a supprimé votre lien, ou a lui-même été pénalisé, votre autorité de domaine peut en pâtir, et vos positions avec.
Des outils comme Ahrefs ou Semrush vous permettent de surveiller votre profil de liens et d’identifier les backlinks récemment perdus. C’est un diagnostic que j’effectue systématiquement lors d’une baisse inexpliquée.
Des concurrents qui ont renforcé leur positionnement
Parfois, votre site n’a rien fait de mal. C’est simplement un concurrent qui a produit un contenu meilleur que le vôtre, obtenu plus de liens, ou amélioré son expérience utilisateur. Dans ce cas, vous n’avez pas chuté parce que vous avez régressé, mais parce que quelqu’un d’autre a progressé. C’est une nuance importante, car elle oriente vers une stratégie de renforcement plutôt que de correction.
Un problème technique récent
Une migration de domaine, un passage en HTTPS mal exécuté, une refonte du site avec modification des URLs sans redirections 301, ou une dégradation des Core Web Vitals suite à l’installation d’un nouveau plugin lourd : tous ces événements peuvent provoquer une baisse substantielle et rapide du trafic organique.
La corrélation avec la date de la chute est ici particulièrement parlante. Si votre trafic a plongé le jour même où vous avez lancé votre refonte, le diagnostic est quasi certain.
Du contenu supprimé ou fortement modifié
Supprimer des pages bien positionnées, modifier en profondeur un contenu qui rankait, ou fusionner plusieurs articles en un seul sans précaution : voilà des opérations éditoriales qui peuvent faire mal si elles sont mal anticipées. J’ai vu des sites perdre 30 % de leur trafic en quelques semaines après avoir « nettoyé » leur blog en supprimant des articles jugés obsolètes, sans vérifier au préalable s’ils généraient du trafic.
| Symptôme observé | Cause probable | Où vérifier |
|---|---|---|
| Chute soudaine sur tout le site, sans modification récente | Mise à jour d’algorithme Google | Google Search Status Dashboard, Search Console |
| Disparition quasi totale du site des résultats | Pénalité manuelle ou désindexation | Search Console > Actions manuelles / Couverture |
| Chute le jour d’une mise en production | Problème technique (redirections, noindex, robots.txt) | robots.txt, balises meta robots, GSC > Couverture |
| Baisse progressive sur plusieurs semaines | Pression concurrentielle ou perte de backlinks | Ahrefs / Semrush, analyse des SERP sur les KW cibles |
| Baisse sur des pages récemment modifiées ou supprimées | Modification éditoriale mal anticipée | Historique des modifications, redirections 301 |
Comment identifier précisément la cause : le protocole de diagnostic
Maintenant que vous avez une liste de suspects, il est temps de mener l’enquête de manière rigoureuse. Je vais vous donner le protocole que j’applique personnellement lorsque j’analyse une baisse de trafic. L’ordre a son importance : il permet d’éliminer les hypothèses les plus simples avant de s’attaquer aux plus complexes.
Analyser les pages et mots-clés affectés
La première question à se poser n’est pas « pourquoi mon trafic a baissé ? » mais « quelles pages ont perdu du trafic, et sur quels mots-clés ? ». Cette granularité est fondamentale. Une baisse globale peut en réalité se concentrer sur 10 % de vos pages, ce qui est très différent d’une chute homogène sur l’ensemble du site.
Dans Google Search Console, allez dans « Performances », comparez deux périodes (avant et après la chute), et triez les pages par différence de clics. Vous obtiendrez immédiatement une cartographie des pages sinistrées. Faites de même avec l’onglet « Requêtes » pour identifier les mots-clés perdus.
Croiser la date de chute avec les annonces Google
Google publie un calendrier de ses mises à jour majeures sur le Google Search Status Dashboard (search.google.com/search-status/dashboard). Comparez la date de votre chute avec les annonces officielles. Si votre trafic a commencé à baisser le 5 mars et qu’une Core Update a été déployée le 3 mars, la probabilité d’une corrélation est très élevée.
Des sites comme Search Engine Roundtable (Barry Schwartz) sont également d’excellentes ressources pour suivre les fluctuations algorithmiques non officielles, souvent détectées par la communauté SEO avant même les annonces de Google.
Auditer l’indexation avec site: et la Search Console
Tapez « site:votredomaine.fr » dans Google et observez le nombre de pages indexées. Si ce nombre a drastiquement diminué depuis votre dernière vérification, vous avez probablement un problème d’indexation. Croisez cela avec les rapports « Couverture » et « Sitemaps » dans la Search Console pour identifier les URLs exclues ou en erreur.
Les erreurs 404 en masse, les redirections en boucle, ou les pages en « noindex » non intentionnel sont des signes caractéristiques qu’il faut traiter en urgence.
Contrôler les Core Web Vitals et les signaux techniques
Depuis que Google a intégré les Core Web Vitals comme facteur de classement, la performance technique d’un site a un impact direct sur son référencement. Si votre LCP (Largest Contentful Paint), votre CLS (Cumulative Layout Shift) ou votre INP (Interaction to Next Paint) ont dégradé suite à une mise à jour, vous pouvez perdre des positions, notamment sur mobile.
Consultez le rapport « Expérience de la page » dans la Search Console et l’outil PageSpeed Insights pour obtenir une évaluation objective de la performance de votre site. Ce n’est jamais la seule cause d’une baisse, mais c’est souvent un facteur aggravant.
Que faire une fois la cause identifiée ?
Le diagnostic est posé. Passons maintenant aux remèdes. Et je vais être direct avec vous : il n’existe pas de solution universelle. La bonne action dépend entièrement de la cause identifiée. Voici ce que je vous recommande selon chaque scénario.
Si c’est une mise à jour d’algorithme
C’est le cas le plus délicat, car il n’y a pas de correction rapide. Une mise à jour algo ciblant la qualité du contenu demande une réévaluation en profondeur de votre stratégie éditoriale. Mon conseil, ici, est de vous poser honnêtement ces questions : est-ce que mes articles apportent une vraie valeur ajoutée par rapport à ce qu’on trouve déjà sur Google ? Est-ce que je réponds réellement aux questions de mes lecteurs, ou est-ce que je remplis des pages pour exister dans les SERPs ?
Les actions concrètes à entreprendre sont les suivantes : enrichir les contenus les plus touchés avec plus de profondeur, d’exemples concrets et d’expertise démontrable ; supprimer ou consolider les contenus de faible valeur ; renforcer vos signaux E-E-A-T (Expérience, Expertise, Autorité, Fiabilité) en montrant votre légitimité sur les sujets traités.
Si c’est une pénalité manuelle
La procédure est codifiée : vous devez d’abord corriger le problème à l’origine de la pénalité (supprimer les liens non naturels, dédupliquer le contenu, etc.), puis soumettre une demande de reconsidération via Google Search Console. Soyez transparent et précis dans votre demande : expliquez ce que vous avez fait de mal, ce que vous avez corrigé, et pourquoi vous ne recommencerez pas. Google examine ces demandes manuellement, et le délai de réponse peut aller de quelques semaines à plusieurs mois.
Si c’est un problème technique
C’est, paradoxalement, la situation la plus simple à résoudre, car les actions sont clairement définies. Voici une checklist des corrections prioritaires :
- Vérifier et corriger le fichier robots.txt.
- Supprimer les balises « noindex » non intentionnelles.
- Mettre en place des redirections 301 sur toutes les URLs modifiées.
- Corriger les erreurs 404 et les redirections en chaîne.
- Optimiser la vitesse de chargement et les Core Web Vitals.
- S’assurer que le sitemap XML est à jour et soumis dans la Search Console.
Une fois les corrections effectuées, soumettez les URLs concernées à la réindexation via l’outil « Inspection d’URL » dans la Search Console. Google ne reviendra pas de lui-même indexer vos pages corrigées du jour au lendemain : il faut l’inviter.
Si c’est un problème éditorial
Si vous avez supprimé ou dégradé des contenus qui rankaient, la solution est généralement de les restaurer ou de les recréer. Si vous les avez supprimés définitivement, vérifiez si le cache Google ou la Wayback Machine (archive.org) vous permet de récupérer une version antérieure. Pour les contenus simplement appauvris, un travail de réenrichissement substantiel est nécessaire.
En parallèle, mettez en place une discipline de vérification avant toute modification éditoriale majeure : consultez systématiquement le trafic organique d’une page dans la Search Console avant de la modifier, de la fusionner, ou de la supprimer.
Si c’est la pression concurrentielle
Dans ce cas, le travail est stratégique plutôt que correctif. Analysez les pages qui vous ont dépassé : sont-elles plus longues, mieux structurées, plus récentes, plus riches en médias ? Quel est leur profil de liens ? Qu’est-ce qu’elles apportent que vous n’apportez pas ? Répondre à ces questions vous donnera une feuille de route pour reprendre l’ascendant sur ces positions.
Combien de temps faut-il pour récupérer son trafic ?
C’est la question que tout le monde pose, et je comprends pourquoi. Malheureusement, il n’existe pas de réponse universelle. Le délai de récupération dépend entièrement de la nature du problème, de la rapidité avec laquelle vous le traitez, et de la réactivité de Google. Voici, cependant, les fourchettes que j’observe dans la pratique.
| Type de problème | Délai de récupération estimé | Facteurs influençants |
|---|---|---|
| Problème technique (noindex, robots.txt, redirections) | Quelques jours à 3 semaines | Fréquence de crawl de votre site par Google |
| Pénalité manuelle (après reconsidération acceptée) | 4 à 12 semaines | Délai d’examen de la demande par Google |
| Mise à jour d’algorithme (travail éditorial) | 3 à 12 mois | Ampleur des améliorations, prochaine mise à jour Core |
| Pression concurrentielle (renforcement éditorial) | 2 à 6 mois | Investissement en contenu et en netlinking |
| Perte de backlinks (reconstruction du profil) | 3 à 9 mois | Stratégie de link building mise en place |
Je tiens à vous dire quelque chose d’important à ce sujet : la patience est une vertu cardinale en SEO. J’ai accompagné des sites qui ont mis 9 mois à se remettre d’une Core Update, et qui ont finalement retrouvé un trafic supérieur à leur niveau d’avant la chute. Abandonnez l’idée d’une récupération instantanée, et concentrez-vous sur la régularité de vos actions correctives. C’est ce qui fait la différence sur le long terme.
Quand faire appel à un consultant SEO ?
Cette question mérite une réponse honnête, loin de tout discours commercial. Il y a des situations où l’autodiagnostic est tout à fait suffisant, notamment pour des problèmes techniques simples ou une mise à jour éditoriale ciblée. Mais il y a des cas où persister seul peut vous coûter plus cher, en temps et en trafic perdu, que de déléguer à un spécialiste.
Voici les signaux qui indiquent, à mon sens, qu’il est temps de faire appel à un professionnel :
- Vous avez appliqué les corrections évidentes mais le trafic continue de chuter depuis plus de 3 mois.
- Votre site a subi une migration complexe (changement de domaine, refonte totale) mal anticipée.
- Vous n’arrivez pas à identifier la cause malgré un diagnostic approfondi.
- Votre site génère un chiffre d’affaires significatif et chaque semaine de baisse a un impact financier concret.
- Vous avez reçu une pénalité manuelle et vous ne savez pas comment formuler la demande de reconsidération.
- Vous suspectez un problème d’indexation complexe ou une architecture de site défaillante.
Un bon consultant SEO ne va pas simplement vous dire ce qui ne va pas. Il va vous aider à prioriser les actions selon leur impact potentiel, à éviter les erreurs coûteuses, et à construire une stratégie de reconquête durable. C’est un investissement, pas une dépense.
Ce qu’il faut retenir avant tout
Perdre du trafic Google est une épreuve, je ne vais pas vous le cacher. Mais c’est aussi, très souvent, une opportunité de comprendre en profondeur ce qui fait la valeur réelle de votre site aux yeux de Google et de vos utilisateurs. Les sites qui traversent ces crises en sortent généralement avec une meilleure compréhension de leur SEO, et une stratégie plus solide.
Le fil conducteur de tout ce que je vous ai partagé dans cet article, c’est la méthode. Ne réagissez pas dans l’urgence, ne modifiez pas tout en même temps, ne prenez pas de décisions sans données. Confirmez la baisse, identifiez la date, trouvez la cause, appliquez la correction adéquate, et mesurez les effets. C’est aussi simple, et aussi exigeant, que cela.
Si vous avez des doutes sur votre diagnostic ou si vous souhaitez un regard extérieur sur la situation de votre site, n’hésitez pas à me contacter. Je me ferai un plaisir d’analyser votre cas avec vous.
Personalized, no-obligation analysis, response within 24/48 hours with 3-5 concrete quick wins.
150 entrepreneurs have already put their trust in us
🔒 Your data is never shared with third parties
