Pas de panique, il peut y avoir plusieurs raisons à ce problème, ci-dessous les raisons courantes ou des cas plus rares que j’ai pu observer lors de mes prestations.

1) Votre site est récent

Dans ce cas, il se peut que Google n’ait pas encore trouvé votre site. Pour demander son indexation, créez un compte sur Google Search Console et soumettez votre sitemaps. Votre site devrait être indexé très rapidement.

2) Votre site a été pénalisé

C’est souvent la première raison à laquelle on pense, cependant un site totalement désindexé par Google ce n’est pas si courant. En dix ans, je n’ai jamais été confronté à ce cas. Les sites pénalisés le sont car ils ne respectent pas les règles de Google et cherchent à manipuler sciemment ses résultats.

Si votre site existe depuis un moment et que d’un coup en tapant son url dans Google vous ne voyez plus aucune de vos pages, alors il a certainement écopé d’une pénalité.

La première chose à faire dans ces là, c’est de se rendre dans la Google Search Console (n’attendez pas ces cas pour la configurer) et vérifier les messages laissés dessus et vérifiez l’onglet « Actions manuelles » (dans sécurité et actions manuelles).

Si vous avez respecté les règles de Google, il se peut que vous soyez victime de « Negative SEO », c’est à dire qu’un concurrent utilise des techniques pour faire croire à Google que vous cherchez à truquer ses résultats.

Mais de manière générale, avant d’être totalement désindéxé votre indexation régresse au fur et à mesure, une désindexation totale est rarement due à une pénalité.

3) Une erreur technique

Ce cas est bien plus courant que celui de la pénalité.

Il se peut notamment que par erreur vous ayez demandé aux moteurs de recherche de ne pas indexer votre site.

Ca peut arriver lors d’une migration, si votre développeur utilise des options pour bloquer les moteurs de recherche pendant le développement et qu’il oublie de les enlever.

Vérifiez dans le fichier robots.txt qu’il n’y a pas une requête de ce type :

User-agent: *

Disallow: /

Et vérifiez qu’il n’y ait pas de balise <meta name=”robots” content=”noindex”> dans le code source de vos pages.

Si vous utilisez WordPress, allez dans l’onglet Réglages => Lecture et tout en bas vérifiez que la case à côté du texte « Demander aux moteurs de recherche de ne pas indexer ce site » ne soit pas cochée.

4) Mobile first index

Depuis quelques années maintenant, Google indexe de manière différenciée les pages mobiles et les pages qui ne sont pas optimisées pour le mobile. Il a une préférence pour les pages mobiles.

Pour des clients j’ai pu observer que certaines de leurs pages n’étaient pas correctement indexées si elles avaient des erreurs mobiles identifiées sur Google Search Console.

5) Contenu dupliqué ou de faible qualité

Si vous avez trop de contenu dupliqué sur votre site, Google peut décider de ne pas indexer les pages incriminés.

Quelques cas spéciaux que j’ai pu observer :

– Un client dont toutes les pages étaient indexées, sauf la page d’accueil. Son site était récent, il l’avait ajouté dans un annuaire qui avait dupliqué son contenu, Google a considéré que la page référente pour ce contenu était l’annuaire.

– Un autre client dans le secteur de l’affiliation et du dropshipping qui reprenait le contenu de la plate forme sans le personnaliser, son contenu par conséquent n’était pas indexé.

– Un autre client a du faire face à du plagiat, cependant certains des contenus dont il était l’auteur étaient défavorisés par rapport au plagiaire.

Les outils pour analyser une désindexation

Pour analyser et trouver les erreurs liées à la désindexation, voici les outils qui me sont généralement utiles :

Google Search Console : pour travailler correctement votre SEO, vous devez configurer la Search Console. Elle permet de recevoir les alertes Google et de faire le suivi de votre indexation.

Google Analytics ou Matomo : les outils statistiques sont également très utiles pour trouver la source des erreurs. Ca permet par exemple de voir la période où a commencé la désindexation et d’autres données utiles.

Semrush : Semrush est un puissant outil pour le SEO qui fournit de nombreuses données. Il permet par exemple dans notre cas de vérifier si il n’y pas un afflux de liens toxiques (ce qui est typique d’une attaque de negative SEO). Semrush permet aussi de détecter facilement de nombreuses erreurs techniques.

Copyscape : cet outil vous permet de tester si une page ou un contenu a été plagié. Vous pouvez faire une analyse sur l’ensemble des pages d’un site avec la version payante de copyscape.