Petite révolution dans le monde du SEO. Google annonce la fin de la prise en compte du No Index, à compter du 1er septembre 2019. Objectif de cette considération, standardiser son propre protocole d’interprétation, développé depuis plus de 25 ans. Quel impact sur vos stratégies SEO ? Par quoi remplacer le No Index ?
No Index, une veille habitude SEO…
Bien qu’il n’ait jamais été adoubé par Google, l’usage du No Index est plus que légion pour bloquer l’indexation de certaines pages. Ainsi, celui-ci est régulièrement utilisé, par les référenceurs, pour désindexer massivement des url.
Et bien, désormais, Google dit stop, précisant dans son communiqué officiel « Les moteurs de recherche ne peuvent indexer que les pages qu’ils connaissent, donc bloquer la page pour éviter qu’elle ne soit explorée signifie généralement que son contenu ne sera pas indexé. »
Parallèlement, Google indique que le fichier robot.txt est, lui, destiné à la gestion du crawl. Pas à l’indexation. Une « mauvaise » habitude à laquelle Google apporte une réponse en intégrant Github, capable, en open source, d’interpréter toutes les règles du fichier robot.txt.
La fin du No Index, quel impact SEO ?
Concrètement, l’application de cette nouveauté d’ici moins de 2 mois, invite à revoir ses bonnes pratiques SEO. Et surtout, le contenu de son fichier robot.txt. A noter, si votre No Index est couplé avec un Disallow, qui bloque le crawl, alors cette nouvelle n’est pas déterminante. En revanche, les autres devront revoir leur copie.
Intéressant également, l’ouverture du fichier robot.txt à d’autres protocoles, qui permettra notamment de stocker en cache le fichier, même si le site est indisponible.
Comment faire sans No Index ?!
A compter du 1er septembre, Google vous invite à basculer vers l’une des 5 méthodes suivantes pour remplacer l’usage habituel du No Index
- Placez votre No Index dans les balises meta robots
- Intégrez un code d’erreur d’état http 404 et 410, qui indique à Google que la page n’existe pas et donc ne sera pas indexée
- Utilisez un mot de passe : cachée derrière un login, une page n’est généralement pas indexée
- Ajoutez Disallow à votre robot.txt, qui bloquera l’exploration de la page, et donc, son indexation
- Supprimez l’url de la page directement dans Search Console, facile et pratique pour une désindexation temporaire.
En cas de doute, contactez votre Account Manager SEO JVWEB 😉