Vous cherchez quelque chose ?

Google met à jour ses consignes aux éditeurs de sites


Après avoir annoncé l'évolution de son système d'indexation, Google met à jour ses consignes aux éditeurs de sites. Il est désormais recommandé d'autoriser le crawl des éléments CSS et JavaScript.


 Algorithme Google


GWT CSS et JavaScriptSur le Webmaster Central Blog, Google a récemment annoncé que son système d'indexation était en mesure d'interpréter les pages web comprenant des éléments CSS ou JavaScript aussi facilement qu'un navigateur récent. Le moteur vient ainsi de mettre à jour ses consignes à destination des éditeurs de sites. Pour une meilleure interprétation et indexation, il recommande d'autoriser Googlebot à accéder aux éléments JavaScript, CSS et fichiers images utilisés par les différentes pages. Empêcher le crawl de ces éléments dans le fichier robots.txt peut avoir un impact négatif sur la façon dont l'algorithme interprète et indexe le contenu d'un site. Le référencement peut ainsi être affecté.

Avec l'évolution des navigateurs et pratiques d'indexation, le référencement suit de nouvelles règles. Il faut dans tous les cas se rappeler que l'algorithme de Google ne supporte pas tous les éléments techniques d'une page. Le webmaster doit toujours s'assurer que le site réponde aux principes de l'amélioration progressive. Le crawl est de ce fait facilité puisque les bots de Google ainsi que ceux des autres moteurs ont accès aux contenus usuels et fonctionnalités basiques d'une page. Si le site ne répond pas à ces principes, il se peut que l'interprétation et l'indexation ne soient pas possibles.

En référencement, le temps de chargement d'une page est un atout essentiel. Il aide non seulement l'internaute à accéder plus facilement à un contenu, mais améliore également l'indexation. Il est donc souvent recommandé de mettre en oeuvre les différentes pratiques pour améliorer la performance d'une page : supprimer les contenus qui augmentent le temps de chargement tels que les widgets ou photos haute résolution et optimiser l'affichage des élements CSS et JavaScript. Dans le cas des CSS et JavaScript, il suffit de les relier et les compresser en prenant soin de configurer le serveur pour qu'il les présente de la sorte.

Il faut néanmoins s'assurer que le serveur soit en mesure de traiter ces informations supplémentaires. Pour aider les éditeurs de sites, Google a par ailleurs mis à jour la fonctionnalité Explorer comme Google et l'outil de test du fichier robots.txt. Les webmasters ont la possibilité de voir comment est interprété leur contenu et peuvent ainsi identifier les éventuels problèmes apparus sur une page. Il peut s'agir d'une mauvaise restriction robots.txt, d'une redirection non gérée par Googlebot ou d'autres choses. Au final, ces nouvelles consignes aux webmasters devront aider à améliorer l'interprétation et l'indexation d'un contenu pour optimiser son référencement.


Si vous ne trouvez pas la chronique correspondante à votre recherche, c'est peut-être l'occasion de la rédiger ;-)

Proposer ma chronique

Aimez-vous cet article ?

Nos réseaux préférés

Ajouter un commentaire