Vous cherchez quelque chose ?

Panda 4.0 pénalise les sites bloquant le CSS et le JavaScript

Temps de lecture estimé : 1 m 21 sec

Depuis l'arrivée de Panda 4.0, certains sites ont connu une perte de visibilité dans les pages de résultats de recherche Google. Ceux contenant du langage CSS ou JavaScript semblent particulièrement concernés.

Article complèmentaire à lire sur ce sujet  

Panda 4.0 : les sites bloquant l'accès au contenu CSS et JavaScript particulièrement touchés

Panda 4 CSS JavaScriptUn blogueur de Yoast.com a récemment publié un article faisant la lumière sur les pénalités infligées par Panda 4.0. La mise à jour de l'algorithme semble particulièrement viser les sites bloquant l'accès à leurs contenus en CSS et JavaScript. Il suffit en effet d'autoriser les robots à crawler ces contenus pour regagner sa visibilité dans les pages de résultats. Il faut cependant savoir que les fichiers CSS et le JavaScript diminuent la rapidité d'exécution d'un site et peuvent être un frein à la qualité de l'expérience utilisateur. Les éditeurs de sites choisissent ainsi d'interdire leur crawl afin de faciliter l'indexation des pages. Si les sites sont nombreux à respecter les recommandations de Google et à s'aligner sur les techniques SEO white hat, ils négligent toutefois l'impact que peuvent avoir le CSS et le JavaScript sur leur référencement. Le moteur de recherche recommande en effet de ne pas interdire leur accès aux robots.

Comment retrouver son positionnement ?

Pour retrouver son positionnement initial, il faut autoriser l'accès des robots d'indexation aux contenus CSS et JavaScript. Ce n'est toutefois qu'au prochain crawl que l'algorithme peut détecter la présence ou non de ceux-ci. La période d'attente peut ainsi être plus ou moins longue en fonction de la fréquence de passage des robots. Bien qu'il n'existe pas de tests officiels démontrant cette éventualité, il est certain qu'un site retrouvera sa visibilité dès lors que cette démarche aura été effectuée. Google n'a par ailleurs jamais cessé de recommander aux éditeurs de sites web de ne pas bloquer l'accès de Googlebot aux fichiers CSS et JavaScript. Le dernier SMX Advanced a même été l'occasion de le rappeler une fois de plus. Les sites ayant autorisé le crawl de leurs fichiers CSS et JavaScript ont d'ailleurs retrouvé leur positionnement dans les SERP en quelques jours.

Si vous souhaitez reprendre un extrait de cet article sur votre blog ou votre site internet, veuillez respecter les conditions d'utilisation de la partie communautaire Seolius.

Aimez-vous cet article ?

Partager cet article

Ajouter un commentaire

Commentaires (6)

  • Christophe Chaudey - Consultant Stratégie Digitale
    Christophe Chaudey

    N'y aurait-il pas aussi une volontée de Google de vérifier que les sites n'utilisent pas des pratiques black hat pour dissimuler des choses aux moteurs ? Merci en tout cas pour cet article pertinent.

    juin 24, 2014
  • freelance seo
    pulSEOfhealth

    Est il possible d'avoir des exemples de sites qui sont sortis d'une pénalité en autorisant simplement le crawl de leur CSS ? Même si je comprends qu'il est dans l'intérêt de Google de tout voir, une pénalité me semble un peu sévére pour ce genre de pratique.

    juin 24, 2014
  • Seolius Europe
    Seolius

    Geoffrey, en effet il n'y a pas encore de véritables résultats par rapport à cela. Toutefois, il semblerait que iPhoned.nl a été frappé par une pénalité de ce genre. Yoast démontre les récupérations suite à ces optimisations. Ce qui va être intéressant, c'est que jusqu'à aujourd'hui, Seolius.com bloquait aussi les CSS et les JS, attendons de voir si nous allons progresser dans les SERPs.

    juin 24, 2014