Vous cherchez quelque chose ?

Google apporte quelques éclaircissements sur Panda 4.0 et les sites bloquant le CSS&JS


Cet article a été revu et mis à jour la dernière fois le 30 Août 2017 à 21:49

Bloquer le CSS et le JavaScript serait-il un obstacle au référencement ? C'est en tout cas ce que laissent penser certaines théories SEO. Par la voix de John Mueller, Google apporte plus de détails sur le sujet.

Panda 4.0 pénalise le blocage des contenus CSS et JavaScript : mythe ou réalité ?

Les sites bloquant les contenus CSS et JavaScript seraient particulièrement visés par Panda 4.0. S'il ne s'agissait initialement que d'une théorie, nombreux sont toutefois les sites à avoir fait état d'un regain de visibilité dès lors qu'ils autorisaient l'accès de Googlebot à ces contenus. Un récent article mentionnait d'ailleurs la relation entre le blocage du CSS&JS et la perte de positionnement. Google n'a annoncé aucune pénalité allant dans ce sens pour son nouvel algorithme, mais certaines études SEO apportent plus de détails sur le sujet.

Panda 4.0 pénalise le blocage des contenus CSS et JavaScript : mythe ou réalité ?

On remarque ainsi que certains sites pénalisés présentaient du contenu CSS et JavaScript dont l'accès était bloqué aux robots d'indexation. Il a cependant suffi d'autoriser le crawl du contenu pour qu'ils retrouvent leur positionnement dans les pages de résultats. Sur Google Webmaster Help, un éditeur de site a ainsi demandé s'il existait réellement une relation entre les pénalités Panda et les contenus CSS&JS. John Mueller s'est alors contenté de répondre que l'accès à ces contenus facilitait le travail des robots et permettait à Google de positionner un site. Il n'a toutefois pas apporté de réponse précise quant à l'éventuel lien entre les pénalités et le blocage du CSS et du JavaScript.

Le CSS&JS aide Google à reconnaître le contenu d'un site

Dans sa réponse, John Mueller affirme que le CSS&JS aide Google à reconnaître le contenu d'un site et joue donc un rôle dans le positionnement au niveau des SERP. Il conseille ainsi aux webmasters de ne pas bloquer leur accès. On se rappelle d'ailleurs que Matt Cutts avait déjà recommandé la même chose il y a plusieurs mois : il avait alors posté une vidéo affirmant que les feuilles de style ainsi que les codes JavaScript aidaient les robots à l'analyse d'un site et à la collecte d'informations.

Les algorithmes de Google collectent toutes les données pouvant servir à proposer les résultats les plus pertinents aux internautes. Les codes JavaScript sont par exemple explorés afin d'en extraire des liens et d'autres informations utilisées par Google. Il en est de même pour le CSS, utilisé dans la création de sites responsive design. Le blocage du crawl dans le fichier robots.txt affecte ainsi l'analyse de la présentation et du contenu d'une page. En résumé, il recommande d'autoriser l'accès au contenu CSS et JavaScript, autant pour des raisons pratiques que pour le référencement.


Si vous ne trouvez pas la chronique correspondante à votre recherche, c'est peut-être l'occasion de la rédiger ;-)

Proposer ma chronique

Aimez-vous cet article ?

Nos réseaux préférés

Sur le même sujet

Ajouter un commentaire