Vous cherchez quelque chose ?

Le dernier Panda : plus conciliant... et plus impartial


Déployée durant les dernières semaines de mai, la toute dernière mise à jour de Panda fait des émules.


 Algorithme Google


Un aperçu global des changements dans les SERP's tend à confirmer ce que beaucoup craignent depuis longtemps : le nouvel algorithme de Panda aurait tendance à déclasser certains sites généralistes et trop épars, en faveur des sites spécialisés, références dans leur domaine respectif. Qu'en est-il réellement ?

Même si personne ne sait exactement quelles sont les conséquences réelles de cet update, beaucoup ont d'ores et déjà constaté les changements apportés par cette MAJ, notamment sur les classements des sites dans les SERPs. Le premier constat est sans appel : contrairement aux versions précédentes, le nouveau Panda, 4.0 du nom, semble moins strict et plus « gentil ». Plutôt que d'infliger pénalité sur pénalité aux adresses contrevenant à ses propres règles SEO, la dernière mouture de Google Panda préfère déclasser et rétrograder.

Certains sites perdent ainsi jusqu'à une centaine de positions dans les rankings, dans les jours qui suivent l'implémentation de la mise à jour. Chose assez remarquable pour être signalée, le déclassement ne concerne pas uniquement les adresses peu connues ou très peu visibles sur le web. Le cadet des Pandas s'attaque également à de grands noms comme eBay et des sites très consultés comme Livescience.com. Dans le cas du géant américain du commerce en ligne, certains arguent que son recul dans les résultats est imputable à Payday Loan, un nouveau filtre antispam lancé presque au même moment que Panda 4.0. Le doute est permis, surtout que le déploiement simultané des deux mises à jour ne permet pas d'identifier clairement les fonctionnements et les rôles de chaque filtre.

Panda 4.0 Ebay

La qualité du contenu et la spécialisation mises en avant

Au-delà des tergiversations concernant l'impact réel de Google Panda 4.0 sur les classements des sites, une analyse minutieuse du contenu et de la présentation globale des sites affectés par la mise à jour permet de tirer quelques informations concernant le nouveau filtre. Certes, il serait peu aisé d'étudier au cas par cas les centaines ou les milliers d'adresses concernées. Un examen poussé de quelques sites – dont des sites généralistes et des sites spécialisés – suffit, pour le moment. Cette première comparaison permet déjà de dresser un aperçu préliminaire : la dernière mise à jour du moteur de recherche encense avant tout les sites avec des contenus de qualité. Même si ce point a le mérite d'être clair, la définition de « contenu de qualité » continue de diviser au sein même de la communauté SEO.

Au regard des changements aperçus dans les résultats de recherche, on peut toutefois placer une première description de ce qu'est un contenu de qualité selon Google Panda. Les résultats montrent en effet que pour un même mot-clé ou groupe de mots-clés, le nouvel algorithme favorise surtout les contenus indexés des sites spécialisés, qui fournissent des textes et des images à la fois uniques, bien présentés et accompagnés de références ou d'explications complètes et vraiment utiles. Ce principe correspond logiquement aux dires de Matt Cutts dans l'une de ses récentes interventions filmées.

Le chef de la Webspam Team de Google y affirme en effet que les internautes ne doivent pas s'appuyer sur les sites généralistes, traitant de façon générique plusieurs sujets – dont certains sont sensibles —, pour trouver les informations dont ils ont besoin. Ce conseil reste d'actualité, même si les adresses en question bénéficient d'une grande visibilité ou d'une solide notoriété sur internet. Matt Cutts recommande plutôt les sites spécialisés, qui proposent souvent des informations vérifiées, vérifiables et bien documentées.

Quid de l'organisation des informations ?

Google Panda 4.0 ne semble pas s'intéresser uniquement au contenu propre des sites. Certains résultats de recherche laissent penser que le nouveau filtre prendrait également en compte la structure et l'organisation des informations sur les sites. Des adresses ont ainsi perdu de nombreuses positions sur certains mots-clés, pour lesquelles elles consacrent uniquement des textes bruts, dépourvus de tout agencement facilitant leur assimilation par les internautes. A l'inverse, Panda 4.0 donne du crédit et des positions en plus aux sites, dont les contenus sont bien structurés dans des onglets, fenêtres et autres sous-catégories. Cela vaut même pour les contenus composés en grande partie d'objets non textuels tels des images ou des graphiques. Ces faits permettent de tirer au moins deux conclusions.

D'une, le dernier filtre de Google considère – souvent à juste titre – le bon agencement et la bonne structuration comme des signes visibles qu'un site fournit un contenu de qualité et complet. La présence de photos, d'onglets, de fenêtres, de graphiques ou d'explications supplémentaires sur un même sujet témoigne en effet d'une volonté de fournir aux lecteurs un maximum de données fiables tout en facilitant la navigation à travers les données.

La seconde conclusion, qui fait aussi office de contre-exemple, confirme que quelles que soient la richesse de contenus et l'excellence de la présentation, ces paramètres ne bonifient guère le positionnement d'un site que s'ils sont accompagnés de description et de mots-clés répondant exactement aux requêtes des utilisateurs. La structuration des réseaux de liens internes affecte de la même manière le positionnement d'un site dans les SERPs. Au final, ces caractéristiques, déjà présentes dans les versions précédentes de Google Panda, sont reprises et quelque peu améliorées dans la mise à jour 4.0.

Le poids de l'interaction avec les internautes

Dans le monde animal, le panda est un animal plutôt solitaire, dont les principales interactions avec ses congénères interviennent lors de l'accouplement ou de la nutrition. Même si dans ses premières versions, l'algorithme SEO de Google respecte cette spécificité, le filtre 4.0 semble déroger à la règle. Cet update accorderait selon toute vraisemblance une importance accrue à l'interaction des sites avec leurs utilisateurs dans les résultats de recherche. Depuis son lancement, certaines adresses auparavant mal classées, mais qui disposent d'une multitude d'outils pour les échanges entre internautes ou avec leurs lecteurs – forums, pages de réseaux sociaux, boutons Like, Share, etc. — se retrouvent propulsées en haut des résultats de recherche.

Le poids de l'interaction avec les internautes

Toutefois, aucune conclusion hâtive ne doit être formulée, au regard des déclarations répétées de Matt Cutts à ce sujet. Ce dernier maintient depuis plusieurs mois que le nombre de retweet, le nombre de « Like » ou de commentaires d'un article n'impactent pas outre mesure le classement d'un article dans les SERPs. Le même postulat concerne les sites dotés de pages Facebook ou Twitter suivies par un grand nombre d'internautes. Les bouleversements observés depuis l'arrivée de Google Panda 4.0 tendraient pourtant à prouver le contraire. Mieux vaut dès lors attendre une confirmation ou une infirmation de la firme de Mountain View à ce sujet, d'autant plus que le déploiement de la mise à jour n'arrive pas encore à son terme.

Les mêmes lacunes ciblées par Panda 4.0

L'arrivée de Google Panda 4.0 n'a pas fait que des heureux. Plusieurs sites ont vu leur positionnement dans les SERP sur certains mots-clés dégringoler du jour au lendemain. Même si on ne peut pas toujours identifier avec certitude les raisons de ces déclassements, des points majeurs sont à noter. En consultant quelques-unes des adresses ainsi rétrogradées par la nouvelle mise à jour, on aperçoit assez rapidement les non-conformités de leurs contenus et de leurs présentations aux codes de la bonne conduite SEO selon Google. Autrement dit, les sites les plus touchés sont ceux qui affichent des contenus pauvres, peu originaux et surtout trop génériques. De manière assez logique, de telles informations ne devraient pas franchement contribuer au bon positionnement de ces sites avec le nouvel algorithme Panda. Ces pratiques étant déjà surveillées de près, voire pénalisées dans les précédentes versions, on imagine assez facilement qu'elles sont également sanctionnées dans la récente mise à jour. La désapprobation du grand Panda ne peut être que plus compréhensible si les contenus sont générés automatiquement – avec les logiciels de content spinning ou en piochant dans les données d'autres sites —, ou s'ils résultent d'un duplicate content ou d'une banale reformulation.

Le Panda 4.0 en faveur des sites référents dans leur domaine ?

Ces informations réunies en disent un peu plus sur le fonctionnement de Panda 4.0, même si Google paraît déterminé à dissimuler les véritables finalités de l'algorithme. Les faits montrent d'une façon assez claire que le nouveau filtre « apprécie » particulièrement les adresses aux contenus riches, originaux, bien documentés et fournissant références et explications supplémentaires assez complètes. Ces sites disposent souvent de bannières ou autres structures facilitant le partage des informations entre les utilisateurs ou l'interaction entre les internautes et les administrateurs/modérateurs – dans les forums ou sur les pages de réseaux sociaux, notamment. Quels sont les sites capables de répondre à de telles exigences ? En y regardant de près, seuls les sites spécialisés, gérés ou administrés par des individus maîtrisant leur sujet et à même de répondre aux recherches des utilisateurs, remplissent ces critères. Force est alors d'en conclure que la MAJ Panda 4.0 pourrait bien être le filtre de Google destiné essentiellement à replacer les sites spécialisés et fiables en haut des résultats de recherche, au détriment des plateformes (trop) généralistes et (trop) bien référencées, même si ces dernières bénéficient déjà d'une grande visibilité sur le Web.


Si vous ne trouvez pas la chronique correspondante à votre recherche, c'est peut-être l'occasion de la rédiger ;-)

Proposer ma chronique

Aimez-vous cet article ?

Nos réseaux préférés

Ajouter un commentaire