Vous cherchez quelque chose ?

Déploiement à grande échelle de Google Knowledge Graph, à quoi s’attendre ?


Cet article a été revu et mis à jour la dernière fois le 15 Mai 2017 à 14:01

Lancé en 2012, Google Knowledge Graph est désormais présent à grande échelle. Nous vous expliquons ici en quoi consiste ce nouvel outil et ses implications pour le SEO.

Google Knowledge Graph Nikos Aliagas

Fidèle à sa philosophie avant-gardiste en matière de technologies de recherches sur internet, Google a déployé à grande échelle courant 2016, le Knowledge Graph ou Graphe de connaissance. Il s’agit d’un mode révolutionnaire d’affichage et de collecte des informations capable de donner des réponses directes (et non plus seulement des liens) à certains types de requêtes. Depuis ses premières implémentations en 2012 sur Google.com, puis sur Google.fr, la question s’est toujours posée de savoir si cette percée du web sémantique via le Google knowledge graph SEO n’entraînerait pas la mort progressive du référencement naturel. Éléments de réponse ici.

C’est en décembre 2012, sur le blog de Google France, qu’Amit Singhal, l’un des plus hauts cadres de la firme californienne a annoncé l’évolution prochaine de l’algorithme de recherche de Google. Le Knowledge Graph (KG ou GKG) exploite des données provenant des plus grandes bases de données du web (Wikipedia notamment) et de tout l’écosystème Google pour essayer de fournir à l’internaute la réponse la plus directe à sa requête. Il se révèle particulièrement efficace lorsque l’objet de la requête est d’ordre pratique ou emblématique : adresses utiles, lieux, monuments, personnages historiques, bâtiments, objets, villes, films, œuvres d’art…

De façon concrète, on pourrait résumer ses atouts comme suit :

  • Il permet d’obtenir des réponses plus rapides et plus précises sur certains sujets
  • En plus des sources publiques, il exploite de nombreuses autres sources
  • Il permet de lever rapidement le flou autour des mots-clés polysémiques
  • Il permet de découvrir de nouvelles choses sans faire de recherche supplémentaire

Jusqu’à peu, le moteur de recherche de Google se contentait de fournir les résultats les plus pertinents à chaque requête entrée. Il revenait alors à l’internaute de faire le tour les liens proposés afin d’obtenir la réponse souhaitée. Désormais, le moteur agrège les informations et les structure sur une fiche d’information (la Knowledge Graph Box) tout en proposant quand même les liens. Autrement dit, il se transforme en un moteur de réponse affichant une information structurée autour du thème recherché. Il est donc possible d’obtenir la réponse à sa préoccupation en un seul clic grâce au Google Knowledge Graph architecture. Pour s’en convaincre, il suffit de saisir des termes comme "Paris", "Tour Eiffel" ou "Albert Einstein" dans la barre de recherche et d’observer la structure des résultats.

A l’écran, le Google Knowledge Graph crée quelques particularités sur le nouvel affichage des résultats. Tout d’abord, on distingue désormais deux colonnes : l’une, à gauche, assez « classique », contenant les liens naturels, et l’autre, à droite, contenant des informations plus précises en rapport direct avec la question. La mini-fiche thématique de droite peut aussi contenir des liens, garants d’une bonne assimilation. Toutefois, si les deux colonnes sont visibles sur PC, ce n’est pas forcément le cas sur les supports mobiles, où elles n’apparaissent qu’après deux résultats de recherche. Et il faut dire que cet affichage diptyque n’est pas sans rappeler celui de Twitter. Simple coïncidence ?

En dehors de sa précision non négligeable pour les « Named Entity Queries » (requêtes d’entités nommées), l’impact direct du google knowledge implémentation reste visiblement un peu limité. En effet, pour tout ce qui ne relève pas de la géographie, de l’art, de l’histoire, des marques ou de la culture générale, l’intelligence universelle du programme n’apporte pas de plus-value concrète. Autrement dit, le système n’a pas encore été généralisé et dépend fortement des grandes bases de données des sites généralistes tels que Wikipedia, Freebase et CIA Factbook. Pour l’instant, Google Knowledge Graph puise énormément dans les bases de ces plateformes. Ce qui  soulève bien entendu la question de l’indépendance des informations « puisées » et de leur mise à jour.

Avec l’avènement de google knowledge graph algorithm, la firme de Mountain View jette les bases du web sémantique qui repose, entre autres, sur des balises précises. Cela devrait inciter tous les sites qui veulent jouir d’un bon positionnement à structurer leurs données et à miser davantage sur la qualité des contenus.

Seulement voilà ! Bien que prônant la liberté de l’internaute ou de l’e-commerçant, le géant du web semble s’être taillé une fois de plus la part du lion. Au regard de certains éléments "palpables", la question des ambitions du moteur de recherche n°1 gagne en légitimité. En effet, Google prend pratiquement tout l’espace disponible pour faire la promotion de ses propres services. À l’instar d’un site éditorial, la majorité des résultats affichés renvoie vers ses propres liens :

  • Les recherches sur les plans de ville ou de lieux renvoient à Google Maps
  • Les images sont récupérées à partir de Google images
  • Google + est sollicité pour fournir des infos sur les évènements
  • Les zones les plus visibles des pages sont réservées aux services de Google : adresses et shopping, adwords, sitemaps…

Si le graphe de la connaissance permet d’appréhender plus facilement certains types de recherches, il n’en demeure pas moins qu’il n’avantage pas autrement les sites généralistes. À moins que ceux-ci, à renfort d’images et d’adresses, ne se mettent à produire des contenus ultras qualitatifs. Mais, n’est-on pas déjà à l’ère des contenus qualitatifs ?

Vraisemblablement, le GKG semble focalisé pour le moment, sur les sites ayant de grosses bases de données comme Wikipedia. Dans ce contexte, il sera sûrement plus difficile pour les nouveaux sites d’exister encore peu populaires d’exister. Pour eux, les résultats mettront logiquement plus de temps à venir.

Aussi, est-il important de faire remarquer que le nouvel algorithme n’affiche plus 10 liens de résultats comme auparavant, mais plutôt 7.  Il s’agit là d’un recul évident du nombre de résultats naturels visibles sur la première page, même si on retrouve la normalité de l’affichage à partir de la page suivante.

Par ailleurs, en réservant la plus grande partie des zones de visibilité des pages de résultats à ses services, le géant du web cherche de toute évidence à capter du trafic et à mettre en avant de la publicité en payant le moins de redevances possible à ses sites partenaires. Alors, non, le SEO n’est pas mort ; mais son avenir passe désormais irrémédiablement par un ensemble d’actions visant à diversifier les sources du trafic. Et cela urge !


Si vous ne trouvez pas la chronique correspondante à votre recherche, c'est peut-être l'occasion de la rédiger ;-)

Proposer ma chronique

Aimez-vous cet article ?

Nos réseaux préférés

Ajouter un commentaire