Les pages de résultats de Google, les fameuses SERP, regorgent d’informations utiles lorsqu’il s’agit d’établir une stratégie de référencement naturel. Voici donc plusieurs manières de les étudier pour en tirer les données nécessaires à un « smart SEO ».

Comparer les 20 premiers résultats

Les 100 premiers résultats proposés par Google lors d’une recherche (autrement dit les 10 premières pages) peuvent servir de « base de référence » pour ce que le moteur considère comme des résultats pertinents. Ce qui signifie que, pour se positionner dans ces résultats, il sera nécessaire de présenter certains points communs avec les pages que Google juge déjà qualitatives. L’analyse des SERP doit alors au minimum se concentrer sur les 20 premiers résultats, pour une meilleure perspective de ce qui peut et doit être fait pour atteindre les meilleures positions en SEO.

Analyser la composition du title et de la meta description

Ces sont les premiers éléments d’un site que l’on perçoit lors d’une recherche : les balises <title> et <meta name= »description »>. Si toutes deux n’ont pas le même impact d’un point de vue SEO, elles n’en restent pas moins judicieuses à analyser. Il va ainsi être intéressant de comparer les termes employés dans les titles pour tâcher de repérer des ressemblances, des occurrences suffisamment nombreuses, qui peuvent indiquer que Google les associe au mot-clé principal de la recherche. Des termes qu’il peut être nécessaire d’inclure dans les titles du site à positionner, afin de démontrer sa pertinence au moteur, de lui dire qu’il est similaire aux sites déjà indexés, qu’il « parle » du même sujet. Dans cet exemple, nous avons repris les 20 premiers liens sur la recherche « déguisement ». On remarque alors vite que certains termes sont plus souvent associés que d’autres, en plus du mot-clé principal, présent 21 fois. On retrouve ainsi les expressions « costume » (7 occurrences), « adulte » (4 occurrences) ou encore « accessoires » (3 occurrences).
resultats de recherche deguisement
Parmi les 20 premiers résultats sur la recherche « déguisement », plusieurs titles contiennent des termes communs.
On peut alors se questionner sur le fait que les associations « déguisement et costume » ou « déguisement pour adulte » soient favorables au SEO, puisque Google affiche plusieurs sites ayant ces termes dans sa SERP. Ce qui peut également signifier que les internautes s’attendent à retrouver ces termes plus que d’autres, avec, par exemple, une plus grande population recherchant des déguisements pour adulte (voir la notion de comportement de l’utilisateur plus bas). L’analyse de la balise <meta> a elle un rôle plus marketing : elle joue en effet davantage un rôle dans l’incitation au clic que dans le référencement (bien que cela aide le SEO de manière indirecte). Observer les balises des mieux positionnés, a priori les plus légitimes et donc compétents dans le secteur concerné, c’est un moyen de mieux saisir les attentes des utilisateurs. On peut dans cet exemple remarquer que la notion de choix semble importante, puisque plusieurs résultats mettent l’accent dessus, d’une façon ou d’une autre : « 11 000 articles », « le plus grand choix de déguisements », « disco, fantastique, sexy, pirates, western… » ou encore « Un déguisement de Spiderman, Iron Man, de Batman, de Zorro ». Un discours logique, surtout sur un mot-clé aussi générique que « déguisement » : on peut s’attendre à ce que les internautes n’ont pas encore d’idée précise sur leur tenue festive, et leur prouver qu’ils en trouveront forcément une à leur goût est certainement le meilleur argument pour leur donner envie de cliquer.

Etudier le contenu de destination

Le contenu est, ce n’est pas un scoop, une des bases de travail de référencement. Il est du coup tentant d’aller regarder celui présent sur les pages des premiers liens proposés par Google lors d’une recherche. Cela peut être doublement intéressant :
  • D’une part, cela permet de connaitre la densité de mots-clés, le champ sémantique utilisé, le taille du contenu ainsi que sa qualité, mais également la manière dont être optimisé le balisage on-page. Plusieurs outils permettent de simplifier la démarche, comme par exemple Alyze, qui définit les termes les plus présents et pondère leur importance selon leur emplacement ;
  • D’autre part, l’analyse du contenu peut révéler la nature de ce dernier : est-il informatif ? Ou bien s’agit-il d’une liste de produits très peu étayée de texte ? Prendre en compte la structure de page des sites les mieux positionnés est un indice sur ce que les utilisateurs, et donc Google, attendent.

Mesurer la popularité

La popularité des meilleurs résultats dans les SERP est une donnée précieuse, puisqu’elle explique en partie leur présence à ces positions. L’analyse de la popularité de ces sites va donc passer par une étude de leurs backlinks, autrement dit des liens pointant vers eux. Cette observation est importante car elle permet de connaître la légitimité « réelle » de ces acteurs : s’ils reçoivent des liens d’autres sites de référence (par exemple, depuis des journaux de presse nationale), c’est que leur place dans les SERP est aussi méritée qu’elle sera difficile à attaquer. Mais l’analyse de la popularité permet aussi de savoir de quels liens bénéficient ces sites et dont celui à référencer ne profite pas. Par exemple, en remarquant que des blogs réputés dans un domaine publient des liens vers les sites concurrents, il peut être intéressant de leur demander également un backlink. Là encore, plusieurs outils permettent d’arriver à de telles constations, comme le tout récent « Intersect » proposé par AHREFS et qui recense les liens pointant tous sur des domaines concurrents, mais non sur le site à référencer
outil intersect ahrefs
L’outil « Intersect » de AHREFS est bien utile pour l’analyse de popularité entre plusieurs sites

Connaître les attentes des utilisateurs

Enfin, l’observation des résultats dans les SERP permet d’avoir une photographie des attentes actuelles des internautes. Comment ? Car Google priorise les liens apportant la meilleure réponse à ses utilisateurs. De fait, si les personnes recherchant « cheesecake » veulent trouver majoritairement une recette, le moteur de recherche leur présentera des sites de recettes. Ce système présente un certain « risque » car les résultats proposés peuvent varier selon les besoins des internautes. C’est particulièrement vrai dans le domaine des nouvelles technologies : lorsqu’un produit est en développement, les personnes vont chercher à se renseigner et donc Google « ressortira » des sites d’information. Par contre, lorsque ce produit sera commercialisé, les utilisateurs voudront désormais l’acheter, et le moteur favorisera les sites de vente. Un autre exemple de SERP « mouvante » concerne les requêtes sur des sujets d’actualité. Le suivi des évolutions des 20, 30 ou 100 premiers résultats dans les SERP est alors indispensable pour repérer un éventuel « retournement de situation ». C’est également très important lors de l’édification d’une stratégie pour définir les mots-clés sur lesquels travailler et les types de pages à construire pour qu’elles se positionnent. Imaginons la réflexion SEO pour le lancement d’un site e-commerce de prêt-à-porter : l’expression « jean slim femme » sera ciblée sur une page avec des produits, quand le mot-clé « choisir son jean » concernera une page du blog rattaché au site, par exemple, afin de répondre aux attentes des internautes et par le fait aux exigences de Google. En guise de dernier exemple, et pour reprendre le premier sur l’univers du déguisement : pour un site vendant ce genre de tenues, il serait assez peu futé de vouloir se positionner sur le mot-clé « costume », qui est pourtant un synonyme. La preuve avec une comparaison de la première page de résultats sur ces deux requêtes :
resultats de recherche deguisement et costume
Les recherches « déguisement » et « costume » présentent des résultats bien différents

Un conseil : avoir les bons outils

Aussi utile soit-elle, l’analyse des SERP reste un travail fastidieux si on envisage de le faire « à la main ». Il est donc largement conseillé d’utiliser des outils spécifiques pour réaliser les différentes études (densité du contenu, comparaison des backlinks, etc…), ce qui vous économisera du temps et de l’énergie. Chez Net Référencement, nous travaillons actuellement à l’élaboration d’un outil en interne qui nous permettra une automatisation de l’analyse des SERP que nous effectuons pour nos clients.