Voilà bien un sujet qui paraît simple de prime abord mais qui recouvre une réalité très complexe. Or est très facile de trouver ici ou là des articles de blog qui martèlent toujours les mêmes idées : comment effectuer une recherche de mots-clés sur Google, la nécessité d’utiliser la balise < strong > pour renforcer la visibilité d’un mot-clé, la densité de mots-clefs, etc.
Prenons l’exemple d’un sympathique blog dont nous tairons le nom, et qui propose dans un article intitulé « Référencement naturel: choix des mots-clés efficaces » d’analyser les mots-clefs ciblés par… ledit article. L’idée est amusante.
Et d’entamer alors une démarche à la fois basique et entâchée d’erreurs, qui risque au final de coûter du temps et de l’argent à ses clients, pour ne parvenir qu’à un résultat au mieux médiocre.
Première erreur, l’auteur commence par proposer d’utiliser le nombre de pages concurrentes comme indice de la concurrence que représente un mot-clef en indiquant que « plus le nombre de résultats est élevé, moins le mot clef est concurrentiel ».
C’est totalement faux. Le nombre de pages affichées dans les moteurs de recherche ne constitue en aucun cas un indicateur fiable du degré de concurrence. Un site qui vient d’être créé peut parfaitement arriver en première page de Google même face à des millions de pages.
Pourquoi ? Tout simplement parce que les pages affichées ne sont pas toutes concurrentes pour le terme ciblé, à de rares exceptions près et sur des termes génériques tels que, ironiquement, l’un de ceux choisis par l’auteur de l’article : « référencement naturel». Mais il s'agit d'un mot-clé par nature très ciblé : le référencement ne concerne que le web ou la grande distribution. Effectivement, se positionner sur cette recherche sera difficile, parce qu’elle retourne environ 2 millions de page, toute concurrentes.
Comment le savons-nous ? En examinant non pas le nombre de page, mais la qualité de chacun des sites figurant sur les 10 premières positions (première page de Google) ainsi que pour des résultats aléatoires pris sur la 5ème ou la 8ème page de résultats. Pour analyser cette qualité, nous utilisons des indicateurs tels que la réputation du domaine, la réputation de la page, le nombre de liens entrants vers cette page et leur qualité respective, ainsi que la présence du mot-clef recherché dans le titre de la page et dans les ancres de mots-clef.
Dans le cas présent, « référencement naturel » est un mot-clef difficile, comme le montre le degré de compétition moyen, un indice composite basé sur l’agrégation des données que nous venons d’évoquer. Nous sommes sur un mot-clef « hautement compétitif » nous dit SEOMOZ, l’un des systèmes d’analyse de mots-clefs les plus en vue de la profession de référenceur.
Pour vérifier cette hypothèse, un autre outil (gratuit celui-là) permet de parvenir à un résultat similaire : il s’agit de Gnoztik (http://www.gnoztik.com/) à télécharger sur votre PC. Dans le cas présent, Gnoztik déconseille de travailler sur ce mot-clef. La raison exposée par le logiciel : « Bien que le trafic soit plus qu’intéressant, l’effort qui vous est demandé est important et la concurrence est très forte ».
Pour se positionner sur ce mot-clef il faudra donc un investissement lourd. Notre recommandation aurait au contraire été de l’éviter.
Enfin, pour montrer que le nombre de pages n’est pas un indicateur fiable, voici un exemple très simple, le nôtre : le site de l’agence rédaction Web est placé sur la première page de Google pour le terme « agence rédaction » bien que cette recherche retourne près de 10 millions de pages. Si nous avions utilisé cet indicateur pour estimer le degré de concurrence, nous n’aurions pas travaillé ce mot-clé et nous ne serions pas présents pour ce résultat. Pourtant en effectuant un travail convenable nous avons pu nous positionner sans difficultés sur ce mot-clef en quelques semaines seulement.
L’auteur nous propose ensuite deux étapes supplémentaires, que nous résumerons ainsi :
Il est évident qu’il vaut mieux utiliser des expressions composées de plusieurs termes, plutôt qu’un seul mot. D’abord, parce que nombre de mots sont déjà pris sur le web par des sites très anciens et qu’il serait donc inutile de vouloir s’y positionner. Cependant, ils représentent un trafic très élevé : si vous pouvez vous positionner sur « référencement » vous aurez la certitude de voir un flot de visiteurs sur votre site. En revanche, ces visiteurs ne seront pas nécessairement très ciblés.
Si l’on prend l’exemple d’une personne qui souhaite acheter une voiture d’occasion, on sait que celle qui recherche « voiture d’occasion prix » n’a pas encore d’idée précise en tête. Par contre celle qui recherche « BMW 320i occasion faible kilométrage 2007 » a déjà une idée très précise et représente un potentiel d’achat (également appelé potentiel de conversion) assez élevé. Il faudra donc plutôt cibler ce type de recherche, plutôt que la recherche (appelée « recherche générique ») que représente « voiture occasion prix ». On peut se représenter ce processus comme un entonnoir : de la requête la plus élargie, qui ne représente qu’une intention d’achat très faible (prise de renseignements) mais un volume très important, à la requête spécialisée qui traduit une intention d’achat très forte mais ne représente qu’une infime partie du trafic du site. La question est, bien entendu, lequel des deux rapporte du chiffre d’affaires ? De toute évidence, c’est la recherche qui « convertit » en acte d’achat. Pour nos clients dans l’automobile d’occasion, nous recommandons donc de réaliser des textes élargis capables d’attirer les internautes prêts à passer à la phase de conversion.
Il est évidemment impossible de cibler tous les modèles de voiture. C’est là que l’analyse lexicale entre en jeu : en examinant le texte des dix premiers sites sur Google, pour une série de recherches similaire, l’on va parvenir à établir un dictionnaire des mots utilisés par ces sites.
Ce ne sont pas forcément les mots-clefs que les internautes utiliseraient, mais c’est une excellente indication. Cela va permettre de cibler en réalité toutes les expressions que les internautes pourraient rechercher et auxquelles vous n’auriez pas pensé. C’est le principe bien connu des marketeurs web, la longue traîne : des centaines, des milliers d’expressions uniques qui ne représentent chacune qu’un ou deux visiteur, mais qui constituent au final 80% du trafic d’un site web.
De plus, les requêtes des internautes s’allongent de plus en plus : ils sont nombreux désormais à taper des recherches sous forme de phrase complète, « optimiser le référencement naturel de mon site web » plutôt que « référencement naturel ». Avec un seul mot, vous risquez de passer à côté, alors qu’en vous basant sur un lexique fourni, vos pages seront considérées par les moteurs de recherche comme fiables pour ce type de requête.
Ici encore, l’outil gratuit Gnoztik peut vous venir en aide en fournissant un nuage de mots-clefs qui représente un lexique de base. Dans l’image ci-dessous vous voyez le lexique proposé pour le terme recherché précédemment, « référencement naturel ».
Incorporer ces mots dans votre contenu web, constitue donc une première étape indispensable. IL faut cependant garder à l’idée qu’une page de site ne peut pas être optimisée pour des centaines de mots-clefs : on considère généralement que deux ou trois mots-clefs courts peuvent être ciblés par une page, à quoi s’ajoutent tous les termes potentiels de la longue traîne ciblés indirectement par des textes de longueur suffisante faisant appel au lexique évoqué à l’instant.
Dans l’article évoqué, l’auteur propose ensuite de placer les mots-clefs dans le titre, dans la méta-description ainsi qu’en gras dans le texte, estimant que « Google les scanne en priorité ». Elle suggère enfin de faire appel à http://www.ranks.nl/ un outil qui mesure la densité des mots-clefs.
S’il est certainement nécessaire de placer l’expression ciblée dans le titre, les métas et le corps de la page, il est faux de dire que Google les scanne en priorité. Google analyse un grand nombre de signaux sur une page, parmi lesquels les signaux externes (combien de liens ? De quelle qualité ? Quelle présence sur les réseaux sociaux ? etc) et les signaux internes (les pages sont-elles liées entre elles au point de vue contenu et sémantique ? les ancres de liens sont-elles cohérentes ? la mise à jour est-elle régulière et récente ? etc) parmi lesquels la présence de mots-clefs en gras dans le texte ne constitue certainement pas une priorité.
Il semble qu’on ne le répètera jamais assez : la notion même de densité de mots-clefs est parfaitement fausse et correspond à une idée vieille de plusieurs années, qui reste toujours aussi fausse même si elle continue d’être répétée par des référenceurs ou des rédacteurs web qui ne sont pas suffisamment informés. Pourtant Google lui-même l’a déclaré officiellement par la voix de l’un de ses représentants « (…) on peut maintenant oublier cette conception erronée, que les gens vont cesser de s’inquiéter de la densité de mots-clefs. Assurez-vous simplement d’ajouter les mots que vous ciblez en les intégrant de façon naturelle, et tout devrait bien se passer. »
Il est cependant regrettable de voir des professionnels du référencement et de la rédaction de contenus web, continuer à propager une notion fausse et qui peut même dans certains cas constituer un signal négatif pour les moteurs de recherche.
Parachevons notre analyse de l’article évoqué, en reprenant les mots-clés que la rédactrice propose de cibler :
Une analyse de ces termes montre que le premier est quasiment impossible à dominer à moins de disposer d’une belle réserve d’argent. Le second, « référencement web » représente un trafic mensuel de 770 visiteurs, ce qui n’est pas énorme mais intéressant, et la concurrence y est très forte. À éviter également.
Pour les deux autres termes, le trafic est nul.
Autrement dit l’auteur recommande deux termes quasiment impossibles à travailler, et deux termes sans la moindre possibilité de conversion. Si ce ne sont que des exemples, ce sont de bien mauvais exemples...
Pour déterminer les termes que l’on peut recommander, il faut une analyse beaucoup plus poussée que Google Suggest. Voici quelques exemples des critères que l’on peut étudier.
L'image ci-dessus montre l'autorité pour le domaine et pour la page, ainsi que l'indice de confiance et le nombre de liens.
Dans l'image ci-dessus, l'outil effectue une analyse de l'adéquation de la page par rapport au mot-clé considéré (référencement naturel). Le mot-clé est-il présent dans le titre, dans l'URL, etc...
L'image ci-dessus montre les statistiques concernant les liens, les ancres de liens, les domaines dont ils proviennent.
Comme on le voit, ces statistiques requièrent une certaine connaissance et de l’habitude. Il est regrettable que certains proposent à leurs lecteurs des recettes génériques et basiques qui poussent à croire que le référencement est à la portée de tout le monde. Ce n’est pas le cas.
La réalité, c’est qu’une stratégie de référencement efficace exige de faire appel à des professionnels qualifiés. Rien de nouveau sous le soleil ! Le référencement requiert des connaissances sérieuses qui viennent étayer l’expérience acquise en réel auprès des sites web clients, ce n’est pas en utilisant quelques outils gratuits et quelques préconceptions erronées qu’un site parviendra à se positionner.
En utilisant des outils professionnels (non gratuits) et des méthodes éprouvées basées sur des formations solides auprès de spécialistes américains du référencement / SEO, auxquelles s’ajoutent quelques années d’expérience, nous pourrions proposer à un éventuel client, qui aimerait voir son site réussir sur des mots-clefs liés au référencement (voilà qui serait un peu curieux, mais c’est un exemple), quelques expressions à travailler qui se révèleraient bien plus porteuses :
IL en existe beaucoup d’autres, comme le suggère la capture d’écran de notre outil ci-dessous : après une première passe d’analyse pour cet exemple, nous obtenons plus de 100 expressions qui peuvent représenter du potentiel de trafic.
Et puisque nous aimons bien prouver ce que nous avançons, voici ce que pense SEOMOZ de la recherche « Comment référencer son site » : « Mot-clef avec une compétition modérée ».
Si vous ne disposez pas d’outils professionnels, et que vous souhaitez avancer dans le référencement web, commencez par essayer SEOMOZ Pro, un outil que nous utilisons depuis plusieurs années et qui permet d’obtenir des statistiques détaillées et intéressantes. L’interface du site est en anglais mais il se révèle très simple d’emploi, et vous disposez d’une période d’essai gratuite de 30 jours en cliquant sur ce lien : Essai SEOMOZ Pro*. Par ailleurs, le blog et les forums de SEOMOZ recèlent d’excellentes ressources, mais un bon niveau en anglais est obligatoire.
Autre outil intéressant pour scruter la concurrence, le site OpenExplorer (appartenant également à SEOMOZ) propose des analyses de concurrence gratuites. Rendez-vous sur http://www.opensiteexplorer.org/
* Ceci est un lien d’affiliation, ce qui signifie que si vous vous abonnez à SEOMOZ Pro l’agence rédaction web recevra une commission.
Please add your bio info through your member profile page, or through your dashboard.