Aujourd’hui, les moteurs de recherches ont considérablement évolué et les paramètres pris en compte par les algorithmes de Google, Bing ou encore Yahoo, sont multiples et de plus en plus complexes. Il ne suffit plus de remplir studieusement des meta-descriptions et des meta-keywords (mots-clés) pour obtenir un bon résultat dans les recherches. Les algorithmes eux-mêmes sont raffinés très régulièrement, notamment par Google, qui réduit ses résultats de recherches quand un article ou un site est dupliqué par ses concepteurs dans le but de créer du trafic par accumulation.
A ce titre depuis 2011, Google a inventé Google+ afin de se créer un réseau à la Facebook avec plus de commodités privés et notamment les Apps, les Maps, et pleins d’outils comme la traduction automatique. Par le bouton Google+, ses affiliés notent les pages qu’ils consultent sur Internet, cette note qui entrera dans les critères de pertinence générales des recherches et fera monter la page dans les résultats. Cette aspect manuel reprend tout son poid, comme aux débuts de la Toile ou chacun cliquait lien par lien.
Des robots très performant dupliquent des sites pour augmenter leurs visibilité (exactement comme le fait Google lui-même), mais ces robots ne peuvent pas ouvrir un compte manuellement chez Google et noter automatiquement les pages. Donc la pertinence appréciée par chaque internaute en cliquant sur +1 redevient la valeur de référencement, celle qui a présidé à son algorythme de classement initial et non plus un processus de comptage automatisé de liens menant à votre site, lequel peut être facilement multiplié par ces fameux robots. Donc depuis 2011, exit le traffic par accumulation et le faux référencement qu’il induisait.
En pratique, optimiser son site consiste tout d’abord en une bonne écriture sémantique des pages et des produits, avec une redondance de mots clés, qui viendront sans doute alourdir le style, mais qui sont inévitables. Puis, interviennent les contenus Meta (meta contents) ou la sémantique détient encore une importance vitale pour un référencement pertinent. Dans ces contenus meta, on distingue aujourd’hui les contenus classiques hérités des débuts de la navigation Internet dans les années 1990, et les meta Dublin Core destinés aux nouvelles méthodes d’indexation sur l’internet.
En outre, le code XML doit être également mis à niveau et amélioré en vérifiant, entre autre, que les balises H1 sont cohérentes, que des liens internes existent de façon pertinente, et que certains fichiers spécifiques, régulièrement mis à jour, sont à la racine du site afin que Google, et ses concurrents, puissent lire aisément des informations de structure et de liens (ce sont les sitemaps).
En 2016, les moteurs raffinent toujours plus leurs algorithmes et l’adaptabilité (dite responsive) des sites sur tablettes et smartphones est devenu un critère de référencement supplémentaire, et avec lui, la qualité et la simplicité du code source.
Qu’est-ce donc qu’un référencement professionnel ?
Une stratégie d’optimisation du référencement doit se concevoir en phase avec vos objectifs en tant qu’entreprise et en symbiose avec votre communication générale. Chaque élément de cette communication se renforce mutuellement et doit trouver un écho sur le Web afin qu’il devienne un vecteur de communication régulière sur vos cibles.
Etape 1 : Optimisation sur le site
Il commence par une analyse technique, un audit de vos pages en ligne, de la qualité du code et son actualisation au standard XML et HTML5 : le codage qui « parle » le mieux aux moteurs de recherches. A quoi s’ajoute une analyse fine des mots-clés les plus pertinents et une comparaison de leur efficacité avec celle de votre concurrence directe.
Ce travail effectué, il s’agit alors d’en implanter le fruit dans vos pages en améliorant la sémantique des textes, donc les mots clés, mais aussi le code XML qui permet entre autre de donner des noms et mots clés aux images et à tout autre objet flash, video, etc. Ce travail s’effectue page par page sur une version de développement de votre site.
Pour monter dans les résultats de recherches, il faut simultanément passer à l’étape 2.
Etape 2 : Optimisation hors site
Une grosse partie du travail de référencement s’effectue par ailleurs, en créant des retours de liens (backlinks) sur des espaces public internet. Ces liens pointeront vers les pages de votre site toujours de façon pertinente. Ceci se fait à travers les blogs mais aussi les réseaux sociaux les plus connus.
Toujours, hors site, il faut mettre en place certains outils qui permettent d’analyser l’efficacité de votre référencement et de prévenir les moteurs de recherches à chaque fois que l’on change ou ajoute une information sur le site, dont la pertinence pourrait s’avérer importante pour votre communication et vos actions marketing. Ceci accélère de façon conséquente le retour du moteur sur votre site et met à jour les pages « cachées » sur les serveurs de Google, notamment. Car pour vous fournir en quelques millisecondes des résultats cohérents, Google duplique votre site et tous les autres sur ses propres serveurs !
Les deux étapes précédentes représentent, pour des sites de moins de 50 pages, environ 15 à 20 heures de travail effectif selon la qualité du développement initial. Ces heures s’étalent sur une semaine environ.
Etape 3 : Suivi du référencement et évaluation sur 3 mois
Arrive alors le temps du suivi et de l’amélioration, notamment et toujours sémantique, des différents espaces internet décrits précédemment qui pointent vers votre site. Ce suivi consiste en une évaluation hebdomadaire sur une période de trois mois de l’efficacité du référencement, car les moteurs ne repassent pas tous les jours et les corrections de détails produits par ce suivi analytique ne portent leurs fruits qu’une fois que le moteur est repassé sur la totalité des espaces pointant vers votre site. Ceci peut parfois prendre plusieurs semaines... D’où la période de trois mois nécessaire au raffinement du référencement.