Makina Blog

Le blog Makina-corpus

Démystifions le référencement


Une présentation du SEO pour les développeurs qui n'y croient pas.

Cet article est une transcription d'une conférence que j'ai donnée au DrupalCamp Nantes 2016. Elle ne va pas reprendre en détail l'introduction technique au référencement que j'ai déjà écrite, mais va plutôt la présenter sous un autre angle.

Les mythes du référencement

Le respect des bonnes pratiques suffit pour un bon référencement

Certains développeurs, et c'est vrai également dans la communauté Drupal, considèrent que le respect des bonnes pratiques (comme les bonnes pratiques Opquast pour le référencement) est suffisant pour correctement se positionner. C'est vrai pour une majorité de sites réalisés avec Drupal : le positionnement du CMS l'oriente vers les "gros" sites publics ou de marques qui n'ont besoin d'aucun travail spécifique pour se positionner correctement (autre qu'un balisage et un support technique propre). Quand ils sont bien utilisés, la plupart des CMS fournissent cette base technique suffisante.

Par contre, dès qu'on attaque des requêtes plus concurrentielles ("serrurier paris", "rachat de crédit", …), ce respect des bonnes pratiques ne suffit pas, et le travail du référenceur commence.

Les référenceurs sont tous des escrocs

Non. Il y en a, comme dans tous les métiers (ne dites-vous pas régulièrement quand vous récupérez un site : "les développeurs de ce site sont des escrocs ?"), notamment ceux qui vendent un positionnement assuré en première place des moteurs sur des requêtes qui ne ramènent aucun trafic. Mais il y a surtout de nombreux professionnels qualifiés.

Surtout, vous ne savez pas quelles ont été les demandes du client par rapport à un site donné. Oui, les bonnes pratiques, du bon contenu et de bons liens, cela va fonctionner pour un positionnement efficace… à long terme. Mais si le client souhaitait un positionnement très rapide, ou n'avait pas le budget pour mettre en place de vraies stratégies de contenu, alors il est possible que beaucoup de "mauvais" liens aient été mis en place, à sa demande.

Dans ce cas, le prestataire n'était pas en cause, il est tout à fait possible qu'il ait répondu au besoin d'un client correctement informé. Alors avant de juger, demandez un historique de ce qu'il s'est passé. Comme vous le feriez avant de juger un "mauvais" développement.

Concrètement, le référencement, c'est quoi ?

On entend souvent parler du "tryptique du référencement" : technique, contenu et popularité. Il est aujourd'hui admis que plus de 200 facteurs comptent pour le positionnement de vos pages dans les résultats de recherche. Alors, concrètement, en quoi consiste le référencement ?

Une règle principale

Si vous devez ne retenir qu'une chose, retenez ça :

Une URL correspond à une page qui se positionne sur une expression.

Il ne faut donc pas que deux URLs mènent sur la même page (donc, éviter de laisser traîner les URLs techniques de Drupal en node/*), et il est difficile pour une page de se positionner sur plusieurs mots-clés (sauf si ils ne sont pas du tout concurrentiels, il est naturellement possible de se positionner sur des expressions de longue traîne).

Le crawl

Le crawl est le parcours d'un site par les robots des moteurs de recherche. Or, le web a beaucoup (beaucoup beaucoup) de pages, et les robots ne peuvent pas passer sur toutes les pages tous les jours. Google alloue un "temps machine" de crawl à votre site. Il faut donc cibler efficacement les pages que vous voulez qu'il visite, et donc éviter absolument tout ce qui fait perdre du temps au robot : mauvaise performance du site, redirections inutiles, liens morts, …

Pour aller plus loin sur le crawl, je vous invite à consulter une présentation donnée début juin 2016, notamment la partie sur les "couches" de pages du site (c'est-à-dire la fréquence à laquelle le robot passe dessus) : Negotiating crawl budget with googlebots from Dawn Anderson Pg Dip DigM

Le fichier qui permet le contrôle du crawl est le fichier robots.txt. Vous pouvez indiquer aux robots les pages de votre site à visiter ou à éviter.

L'indexation

Il est possible d'avoir des pages indexées qui ne sont pas crawlées (bloquées par le robots.txt mais comportant beaucoup de liens vers elles, par exemple). Le SEUL moyen fiable d'empêcher une page d'être indexée est l'utilisation de la balise META robots NOINDEX. À vous de décider quelles pages méritent d'être indexées et celles que vous ne souhaitez au contraire pas voir indexées.

Le ranking

C'est finalement la partie qui intéresse le plus les clients. C'est là qu'interviennent essentiellement le contenu et la popularité des pages.

Le balisage

L'utilisation de mots-clés dans les balises TITLE, H1 -> Hn, … intervient naturellement à cette étape. Et sur une requête non concurrentielle, cela peut d'ailleurs suffire à se positionner. Sinon, il va falloir faire mieux que ça, notamment dans la rédaction de votre contenu et ce qu'on appelle globalement l'optimisation "on-page".

La popularité

Une fois votre contenu rédigé, c'est sa popularité qui va permettre un bon positionnement. La popularité est essentiellement représentée par l'ensemble des liens pointant vers votre contenu. Si votre page fait référence dans son domaine, elle devrait obtenir facilement et régulièrement de bons liens externes.

Cependant, au démarrage, vous ne disposez pas de liens externes. Il est alors temps de produire des liens internes à votre site en travaillant votre structure et votre maillage interne. On distingue 2 types d'organisation principalement utilisées : l'organisation en silo et le cocon sémantique, très à la mode aujourd'hui.

Changer de point de vue

Mon objectif initial lors de la préparation de cette conférence était que les développeurs changent de point de vue sur les référenceurs.

Mais le référencement est de plus en plus en train de changer de point de vue également en se concentrant sur ce que cherche le visiteur (c'est d'ailleurs le point de départ du cocon sémantique) : au lieu de vendre directement vos produits, il faut essayer de répondre à une demande. Et c'est seulement dans un second temps que l'on va essayer de convertir le visiteur en client, après avoir répondu à sa requête. On utilise alors des outils (comme AnswerThePublic) pour deviner les recherches des utilisateurs sur un sujet donné, et essayer d'y répondre, afin de se positionner en référence sur ce sujet, et gagner ainsi des places dans les résultats de recherche.

Le maître mot, c'est donc l'empathie. Mettez-vous à la place de vos interlocuteurs, quelle que soit la situation.

La vidéo de la conférence est disponible sur Youtube.

Formations associées

Formation Matomo

Formation Matomo : migration Google Analytics vers Matomo

À distance (FOAD) Du 1er au 2 février 2024

Voir la formation

Actualités en lien

Image
SIG PostGIS
17/01/2024

Fabriquer un raster de densité à partir d'un nuage de points avec PostGIS

Cet article présente une procédure de manipulation de données SIG avec PostGIS afin de fabriquer une couche raster de densité.

Voir l'article
Image
Python
26/07/2023

La formation Python éligible au CPF est enfin arrivée

Makina Corpus propose un nouvelle formation Python éligible au CPF. Grâce à cette certification, cette formation peut être entièrement financée par votre compte Compte Personnel de Formation.

Voir l'article
Image
Article Matomo Analytics
16/02/2022

Matomo, l'alternative open source à Google Analytics

Le 10 février 2022, la CNIL a mis en demeure un gestionnaire de sites web qui utilise Google Analytics. Nous vous proposons ici des alternatives Open Source parmis lesquelles Matomo, l'outil de mesure d'audience que nous utilisons sur notre site makina-corpus.com !

Voir l'article

Inscription à la newsletter

Nous vous avons convaincus