Les moteurs de recherche représentent une source considérable de trafic entrant pour les sites Internet : en 2017, 35% des visites en provenaient, plaçant Google, Yahoo, Bing et les autres en tête des sources de trafic devant les média sociaux.

Le SEO est un ensemble de techniques permettant d’apparaître en première page d’un moteur de recherche. C’est une stratégie long terme. Exécutée de manière efficace, une bonne stratégie SEO peut vite s’avérer très rentable.

Pourquoi investir dans le SEO ?

Les deux buts principaux sont :

  • augmenter le trafic de son site ;
  • remplacer des annonces payantes par un bon référencement naturel des mots-clés stratégiques.

Pour réussir à générer davantage de trafic via le SEO, on peut dissocier deux sous-objectifs :

  • augmenter le nombre de pages indexées par le moteur de recherche (Google, Bing, Qwant…) ;
  • améliorer le ranking pour chacune des pages indexées sur les mots-clés correspondants.

Comment fonctionnent les moteurs de recherche pour ordonner les résultats ?

Les moteurs de recherche disposent de “robots” qui parcourent et analysent des pages web en continu, tout au long de la journée. Ces robots sont des programmes informatiques qui envoient des requêtes au serveur du site Internet exploré. Celui-ci retourne le code HTML de la page correspondante. Pour simplifier, c’est comme si vous tapiez plusieurs dizaines d’adresses web à la seconde dans votre barre de navigation pour en lire tout le contenu. Une fois sur un site, ces robots vont principalement être à la recherche :

  • de liens renvoyant vers d’autres pages (afin d’aller les explorer) ;
  • de contenu pertinent qu’ils peuvent faire correspondre avec des mots-clés.

C’est donc sur ces deux critères qu’il faut porter son attention en premier ; mais ce n’est pas tout. Voici quelques points essentiels recommandés par les moteurs de recherche eux-mêmes.

Améliorer l’indexation des pages

  1. Avoir une arborescence “claire et conceptuelle” qui permet aux robots de découvrir toutes les pages du site à travers des liens hypertexte. Certains outils comme Botify permettent de “crawler” (c’est-à-dire parcourir) l’ensemble des pages d’un site. Ils vérifient notamment qu’il n’y a pas de page inaccessible.
  2. Fournir un sitemap (au format *.csv ou *.xml) vers les pages “importantes” du site (celles que l’on souhaite voir indexées). La structure de ce fichier peut être trouvée dans la documentation Google. Il faut ensuite le télécharger directement dans la search console.
  3. Ajouter une page HTML qui contient le plan du site (accessible depuis le footer par exemple). Il suffit d’y indexer l’ensemble des URL du site en suivant la structure du menu (ou à défaut seulement les niveaux supérieurs).
  4. Ne pas mettre plus de 1000 liens par page (recommandation Google). Pour donner encore plus de poids à ces liens, il est conseillé de ne pas dépasser 200.
  5. Gérer les If-Modified-Since dans les en-têtes de requêtes HTTP. C’est un point technique qui permet aux robots de Google de ne crawler que les pages qui ont été modifiées depuis une certaines date. Pour les pages antérieures, le code HTTP qui sera renvoyé par le serveur est une erreur 304 (et non une erreur 200), ce qui signifie que les robots n’auront pas besoin de crawler à nouveau une page qui n’a pas changé.
Console développeur sur le site amazon.com qui indique que certaines images n’ont pas changé depuis la dernière consultation
  1. Utiliser un fichier robots.txt pour empêcher les robots d’exploration de suivre les liens publicitaires. Il est nécessaire d’indiquer dans ce fichier – présent à la racine du site – l’ensemble des liens que les moteurs de recherche ne doivent pas explorer. Pour plus de détails, il existe un tutoriel d’implémentation sur http://robots-txt.com/.
Exemple du robots.txt de maddyness.com
  1. Développer les backlinks. Ces liens pointent vers le site depuis un domaine extérieur. Par exemple, certaines pages peuvent être citées dans des articles de presse, sur un blog ou encore sur un forum. Ces liens, que les robots vont croiser ailleurs sur le net, vont donner du poids au domaine du site à optimiser dans la mesure où les moteurs de recherche considèrent que des citations externes sont un gage de qualité. Pour être encore plus performant, l’idéal est d’avoir des “références croisées” : il faut pour cela mentionner certains sites en retour.

Améliorer l’interprétation des pages

  1. Avoir un site utile et riche en informations, ainsi que des pages présentant leur contenu de façon claire et pertinente. Ooreka en a par exemple fait sa spécialité. Les contenus doivent correspondre à des mots-clés choisis, répétés et en rapport avec le sujet. Par exemple, sur cet article, dans le sous-domaine concernant le jardinage. On y trouve entre autres des images pour chaque paragraphe et beaucoup de liens qui pointent vers d’autres pages du site.
  2. Identifier et utiliser des mots-clés susceptibles d’être recherchés par des internautes, notamment à l’aide de Google Trends. Les indiquer, notamment dans l’URL, ainsi que dans les balises <title>, <h1> et dans les attributs alt de votre site.
  3. Autoriser l’exploration de tous les éléments de votre site ayant un impact important sur l’affichage de la page (CSS, JS…).
  4. Éviter de faire appel à des ID de session ou à des paramètres d’URL qui bloqueraient l’accès de certaines pages aux robots de recherche. Par exemple, si votre structure d’URL est de la forme https://www.ubbyk.com?session_id=1234, il faut indiquer dans la search console que le paramètre session_id n’est pas à prendre en compte.
  5. Afficher le même code HTML aux utilisateurs et aux robots des moteurs de recherche. Il pourrait être tentant d’optimiser différemment son site pour le SEO et pour l’UX. Cependant, les moteurs de recherche font parfois passer des robots de manière “anonyme” (c’est-à-dire qui ne se déclarent pas) pour sanctionner cette mauvaise pratique.
  6. Mettre un attribut alt à chaque image, contenant une description alternative (qui sert notamment au personnes mal-voyantes, ou alors si le chargement de l’image échoue).

Améliorer l’expérience utilisateur

  1. Présenter les éléments importants (noms, contenu, liens, etc.) sous forme de texte et non d’élément graphique (image). A défaut, toujours mettre une balise alt avec une brève description.
  2. Veiller à ce que tous les liens redirigent vers des pages web bien présentes en ligne et toujours utiliser un code HTML conforme (à vérifier ici : https://validator.w3.org/).
  3. Optimiser le temps de chargement des pages (PageSpeed Insights, Webpagetest.org). Plusieurs études montrent que c’est le critère le plus important pour l’ordre des sept premiers résultats : dans l’idéal, il faut être à moins de 50 ms en TTFB (Time to First Bit).
  4. Avoir un site responsive, c’est-à-dire qui s’adapte à tout type d’appareil, de dimension et de navigateur.
  5. Utiliser le protocole sécurisé HTTPS plutôt qu’HTTP.
  6. Faciliter l’accessibilité pour les personnes souffrant de déficiences visuelles (tester sur un lecteur d’écran), notamment en n’oubliant aucun attribut alt sur les images et en organisant son texte de façon claire entre les titres et les paragraphes.
  7. Multiplier les landing pages spécifiques :
    • évaluer les mots-clés susceptibles de rentrer dans le champ de compétence du site (à l’aide de Google Trends par exemple) ;
    • commencer en ne gardant que les mots-clés à fort volume de recherche ;
    • créer des landing pages et du contenu pour répondre à ces potentielles recherches (équipe contenu / catalogue), avec notamment des vidéos.

Mettre en place un monitoring

Pour contrôler l’efficacité de tous les points listés plus haut, il est important de mettre en place une surveillance des indicateurs suivants :

  • temps de chargement des pages ;
  • erreurs potentielles (codes HTTP 4xx ou 5xx) ;
  • position sur des mots-clés stratégiques ;
  • nombre de pages indexées.

1 comments on “20 techniques SEO à mettre en place pour accroître le trafic de son site

Répondre à Thibaut Loiseleur Annuler la réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *