Analyse de site web : l’audit technique SEO

Qu’est-ce qu’un audit SEO technique ?

L’analyse technique d’un site fait partie intégrante d’un audit SEO complet au même titre qu’un audit sémantique et un audit netlinking. Véritable pierre angulaire pour la réussite à long terme de votre SEO, il permet de prendre les bonnes décisions pour déployer la bonne stratégie de référencement pour un site web. Cette analyse permet ainsi de s’assurer de l’optimisation technique SEO et de déterminer les erreurs à corriger.

Cet audit est généralement réalisé par un consultant SEO expert sur le sujet. Il utilise un outil SEO adapté tel que Screaming Frog (c’est celui que j’utilise pour ma part – NB : version gratuite permettant de crawler jusqu’à 500 URLs maximum). D’autres outils sont également disponibles : par exemple, Xenu, MyRankingMetrics ou même SEMrush avec l’audit seo disponible dans « SEO Toolkit ».

Audit SEO technique - ChatterBox Conseil

Quel est le contenu d’un audit technique SEO ?

Un crawler va permettre de parcourir un site comme un spider (Googlebot par exemple) afin de comprendre comment Google voit ce site internet. Voici les éléments principaux qu’il est recommandé d’analyser pour ce type d’audit :

⚡️Vitesse et temps de chargement des pages

La vitesse de chargement d’un site impacte directement l’expérience utilisateur de manière positive ou négative. Plus les pages mettent de temps à être téléchargées, plus c’est pénalisant :

  • Pour les internautes, car le temps de chargement complet de la page risque d’être long ;
  • Pour les robots comme Googlebot, car ils crawlent moins de pages par jour si elles sont lentes.

Ces performances de temps de chargement sont par exemple visibles sur Google Page Speed Insight ou GTmetrix. Google préconise que ces temps de chargement soient inférieurs à 600ms (on entend par temps de téléchargement le temps mis par le serveur pour répondre à la requête, générer la page HTML et la télécharger et non pas le temps de téléchargement complet de la page).

📱Compatibilité mobile du site internet

En complément de la vitesse de chargement des pages, la compatibilité mobile d’un site internet est un critère très important le référencement. Aujourd’hui, Google utilise un index « mobile-first » pour déterminer le classement des pages web. Un site doit donc être bien optimisé pour le device mobile. Si ce n’est pas le cas, il faut l’adapter aux appareils mobiles en faisant appel à un web designer pour le rendre mobile friendly. La compatibilité mobile d’un site peut être testé en utilisant cet outil de Google.

Robots.txt-ChatterBox Conseil

🤖Crawlabilité : robots.txt et sitemap.xml

Une des étapes de l’analyse consiste à vérifier si le site est correctement indexé dans les résultats des moteurs de recherche. Pour un premier aperçu, il est possible d’utiliser la commande site:nomdusiteweb.fr dans Google.

L’ensemble des résultats indexés dans les SERPs Google sera alors visible pour pouvoir déterminer si toutes les pages souhaitées sont correctement indexées. Si ce n’est pas le cas, le fichier robots.txt est peut-être mal configuré, ce qui empêche certainement la bonne indexation du site par les moteurs de recherche.

NB : Bloquer le crawl n’empêche pas systématiquement l’indexation. Si le fichier robots.txt indique qu’une page ou ressource ne doit pas être explorée par les moteurs de recherche, dans certains cas, celle-ci peut tout de même être indexée si elle ne possède pas d’instruction noindex et que des liens pointent vers elle. C’est Google qui décide !

> En savoir plus sur la manière de configurer un fichier robots.txt.

Concernant le sitemap.xml, il aide à l’indexation mais n’est pas obligatoire. Différents sitemaps peuvent être utilisés : global site, produits, vidéos, etc.

📄Structuration html

> Balises Title et meta description

Plusieurs éléments doivent être étudier pour s’assurer de la bonne utilisation de ces balises : taillecontenusduplicate content. Le contenu de la balise Title est très important car il a un fort impact pour se positionner. L’optimisation de la balise Title permet de ranker sur les mots clés cibles. Il faut donc exploiter son potentiel en utilisant au mieux la place disponible. L’idéal est de ne pas dépasser 70 à 80 caractères avec 10 à 12 mots ; au-delà de 80, c’est considéré comme une erreur.

La meta description, quant à elle, n’a pas d’impact direct sur le positionnement d’un site web mais elle permet d’augmenter significativement le CTR lorsqu’elle est correctement optimisée. Ainsi, de manière indirecte, Google en tient compte. Pour optimiser la balise meta description, il faut utiliser au mieux les 230 caractères disponibles (environ 3 lignes). Certains conseillent même d’aller jusqu’à 300 caractères mais de ne jamais descendre sous 90 caractères.

> Balisage Hn

Les balises de titres H1, H2, …, H6 (parfois notées Hn) sont des balises servant à définir les différents niveaux de titres pour structurer un contenu éditorial sur une page HTML en respectant une hiérarchie. Dans la norme HTML, il existe 6 niveaux de titres : H1 est le plus important, H6 le moins important. La syntaxe HTML pour ces différents niveaux de titres est la suivante :

<h1>titre de niveau 1</h1>

<h2>titre de niveau 2</h2>

<h3>titre de niveau 3</h3>

<h4>titre de niveau 4</h4>

<h5>titre de niveau 5</h5>

<h6>titre de niveau 6</h6>

Une utilisation correcte de ces balises est très importante pour donner une information sémantique correcte aux bots des moteurs de recherche et structurer le contenu pour les internautes.

NB : Ne pas confondre la balise Title (titre de la page) avec la balise H1.

⚠️Erreurs 4xx et 5xx

Ces erreurs sont dommageables en termes d’expériences utilisateurs et pour la bonne crawlabilité de votre site web. Si nous nous focalisons sur les erreurs les plus courantes :

  • Erreur 500 : Ces erreurs 500 correspondent à des erreurs côté serveur.
  • Erreur 404 : page introuvable. Ces erreurs 404 ne sont pas toutes égales. Certaines peuvent apportées du jus SEO (pages renvoyant une 404 et ayant des backlinks par exemple), d’autres peuvent être une manière efficace d’indiquer aux moteurs de recherche que des pages n’existent plus. Il est donc important de prendre du recul avant de mettre en place des redirections.

↩️Redirections

Il existe plusieurs sortes de redirections pouvant pénaliser les performances SEO de votre site :

  • Les redirections 302 : elles correspondent à des redirections “temporaires” et ne transmettent aucune autorité. Elles ne doivent pas rester en place sur le long terme. Les redirections 302 ont doivent être changées en redirections 301 pour transmettre de l’autorité.
  • Les redirections en chaîne : cela correspond à une suite de redirections 301 interconnectées. Il est recommandé de rediriger directement vers la page cible pour transmettre toute l’autorité directement à cette page.

📍Profondeur des pages

Les pages trop profondes sont plus difficiles à indexer pour Google car elles sont moins accessibles. Cela peut provoquer des problèmes de crawl, d’indexation et même de positionnement. Pour qu’une page soit efficace en référencement naturel, il faut éviter qu’elle soit trop profonde dans le site, la profondeur étant mesurée par le nombre de clics nécessaires (sur des balises < a >) pour l’atteindre depuis la page d’accueil. La profondeur maximale recommandée est en général de 3.

Audit SEO

📝Contenus dupliqués

Les contenus dupliqués internes à un site sont pénalisés par Google. Dans certains cas, il est nécessaire d’utiliser une balise canonical pour s’en protéger. L’audit permet de vérifier si le site web contient du contenu dupliqué (pages avec URL différentes mais contenu similaire) et de résoudre le problème le cas échéant.

🔎Nombre de mots par page

Parmi les points à évaluer dans un audit de référencement, le taux de texte par rapport au code est important. La sémantique étant un axe important pour la compréhension d’une page par les robots d’exploration, il est important d’avoir un contenu riche et assez long pour se positionner correctement dans les SERPs.

🔗Maillage interne

Le maillage interne et le choix des textes de liens (ancre de lien ou anchor text) est un moyen efficace d’améliorer le référencement. Le maillage interne correspond au fait de lier entre elles des pages internes au site. Le lien doit être bien contextualisé afin que son positionnement soit logique aux yeux de l’internaute et des robots. Un bon lien interne :

  • Relie deux pages de même thématique (les exceptions doivent être rares)
  • Utilise des mots qui renseignent déjà sur le contenu de la page cible
  • N’inclut pas toujours des mots-clés (exemples : « à consulter ici », « en 2020 », etc.)
  • Il est également très important de varier les ancres des liens internes.

🖼️Images

Souvent négligé, les images peuvent avoir un impact sur le référencement. Il est recommandé de vérifier les points suivants :

  • Pages en https contenant des images http
  • Poids des images trop lourdes. Elles doivent avoir un poids inférieur à 100ko.
  • Attribut « Alt » vide. Privilégier 5 à 6 mots avec 50 à 100 caractères au total.
  • Redimensionnement forcé dans le code HTML. Il est préférable d’utiliser directement les bonnes dimensions d’images quand cela est possible.
  • Nombre d’images par page : vérifier les pages avec plus de 50 images.
  • Pages avec plus de 1000Ko d’images.

⚙️Données structurées

Une balise de données structurées permet de donner des informations sémantiques directement dans le HTML pour permettre aux moteurs de recherche de mieux comprendre le code HTML d’un site. Il existe plusieurs formats :

  • Microdata
  • RDFa
  • JSON-LD. Google recommande l’utilisation du JSON-LD.

Une bonne implémentation requiert de suivre les directives présente sur schema.org.

Pour aller encore plus loin dans l’audit SEO technique, l’analyse des fichiers logs SEO permet d’avoir des données 100% fiables sur la manière dont les robots crawlent un site. Cela requiert l’utilisation d’outils adaptés tels que OnCrawl ou SEOlyser pour ne citer qu’eux.

💡Pour en savoir plus

Audit netlinking

Audit sémantique

Vous souhaitez réaliser un audit SEO de votre site ? Parlons-en !