Prendre le contrôle du référencement technique d’un site est à la fois un art et une science. Croyez-moi, le stratège contenu dans l’âme, le référencement technique nécessite un équilibre entre connaissances, diligence et courage pour être compétent. Et pour beaucoup, il peut être à la fois difficile et compliqué d’entreprendre de telles questions techniques.
Toutefois, bien que le SEO technique puisse paraître lourd et encombrant, le concept de base est à la portée de la plupart des spécialistes du marketing. Oui, il est utile de disposer de contrôles HTML ou d’un développeur pour implémenter des scripts et autres. Cependant, l’idée de fournir des services de SEO techniques de premier plan ne devrait pas être aussi intimidante que pour la plupart des agences et des consultants.
Pour vous aider à intégrer le côté technique de vos services de référencement, j’ai partagé cinq lieux de départ. Ces étapes reflètent les 80/20 du SEO technique et une grande partie de ce que j’ai adopté de la part de mes collègues férus de code au cours de la dernière décennie.
1. Vérifiez Google Analytics, Tag Manager et Search Console. définir les conversions
Si vous maintenez En cours de référencement, il est essentiel de mettre en place Google Analytics ou une plateforme d’analyse Web tout aussi suffisante. En outre, la mise en place de Google Tag Manager et de la console de recherche Google vous fournira des fonctionnalités techniques de référencement supplémentaires et des informations sur la santé d’un site.
Au-delà de la vérification d’un site sur ces plates-formes, vous souhaiterez définir des KPI et des points de conversion. Cela peut être aussi simple que le suivi du trafic organique et des soumissions de formulaire, ou aussi avancé que la définition de cinq objectifs de conversion différents, tels que les soumissions de formulaire, les achats en magasin, les téléchargements PDF, Facebook suivi, les inscriptions par courrier électronique, etc. En bref, sans toute forme de suivi de conversion en place, vous allez essentiellement en aveugle.
Déterminer comment vous mesurez le succès d’un site est essentiel pour fournir des services de référencement de qualité. D’un point de vue technique, Google Search Console et Analytics peuvent fournir des informations essentielles pour vous aider à apporter des améliorations continues. Celles-ci incluent les erreurs d’analyse, les métadonnées en double, les liens toxiques, les pages de rebond et les retenues, pour n’en nommer que quelques-unes.
2. Implémenter un balisage de données structuré
La mise en œuvre de balisage de données structurées est devenue un élément essentiel du référencement technique. Ayant été au centre des préoccupations de Google ces dernières années, de plus en plus de spécialistes du marketing sur les moteurs de recherche adoptent les moyens d’utiliser un balisage de données structuré, ou schéma, pour leurs clients. À leur tour, formation référencement naturel de nombreuses plates-formes CMS sont désormais équipées de simples plug-ins et de capacités de développement pour implémenter Schema.
Schema est essentiellement une forme de balisage unique qui a été développée pour aider les webmasters à mieux communiquer le contenu d’un site aux moteurs de recherche. En balisant certains éléments du contenu de la page avec le balisage de schéma (c’est-à-dire les avis, le classement global, l’emplacement de l’entreprise, la personne, etc.), vous aidez Google et les autres moteurs de recherche à mieux interpréter et afficher ce contenu à l’intention des utilisateurs.
Grâce à ce balisage, la visibilité de votre site sur les recherches peut être améliorée grâce à des fonctionnalités telles que des extraits riches, des méta-descriptions étendues et d’autres listes améliorées pouvant offrir un avantage concurrentiel. Dans Google Search Console, non seulement vous pouvez utiliser un outil de validation pratique pour vous aider à évaluer le balisage d’un site, mais cette plateforme enregistre également les erreurs détectées concernant les données structurées.
3. Évaluer régulièrement la toxicité du lien
Ce ne devrait pas être un secret maintenant des liens de mauvaise qualité pointant vers un site peuvent nuire à sa capacité de classement. Plus encore, un site qui a construit de façon flagrante des liens manuellement à l’aide de texte d’ancrage bourré de mots clés risque fortement d’être désindexé ou complètement supprimé de Google.
Si vous remontez 10 ans en arrière au moment où vous avez créé quelques (centaines?) Liens fragmentaires vers votre site, envisagez d’évaluer la toxicité de ce dernier. Les liens toxiques provenant de sources spammées peuvent vraiment ruiner votre crédibilité en tant que site de confiance. En tant que tel, il est important d’identifier et de désavouer tout lien qui pourrait entraver votre classement.
[Non seulement l’outil de vérification des liens en amont de SEMRush permet d’identifier facilement les liens potentiellement toxiques, mais également de prendre les mesures nécessaires pour supprimer ou désavouer certains liens.]
Si une variable de référencement est parfois hors de votre contrôle, ce sont des backlinks. De nouveaux liens spammés peuvent surgir de nulle part, vous amenant à réfléchir à des questions existentielles concernant Internet. Enregistrement régulier avec le site backlinks est une diligence critique dans le maintien d’un site sain pour vos clients SEO. 4. Surveillez constamment la santé, la vitesse et les performances du site.
GTmetrix est un outil standard de l’industrie pour repérer efficacement les goulots d’étranglement techniques d’un site. Grâce à cet outil, vous pouvez découvrir des informations clés sur la vitesse, la santé et les performances globales d’un site, ainsi que des recommandations concrètes sur la manière d’améliorer ces problèmes.
Nul doute que la vitesse du site est devenue un facteur de classement remarquable. Il reflète la mission de Google, qui est de fournir aux utilisateurs du moteur de recherche la meilleure expérience possible. En tant que tels, les sites à chargement rapide sont récompensés et les sites à chargement lent ne parviendront probablement pas à exploiter tout leur potentiel en matière de référencement.
En plus de GTmetrix, Google PageSpeed Insights et Web.Dev contribuent à améliorer la vitesse et les performances d’un site. Semblables aux recommandations de GTmetrix et SEMRush, ces outils fournissent des conseils faciles à digérer, étayés par une analyse approfondie de plusieurs variables.
Les améliorations de la vitesse de pages fournies par ces outils peuvent aller de la compression d’images à la minimiser les redirections et les demandes du serveur. En d’autres termes, une expérience de développeur peut être utile ici.
Un dernier aspect fondamental du maintien de la santé optimale du site consiste à réduire au minimum les erreurs d’exploration. Bien que relativement simple à surveiller, la correction régulière des erreurs 404 et la correction des problèmes d’optimisation de l’exploration peuvent vous aider à mettre à niveau vos services techniques de SEO. Ces fonctionnalités sont disponibles dans l’outil d’audit de site de SEMRush.
[La ventilation intuitive du rapport d’exploration de Site Audit Tool permet de résoudre les erreurs en toute transparence. Les utilisateurs peuvent facilement trouver des liens cassés, des pages d’erreur, des titres et métadonnées inadéquats et d’autres éléments spécifiques pour améliorer la santé et les performances du site.]
5. Canonicalize pages et audit robots.txt
Si un problème est pratiquement inévitable, il consiste à découvrir plusieurs versions de la même page ou à dupliquer le contenu. Comme exemple assez hystérique, j’ai rencontré un site avec cinq itérations du même « à propos de nous » page:
https://site.com/about-us/
https://www.site.com/about-us/
https://www.site.com/about-us
https://site.com/about-us
http://www.site.com/about-us
Pour un moteur de recherche, ce qui précède ressemble à cinq pages distinctes, toutes avec exactement le même contenu. Cela crée alors de la confusion, voire pire, donne au site une apparence spammeuse ou superficielle avec autant de contenu dupliqué. La solution à ce problème est la canonisation.
Étant donné que les balises canoniques et le contenu dupliqué ont été les principaux sujets de discussion, la plupart des plugins et des intégrations CMS sont dotés de fonctionnalités de canonisation afin de vous aider à conserver votre référencement actif.
[Dans cette figure, le très populaire plug-in Yoast SEO pour WordPress possède une fonctionnalité d’URL canonique qui se trouve sous l’icône représentant une roue dentée. Cette fonctionnalité simple facilite la définition de l’URL canonique préférée pour une page donnée.]
De même, le fichier robots.txt est un outil de communication conçu pour spécifier les zones d’un site Web qui ne doivent pas être traitées ou analysées. Ici, certaines URL peuvent être interdites, empêchant les moteurs de recherche de ramper et de les indexer. Le fichier Robots.txt étant souvent mis à jour au fil du temps, il est possible que certains répertoires ou contenus d’un site ne soient pas autorisés pour l’analyse et l’indexation. À son tour, il est judicieux d’auditer le fichier Robots.txt d’un site pour s’assurer qu’il s’aligne sur vos objectifs de référencement et pour éviter tout conflit futur.
Enfin, gardez à l’esprit que tous les robots d’exploration des moteurs de recherche ne sont pas créés égaux. Il y a de bonnes chances que ces pages soient toujours explorées, mais il est peu probable qu’elles soient indexées. Si vous avez des URL répertoriées comme « ne pas indexer » dans le fichier robots.txt, vous pouvez rester tranquille en sachant que rien dans ces URL ne sera compté comme contenu superficiel ou en double lorsque le moteur de recherche prend la mesure de votre site.