0% ont trouvé ce document utile (0 vote)
50 vues155 pages

Support de Cours SEO Complet

Le document présente une approche détaillée pour améliorer la visibilité des TPE/PME sur Internet via le référencement naturel (SEO). Il couvre les étapes essentielles d'un projet SEO, y compris les audits techniques et sémantiques, l'optimisation de contenu, et la mise en place de recommandations. L'importance de la recherche de mots-clés et de la création de contenu de qualité est également soulignée pour réussir une stratégie SEO efficace.

Transféré par

Adib Bouaouaja
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
50 vues155 pages

Support de Cours SEO Complet

Le document présente une approche détaillée pour améliorer la visibilité des TPE/PME sur Internet via le référencement naturel (SEO). Il couvre les étapes essentielles d'un projet SEO, y compris les audits techniques et sémantiques, l'optimisation de contenu, et la mise en place de recommandations. L'importance de la recherche de mots-clés et de la création de contenu de qualité est également soulignée pour réussir une stratégie SEO efficace.

Transféré par

Adib Bouaouaja
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Améliorer la visibilité d’un site internet

de TPE/PME grâce au référencement


naturel (SEO)
Numéro de fiche RS 5938

Véronique DUONG
Professeur SEO chez Rankwell Institute
PRÉSENTATION
● Présidente de l’agence Search,
RANKWELL
● Spécialiste SEO depuis 2010 (Google et
Baidu)
● Ingénieure linguiste de formation
(Master 2)
● Ex-Présidente du SEO Camp, la plus
grande fédération du SEO dans le monde
francophone.
● Auteure d’ouvrages SEO
01 Introduction

02 Parts de marché des moteurs

Comment gérer un projet SEO de A à


03
Z?

SOMMAIRE 04
Le cahier des charges ou le brief client
à respecter

05 Le Kick-off Meeting

06 Le rétro-planning

Véronique DUONG
07 Audit technique du site

Mise en place des recommandations


08
techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
Le SEO (search engine optimization ou référencement
naturel en français) est désormais un secteur connu et
reconnu pour les entreprises et les sociétés qui veulent
réussir leur stratégie de visibilité en ligne.

C’est un domaine complet où nous retrouvons de la


01. technique, de la recherche et du développement car les
moteurs de recherche sont en constante évolution et il faut

Introduction s’adapter à leurs technologies, à leurs systèmes, de la


sémantique car la base du référencement se sont les
mots-clés, les requêtes que les internautes ont pensé et
au SEO recherché dans les moteurs, de la communication car il faut
savoir rédiger des textes et des contenus originaux,
uniques et suscitant un intérêt général, et du marketing car il
faut trouver des liens externes auprès de partenaires, et pour
cela il faut savoir créer des relations, les maintenir et avoir un
bon relationnel.
01 Introduction

02 Parts de marché des moteurs

Comment gérer un projet SEO de A à


03
Z?

SOMMAIRE 04
Le cahier des charges ou le brief client
à respecter

05 Le Kick-off Meeting

06 Le rétro-planning

Véronique DUONG
02. Parts de marché
des moteurs de
recherche
01 Introduction

02 Parts de marché des moteurs

Comment gérer un projet SEO de A


03
àZ?

SOMMAIRE 04
Le cahier des charges ou le brief client
à respecter

05 Le Kick-off Meeting

06 Le rétro-planning

Véronique DUONG
Pour chaque projet SEO, dès que nous recevons un
cahier des charges ou un brief du client, nous
commençons la procédure pour mettre en place
une campagne de référencement naturel.

Le SEO ou le référencement naturel est un


ensemble d’actions techniques, sémantiques et de
partenariats, visant à améliorer la visibilité d’un site

03. Comment gérer web dans les moteurs de recherche. Pour mettre
en place une campagne de SEO, il faut prévoir :

un projet SEO de A ● Des optimisations techniques

àZ? ●

Des optimisations sémantiques
Des optimisations de liens externes (off-site
SEO)
● Des plans de redirection, de nettoyage du
site web, etc.
● De la rédaction de contenu frais et de
qualité
● Des réunions, des appels, pour assurer le
bon déroulement du projet
03. Comment gérer un projet SEO de A à Z ?
03. Comment gérer un projet SEO de A à Z ?

Pour tout projet SEO, nous avons un cahier des charges qui liste ces grandes étapes, et ce
que nous devons réaliser au sein de ces dernières :

● les audits SEO (technique et sémantique)


● les optimisations
● les intégrations
● les suivis
● les veilles stratégiques
● l’e-réputation à surveiller
03. Comment gérer un projet SEO de A à Z ?

Exemple de cahier des charges


pour la création d’un site web
avec des optimisations SEO à
prévoir.
01 Introduction

02 Parts de marché des moteurs

Comment gérer un projet SEO de A à


03 Z?

SOMMAIRE 04
Le cahier des charges ou le brief client
à respecter

05 Le Kick-off Meeting

06 Le rétro-planning

Véronique DUONG
Le kick-off meeting est une étape qui permet
aux consultants SEO et aux clients d’exprimer
leurs besoins afin d’avancer mutuellement sur le

05. projet.

LE KICK-OFF C’est lors de cette réunion que le client doit


préciser ses objectifs, les KPI à suivre (Key
MEETING Performance Indicator traduit en français
par “indicateurs clés de performance”) et ce
qu’il attend de son site web en l’optimisant
correctement pour les moteurs de recherche.
Voici un exemple de KPI que nous suivons pour s’assurer que le site web est bien optimisé en termes
de référencement naturel et de trafic organique. Les KPIs à mesurer et à surveiller en SEO sont
nombreux, et voici ceux que nous avons choisi de retenir :

Nombre de pages vues Liens entrants (backlinks)

Visites uniques mensuelles Pages erreurs 4xx restantes

Positions SEO mensuelles


KPI Pages 3xx restantes (à
démailler)
Voici un exemple de KPI que nous suivons pour s’assurer que le site web est bien optimisé en termes
de référencement naturel et de trafic organique. Les KPIs à mesurer et à surveiller en SEO sont
nombreux, et voici ceux que nous avons choisi de retenir :

Taux d'indexation des pages (nombre


de pages réelles dans le site vs. le
Pages orphelines / mal nombre de pages indexées par
maillées éventuellement Google)

Taux de pages actives


(c’est-à-dire dire les
Taux de rebond
KPI pages ayant reçu au
moins 1 visite SEO par
mois)
Suite des KPI mesurables :

Conversions mensuelles Transactions mensuelles

Taux de pages
inactives (c’est-à-dire Et encore d’autres KPIs

KPI
les pages qui ne que les clients peuvent
reçoivent aucune visite demander sur-mesure
SEO par mois)
01 Introduction

02 Parts de marché des moteurs

Comment gérer un projet SEO de A à


03 Z?

SOMMAIRE 04
Le cahier des charges ou le brief client
à respecter

05 Le Kick-off Meeting

06 Le rétro-planning

Véronique DUONG
Afin de mener à bien les optimisations en
référencement naturel, nous devons mettre en
06. place avec le client un rétro-planning avec les
dates de réalisation et de rendus de livrables.
Le rétro Pour plus de visibilité, nous nous basons sur le

planning modèle du Diagramme de Gantt pour réaliser


le planning de suivi.
Le diagramme de Gantt, utilisé en
gestion de projet, est l'un des outils les
plus concrets pour représenter
visuellement l'état d'avancement des
différentes activités (tâches) qui
constituent un projet. Souvent, la colonne

06. Le rétro
de gauche du diagramme énumère toutes
les tâches à effectuer, et la ligne d'en-tête

planning représente les unités de temps (ou les


dates) les plus adaptées au projet (jours,
semaines, mois etc.).

Chaque tâche est matérialisée par une


barre horizontale, dont la position et la
longueur représentent la date de début, la
durée et la date de fin.
06. Le rétro planning
07 Audit technique du site

Mise en place des recommandations


08
techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
La phase d’audit SEO technique est l’un des
piliers en référencement naturel.
07. C’est à cette étape que nous allons analyser,

Audit technique observer et réaliser un constat de toutes les


problématiques qui empêchent les moteurs de
du site recherche d’accéder à certaines pages web du
site (qui sont souvent stratégiques et
importantes pour le client).
07. Audit technique du site
L’audit technique permet de détecter
toutes les anomalies qui empêchent les
bots des moteurs de recherche de
crawler, d’indexer, de référencer et de
07. classer les pages web dans leurs
résultats de recherche.
Audit technique ● le crawl du site
du site ●

l’indexation des pages web
le temps de chargement des pages
● le maillage interne
● la structure du site
● etc.
07 Audit technique du site

Mise en place des recommandations


08 techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
Suite à l’audit technique, nous devons envoyer
notre livrable au client pour validation, et par la
suite, l’implémentation de nos
08. Mise en place recommandations SEO aux prestataires

des externes ou internes qui réalisent le


développement du site web.
recommandations Ces derniers doivent étudier la faisabilité des

techniques recommandations, et mettre en place les


conseils afin de commencer à envoyer des
signaux positifs d’optimisation aux moteurs de
recherche.
08. Mise en place des recommandations
techniques
07 Audit technique du site

Mise en place des recommandations


08 techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
Lors de la phase d’audit sémantique, nous allons
rechercher les problématiques liées au contenu
éditorial afin de comprendre pourquoi les pages
09. web d’un site ne remontent pas assez sur tels ou
tels termes clés.
Audit Pour cet audit, nous allons regarder les méta

sémantique tags (ou méta données) qui sont composés


généralement des balises “title” et “méta
description”.
du site Les méta données peuvent aussi désigner les
balises meta robots, meta itemprop, etc. mais
ici, lors de l’étape de l’audit sémantique on
regardera plutôt les méta tags title et méta
description.
09. Audit sémantique du site

On vérifie également les titres éditoriaux que sont les heading titles HN (qu’on appelle le plus
souvent H1, H2, H3, etc. dans le jargon technique du SEO).

Ces balises HN ont un certain poids sémantique pour le SEO, et elles doivent être utilisées
avec la bonne hiérarchie afin d’avoir des pages bien ordonnées et de l’information structurée du
plus général au plus spécifique pour les internautes comme les moteurs de recherche.

C’est également l’étape où l’on détecte si nous devons mettre en place de l’URL Rewriting
(réécriture d’URLs avec des mots-clés).

En effet, si les URLs du site sont composées de paramètres, sont sans mots-clés, utilisent des
underscores comme séparateurs, nous devons proposer de la réécriture.
09. Audit sémantique du
site

Les attributs alt pour les images sont également à vérifier


dans cette phase afin d’être sûr que les contenus alternatifs
décrivant les images sont bien présents, et bien
optimisés pour les moteurs d’images (ex : Google Images,
Baidu Tupian (Images), Yandex.Images, etc.)

Cela est très important pour les sites e-commerce car ils ont
un certain nombre de produits avec des photos à optimiser.

Pour résumer, dans la phase d’audit sémantique, nous devons


auditer tous les contenus écrits dans les zones stratégiques
d’une page web afin d’être sûr qu’elles puissent bien remonter
sur les mots-clés à fort potentiel.
07 Audit technique du site

Mise en place des recommandations


08 techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
Durant la phase de recherche de mots-clés afin de
constituer une étude du marché par rapport à ce que les
internautes d’un pays recherchent, il est important de
garder en tête que cette étape fait partie du point de
départ stratégique pour réussir son référencement.

10. En effet si les mots-clés choisis à cette phase génère peu


d’intérêts, génère peu de recherches par mois ou par an, il
est préférable de choisir d’autres mots-clés.
Etude de Pour choisir les mots-clés, nous devons nous poser les

mots-clés
questions suivantes :

● Est-ce que ce mot est assez recherché ?


● Est-ce que ce mot n’est pas trop concurrentiel ?
● Est-ce que ce mot correspond à la thématique de ma
page ?
● Qui se positionne sur ce mot ? (voir les concurrents
dans les résultats de recherche)
● Mot-clé avec quelle intention ?
Les mots-clés font partie de la stratégie
sémantique du SEO. Ils sont très
importants pour bien définir et cibler la
façon dont un site veut communiquer et
se positionner.

L’étude de mots-clés est également une


10. étape essentielle dans une stratégie SEO
car elle permet :
Etude de ● De se rendre compte de comment
parle les internautes d’une
mots-clés thématique.
● De comprendre les attentes des
internautes par rapport à un sujet.
● D’optimiser le site web avec les
mots-clés populaires.
● De se positionner sur des requêtes
recherchées et spécifiques dont on
veut être spécialiste de sa niche.
07 Audit technique du site

Mise en place des recommandations


08 techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
Le contenu est l’un des points primordiaux à travailler en
SEO. Nous définissons “contenu” par “contenu éditorial
/ visuel / vidéo qui suscite de l’intérêt des internautes et
qui soit facilement crawlable et indexable par les
moteurs de recherche”.
11. John Mueller, un porte-parole de Google nous avait

Optimisation partagé ce propos : « Ne remplissez pas vos sites avec


des contenus de mauvaise qualité. Travaillez plutôt sur
ce qui fera que vos sites soient les meilleurs de leur
de contenu domaine ».

Le contenu continue à être le meilleur facteur


d’attirance des internautes sur le site car les
acheteurs utilisent le contenu pour informer leurs
décisions d’achat.
11. Optimisation de
contenu
Par rapport au contenu textuel, il faut faire attention
aux pénalités que les algorithmes des moteurs de
recherche peuvent infliger.

Panda créé en 2011 est l’algorithme de Google


contre les fermes de contenus écrits de mauvaise
qualité comme les textes générés automatiquement,
et le Duplicate Content.

Les pénalités de Panda sont très fortes


(désindexation ou perte importante de classements
dans Google).

Des contenus de qualité seront toujours plus


pertinents pour les sites web.
07 Audit technique du site

Mise en place des recommandations


08 techniques

09 Audit sémantique du site

SOMMAIRE 10 Etude de mots-clés

11 Optimisation de contenu

12 Intégration des contenus optimisés

Véronique DUONG
Les intégrations doivent être planifiées dans le
rétro-planning et être réalisées assez rapidement afin que
les moteurs de recherche puissent repérer le plus rapidement
possible les mises à jour dans le site, revenir le crawler plus
souvent.

12. La durée des intégrations est très variable en fonction de


la volumétrie des pages du site. Plus un site sera important
Intégration en termes de volume de pages, plus les intégrations peuvent
prendre du temps.

des contenus Dans l’idéal, pour l’intégration des titles et méta descriptions
optimisées, nous recommandons d’utiliser des modules, des

optimisés extensions voire des outils sur-mesure développés maison


afin d’intégrer automatiquement l’ensemble des éléments
dans le site.

Nous préférons une intégration ou un import automatique


des données car cela permet un gain de temps considérable,
et un taux d’erreurs moindre.
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
Pourquoi devons-nous nous intéresser aux
domaines référents et aux liens externes qui
13. pointent vers le site ?

Audit de Ces domaines et ces liens sont vus comme des


signaux de qualité externe.

liens externes Plus un site en a, plus il est considéré comme


“populaire”, avec une notoriété certaine, et
ayant bonne réputation.
13. Audit de liens externes

Depuis 2012, avec l’arrivée de l’algorithme Penguin, les fermes de


liens externes sont pénalisés par ce dernier.

Les sites web ayant des liens externes qui proviennent de


domaines peu qualitatifs peuvent être sévèrement
sanctionnés par les moteurs de recherche.

C’est pour cela qu’il est indispensable de vérifier les liens externes
d’un site afin de s’assurer que les domaines faisant référence aux
sites soient de qualité.

Nous pouvons vérifier les noms de domaines et les liens dans


différents outils, notamment Ahrefs, un des outils SEO les plus
connus du marché :
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
Après les intégrations des préconisations, nous
14. devons recetter le site afin d’être sûr que
toutes les recommandations ont été prises
Recettage en compte.

technique et Pour cela, le plus souvent, nous reprenons les


audits que nous avons réalisés au départ, et
sémantique nous regardons point par point si la
recommandation a été appliquée ou non.
14. Recettage technique et sémantique

Nous avons une liste de points dans un plan d’action SEO, et nous pouvons également nous servir de ce
dernier pour faire la vérification.
14. Recettage
technique et
sémantique
Suite au recettage, nous renvoyons le document commenté
aux prestataires techniques afin qu’ils ré-implémentent ou ré-
étudient la faisabilité des recommandations nouvelles que
nous avons données lors de la vérification.

Nous répétons l’opération avec le propriétaire du site, les


prestataires techniques jusqu’à ce que les recommandations
techniques et sémantiques soient implémentées en totalité.

Après avoir implémenté l’ensemble des recommandations, il


est désormais possible pour nous de suivre l’évolution du
SEO en faisant des rapports mensuels ou trimestriels.
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
Afin de bien suivre les performances d’un site suite à la
mise en place de recommandations et d’optimisations
SEO technique, sémantique et de netlinking, nous
pouvons commencer à suivre son évolution via des KPI
tels que :

15. Suivi ●

Positions SEO mensuelles
Visites uniques mensuelles

maintenance et ●


Nombre de pages vues
Liens entrants (backlinks)
Pages erreurs 404 restantes
reporting ●

Pages 3xx restantes (à démailler)
Taux de rebond
● Conversions mensuelles
● Chiffre d'affaires mensuel
● Taux d'indexation des pages (nombre de pages
réelles dans le site vs. le nombre de pages
indexées par les moteurs de recherche)
15. Suivi
maintenance et
reporting

Des outils de mesure de performances en


termes de trafic existent pour chaque
moteur de recherche, et voici les plus connus
que nous utilisons régulièrement :

● Google Analytics (américain)


● Baidu Tongji (chinois)
● Yandex Metrica (russe)
Outils SEO nécessaires pour les audits et les
rapports :

Screaming frog Google Keyword Google Analytics


Planner

Outils SEO
Dareboost PageSpeed Advanced Web
Insights Ranking

SEO Power Suite Ahrefs Rank


Tracker
● Trouver un site web à analyser
tout au long de la semaine
● Crawler le site avec Screaming
Frog
● Exporter les données
Brainstorm : faire ressortir les
Exercice - Projet

mots-clés et les expressions
du site (noter les mots-clés qui
viennent sur une feuille de
papier, et on en parle lors du
cours de mardi ou mercredi
16/02/2022)
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
Dans un audit technique, nous vérifions tous les points
liés au crawl du site, à son indexation, à son maillage
interne, aux pages erreurs, pages redirigées présentes,
aux temps de chargement (quelles sont les données les
plus consommatrices de ressources), aux structures des
pages, etc.

16. SEO La partie audit technique en SEO ou référencement


naturel consiste en plusieurs étapes; et à vérifier les
technique points suivants :

● le crawl du site
● l’indexation des pages web
● le temps de chargement des pages
● le maillage interne
● la structure du site (pas trop de profondeurs)
● etc.
Crawl

En arrivant sur un site web, les moteurs de recherche


regardent en premier le robots.txt afin de voir s’ils
peuvent tout visiter (ou crawler) sur un site.
S’il existe des restrictions, les moteurs sautent les
dossiers restreints, et vont directement voir les

Définitions des dossiers autorisés.

termes techniques Indexation

Après être entrés dans les différents dossiers autorisés,


les moteurs de recherche vont chercher les pages à
visiter, puis à enregistrer (indexer) dans leurs bases de
données.
Le sitemap.xml aide à faire indexer un site plus
rapidement.
Temps de chargement

Plus une page met du temps à se charger, plus elle aura


dû mal à bien ressortir dans les résultats de recherche
des moteurs. Il faut faire attention à ce point car avec
l’arrivée des nouveaux projets de Google et de Baidu, à
savoir l’AMP (Accelerated Mobile Pages) et le MIP
(Mobile Instant Pages), les versions mobiles des sites

Définitions des seront plus importants que les versions classiques sur
ordinateur.

termes techniques Maillage interne

Une page web peut être indexée plus rapidement si elle


est facilement trouvable dans la structure du site. Le
maillage interne a un impact important sur le
classement des pages dans les moteurs de recherche.
Simulation du passage de Google

Nous avons simulé le passage d’un moteur


de recherche au sein du site. C’est ce qui
s’appelle un “crawl”. Ce test nous permet de
recenser l’ensemble des urls du site, et
d’avoir une vision d’ensemble de ce dernier.

Il nous permet également de parfaitement


comprendre à quoi seront confrontés les
moteurs de recherche quand ils passeront
sur le site.
Simulation du passage de Google

Suite à la simulation du crawl, nous recensons un


certain nombre d’URLs, et dans le cas présent, nous
avons un échantillon de 1428 URLs.

Nous allons voir dans le point suivant combien


d’URLs sont conformes aux règles de moteurs
de recherche tous confondus.
On pratique !
Crawl avec
Screaming Frog
Raisons des pages non indexables

Une URL est considérée comme “non conforme”


lorsqu’elle ne remplit pas ces critères :

● une page html (il ne faut pas que cela soit


des fichiers script ou image ou du Flash)
● entête HTTP 200 (pas de redirection 3xx ou
d’erreur 4xx)
● avoir une balise canonical qui pointe vers
elle même (ou non renseignée)
● pas de présence de balises meta noindex
dans les pages stratégiques.
Pages actives vs pages inactives

Dans notre cas actuel, il existe une majorité de


pages web qui ne sont pas actives au sein du
site (c’est à dire qu’elles ne reçoivent pas de
visites SEO), et ces dernières peuvent être les
pages stratégiques.

Lorsque nous analysons de plus près, les pages


inactives sont souvent celles qui sont soient à des
niveaux de profondeur importants dans le site (au
delà de trois clics, une page est difficilement
accessible pour un internaute ou pour un moteur
de recherche, soit pauvre en contenu, etc.).
Pages actives et inactives x Profondeur

Certaines pages intéressantes trop profondes reçoivent très peu de visites SEO par mois.

Il faudrait les remailler le plus proche possible de la page d’accueil afin qu’elles reçoivent plus de visites. Les pages inactives sont
composées des pages sans visites SEO par mois.

Il faudrait pousser la promotion de ces pages (comme en faire une sélection) et réécrire les contenus, les rendre plus attirantes et
informatives pour les utilisateurs.
Pages actives et inactives x Profondeur

Pour observer le crawl budget d’un site, nous pouvons nous servir de la Search Console de Google. Les fichiers de logs Apache du site
sont également une mine d’informations pour détecter et comprendre comment les robots des moteurs passent et visitent les URLs
d’un site.

Exemple ci-dessous : Nous avons crawlé un site ayant 449 URLs maillées. Mais nous voyons que la moyenne allouée est de 211 pages
explorées par jour, et sachant que le site à 449 pages, donc certaines ne sont jamais crawlées par Google.
Lorsqu’il existe des URLs non indexables et polluantes
au sein du site cela peut perturber le crawl budget.
Notre préconisation est qu’il faut démailler (c’est-
à-dire retirer du maillage, de la structure du site) les
URLs polluantes (pages en erreur, pages en
redirection), et les remplacer par les URLs vers
lesquelles elles sont redirigées.
Les URLs Souvent les URLs polluantes sont :

polluantes ●

les pages en 404 (pages qui n’existent plus)
en 301 (pages redirigées de façon
permanente transmettant la popularité de
l’ancienne page vers la nouvelle)
● en 302 (pages redirigées de façon temporaire
qui ne transmettraient pas la popularité ou le
jus de lien de l’ancienne page vers la nouvelle
URL)
On pratique !
On relève les URL
polluantes du site.
Dans l’idéal, un site doit présenter un taux à
100% de pages répondant :
● en code 200 (c’est-à-dire que les
pages existent, renvoient bien du
contenu),
● en format HTML,
● sans balise noindex ou canonical,
afin que les robots des moteurs de recherche
Les URLs visitent un maximum de pages au sein du site.

polluantes
En 2020, on estime que de nombreux pays
seront en connexion 3G, d’après l’outil “Think
with Google” :

Temps de
chargement
Speed Index

Le Speed Index est un score mesurant le temps que le contenu prend pour s’afficher
au-dessus de la ligne de flottaison. Un bon Speed Index (sur mobile) est en dessous de
3000. Voici ce que les fourchettes de scores signifient :

● Très bon : moins de 2000


● Bon : moins de 3000
● Passable : moins de 5000
● Mauvais : entre 5000 et 10 000
● Très mauvais : + de 10 000

Sur ordinateur, on préconise d’avoir un Speed Index égal ou inférieur à 1000.


Speed Index

Simulation d’une visite en iPhone 6s à Paris sur une page d’accueil se chargeant en plus de 10 secondes
avec un Speed Index supérieur à 3000.
L’outil Lighthouse permet de mesurer les temps de
chargement d’un site.

C’est un plugin à télécharger :


https://chrome.google.com/webstore/detail/lighthouse/
blipmdconlkpinefehnmjammfjpmpbjk?hl=fr

Lighthouse de
Google
On pratique !
On regarde les
temps de
chargement avec
Lighthouse.
On constate clairement que plus une page se
charge rapidement sur ordinateur et/ou mobile,
plus elle se positionne bien dans les résultats de
recherche de Google.

Nous constatons également dans le graphe que les


pages qui se chargent en moins de 500 ms se
positionnent en majorité en position 1 dans Google.
Impact du temps de
chargement sur le
SEO
Robots.txt
En arrivant sur un site web, les moteurs de
recherche regardent en premier le robots.txt afin
de voir s’ils peuvent tout visiter (ou crawler) sur
un site.

S’il existe des restrictions (Disallow: ), les


moteurs sautent les dossiers restreints, et vont
directement voir les dossiers autorisés.

Les restrictions ou permissions ayant des


erreurs ne seront pas pris en compte par les
robots des moteurs de recherche.

Le fichier “robots.txt” s’écrit toujours avec


un “s” à la fin de “robots”.
Robots.txt
La syntaxe du robots.txt est assez précise : les
chemins doivent obligatoirement
commencer par un “/”.

Nous observons aussi que certains webmasters


mettent des “*” en début de chemin dans le
fichier, mais il faut savoir que le robots.txt ne
prend pas en compte les caractères “jocker”
ou les “*” des expressions régulières (Regex)
dans les débuts de chemin.

L'astérisque n’est valable que pour les


User-Agent ou certains autres cas mentionnés
ci-dessous (voir l’explication de la directive
ci-dessous).
Robots.txt

Le fichier robots.txt doit être un fichier texte ASCII ou UTF-8. Aucun autre caractère n'est autorisé. Un
fichier robots.txt est constitué d'une ou plusieurs règles. Chaque règle est composée de plusieurs directives
(instructions), et il ne faut avoir qu’une directive par ligne.

Une règle fournit les informations suivantes :


● Le robot (user-agent = crawler = moteur de recherche) auquel la règle s'applique
● Les répertoires ou fichiers auxquels cet agent peut accéder (Allow)
● Les répertoires ou fichiers auxquels cet agent ne peut pas accéder (Disallow)
● Les règles sont traitées de haut en bas, et un même user-agent ne peut relever que d'une seule
règle, définie comme la première règle la plus spécifique régissant son comportement.
● Le principe de départ veut qu'à partir du moment où une page ou un répertoire ne sont pas bloqués
par une règle Disallow:, le user-agent peut les explorer.
● Les règles sont sensibles à la casse. Par exemple, Disallow: /fichier.asp s'applique à
http://www.example.com/fichier.asp, mais pas à http://www.example.com/Fichier.asp.
Exemple 1 : Bloquer uniquement
Googlebot

● User-agent: Googlebot
● Disallow: /

Exemple 2 : Bloquer Googlebot


Quelques exemples et Adsbot

de règles pour le ● User-agent: Googlebot


User-agent: AdsBot-Google
robots.txt

● Disallow: /

Exemple 3: Bloquer tous les


robots, sauf les robots AdsBot

● User-agent: *
● Disallow: /
Quelques exemples
de règles pour le
robots.txt
On pratique !
Après être entrés dans les différents
dossiers et pages autorisé(e)s dans le
robots.txt, les moteurs de recherche
vont chercher les pages à visiter, puis à
indexer dans leurs bases de données.

Sitemap.xml Le sitemap.xml aide à faire indexer


un site plus rapidement. Nous
recommandons cette hiérarchie
suivante pour prioriser (dans les balises
<priority> d’un sitemap) l’indexation
des pages dans un site :
Pages produits principaux,
Autres pages (histoire de
“best-seller”, meilleures
l’entreprise, équipe, etc.)
Page d’accueil ventes

1.0 0.8 0.5

0.8 0.7 0.2

Pages catégories Pages produits autres Pages juridiques (mentions


(déclinaisons, secondaires, légales, termes et
etc.) conditions, etc.)
Nous recommandons aussi d’avoir
la balise <changefreq> pour la
fréquence de changements des
Sitemap.xml pages, et y indiquer les éléments
suivants pour les typologies de
pages suivantes :
Pages mentions légales,
Page d’accueil Pages catégories
termes et conditions, etc

daily weekly monthly


0.8 0.5

0.7 0.2
daily daily

Pages d’actualités Page produits


(blog, magazine, news,
etc.)
Sitemap.xml
Sitemap.xml

Pour envoyer un sitemap aux moteurs de


recherche, il existe plusieurs façons ou
méthodes, et nous préconisons celle-ci
dessous qui nous semble la plus efficace
et simple à réaliser (même pour des
personnes n’ayant pas un profil technique)
:

● Soumettre le ou les sitemap(s)


dans l’interface des outils pour les
webmasters comme la Search
Console.
Suite à la soumission des sitemaps
dans les différents moteurs de
recherche, nous pouvons étudier le site
dans un niveau de profondeur plus
important à savoir :

Sitemap.xml ●

les pages erreur 404 à rediriger,
puis les pages en redirection
3xx à retirer du maillage du site,
● étudier les pages ayant une
balise canonical différentes afin
de constater si elles sont
vraiment problématiques ou non
Pages 404

Lorsque nous avons beaucoup de pages en


404, nous mettons en place un plan de
redirection dans lequel nous faisons pointer
les pages en erreur vers des pages
existantes dans le site.

Pour cela, nous avons une méthode précise


qui consiste en ces étapes ci-dessous :
Crawl complet du site afin de
faire remonter toutes les URLs
du site.

Tri des URLs afin de ne


conserver que les pages 404.

Proposition d’une URL qui va


remplacer la page qui n’existe
plus et qui répond en 404. Mise en place de l’ensemble des
règles de redirection dans le
fichier .htaccess ou à défaut,
dans le fichier httpd.conf
(cette étape est traitée par un
développeur web).
Exemple d’un plan de redirection de pages
erreurs 404 :
Les pages en 301, 302 sont des pages qui n’existent plus et
qui ont été redirigées.

Ainsi, elles répondent sous les rescodes 301, 302, qui sont les
rescodes de redirection les plus courants que nous
rencontrons en référencement naturel.
Ces pages ne doivent pas être reliées au maillage du site
car elles ne sont pas indexées par les moteurs, et peuvent
perturbées le crawl du site.

Pages en redirection C’est pourquoi il faut les retirer le plus rapidement possible
du site afin de ne montrer que des URLs saines (répondant

301 et 302 en 200, en HTML, etc.) aux moteurs de recherche.


Notre recommandation pour gérer le
cycle de vie des pages (notamment les
produits par saison, par saisonnalité
(soldes, Noël, Saint-Valentin, etc.), et
Redirection et cycle de suivre notre procédure suivante qui

de vie de produits consiste en soit laisser la page en 200


même si le produit n’existe plus, ou de
la rediriger en 301 (afin de conserver
le jus de lien existant) vers une page en
200.
Pour gérer les produits, nous proposons deux solutions :

01 02

Redirection et Laisser les pages Rediriger les pages

cycle de vie produits qui n'ont plus


de stock en 200 (si
produits sans stock
vers la page catégorie

de produits
elles sont désactivées parente (en 301)
dans le CMS, elles
peuvent génèrent des
erreurs 404).

Si la première option est choisie, il faut avoir des contenus pertinents sur
les pages afin de prévenir qu’elles ne sont présentes qu’à titre
informationnel, et avoir un espace avec des produits similaires à proposer.
Dans le cas où un plan de redirection a été mis en place pour rediriger des pages en erreur 404 vers
des pages existantes, les pages en erreur deviennent des pages redirigées répondant sous les
rescodes 301, 302. Pour retirer du maillage les pages en 301 et 302, dans un site de petite taille, il est
possible de le faire manuellement. Voici ce qui se passe concrètement lorsque nous parlons de
retirer du maillage du site les pages qui n’existent plus ou en redirection :

Plan de
démaillage
Nous allons Nous Nous le Nous Nous Puis nous
dans le code repérons le retirons de la remplaçons enregistrons le envoyons le
source HTML lien qui balise <a vers la fichier HTML fichier HTML
des pages qui n’existe plus href=“...”> nouvelle URL sur le serveur
référencent ou redirigé qui répond en FTP afin de
encore les 200 remettre en
pages en ligne la page
erreur et/ou de référence
en redirection mise à jour et
corrigée
Plan de démaillage
Plan de démaillage

Concrètement, il faut aller dans les codes sources HTML des pages de référence, repérer le lien en 301, le
retirer et le remplacer par la nouvelle URL qui répond en 200.
Qu’est-ce qu’une balise canonical ? Avant
d’aborder le plan de canonical, il est nécessaire de
définir la canonical. Cette balise a été créée en
2009 par Google, Bing et Yahoo!

La canonical a une signification claire : elle permet


Plan de balisages d’empêcher les contenus dupliqués, similaires,
et indique aux moteurs de recherche qu’il

Canonical existe une version alternative principale de la


page, et qu’il faut prendre en compte son
indexation en priorité.

La page contenant une balise canonical, qui pointe


vers une autre page considérée comme principale,
a donc moins de chance d’être indexée par les
moteurs de recherche.
Par exemple, grâce à un outil de crawl (type
Screaming Frog), nous pouvons faire remonter
l’ensemble des pages ayant une balise Canonical
non indexées, et créer un plan de pages
canoniques.

Plan de balisages
Canonical
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
17. SEO
sémantique
On pratique !
Balisage méta tags

En référencement naturel, les éléments stratégiques les


plus connus à optimiser sont certainement les méta
tags (ou méta données).

Les méta tags sont composées de :


● la balise <title>
● la balise <meta name=”description”>,
● ainsi que la balise <meta name=”keywords”>

qui serait encore effective avec un impact sur le SEO


sémantique pour la plupart des moteurs asiatiques (Baidu,
Naver, Sogou, Qihoo 360, etc.).

Ces balises doivent être codées dans la partie


<head></head> d’une page web, et être le plus proche
possible de la balise <head> ouvrante :
Interface d’édition des méta tags Title et Méta
description dans Yoast (CMS (Content Management
System) de Wordpress)

Balisage méta tags


Optimisation des balises <title>

La balise <title> est la balise qui aurait le plus de poids en termes d’impact au niveau du référencement naturel. C’est
le titre de l’extrait de résultat de recherche que l’on voit dans les moteurs de recherche.

Pour l’ensemble des moteurs de recherche, Google, Baidu, Yandex, Naver, Yahoo! Japan, etc. cette balise est
stratégique car elle doit fournir la réponse à la recherche ou la requête qu’un internaute aura effectuée dans la barre
de recherche.

En code HTML, la balise <title> se présente sous cette forme :


Optimisation des balises <title>

Le title est l’endroit où nous devons mettre des informations pertinentes répondant aux requêtes de recherche des
internautes. C’est aussi dans cette zone que nous devons y insérer un ou deux mots-clés stratégiques. Les mots-clés
sont souvent ceux qui sont réalisés lors de l’étude de mots-clés.

Il est également possible de se connecter directement à des outils en ligne comme Google Keyword Planner ou
Google Trends pour observer si les mots-clés choisis sont recherchés, populaires (volume de recherche mensuel), et
méritent d’être placés dans les balises <title> des pages web.

Voici un aperçu de la balise <title> s’affichant dans les résultats de Google :


Le title a également une limite de caractères,
et cette limite varie selon le moteur. Voici les
données officielles que nous avons par rapport
à chaque moteur connu :

● Google : une 50taine de caractères

Optimisation des ●
espace compris pour le title
Baidu : une 20taine de caractères

balises <title> ●
chinois espace compris pour le title
Yandex : une 60taine de caractères
espace compris pour le title

<title>
Voici les formats de titles que nous préconisons par
typologie de pages :

● Page d’accueil : Marque | Mot-clé | Noms de


catégories ou produits
● Page catégories : Nom de la catégorie |
Mot-clé | Marque
● Page produits : Nom du produit | Mot-clé |
Marque

Optimisation des ● Page articles rédigés : Titre de l’article |


Mot-clé (éventuellement) | Marque

balises <title>
Optimisation des balises <meta description>

La balise <meta name=”description” content=“...”> est la balise qui permet d’ajouter un descriptif d’une phrase
dans l’attribut “content” afin d’introduire les éléments que les internautes peuvent lire dans la page web.

Idéalement, elle doit se placer juste après la balise <title> dans le code source HTML. La méta description s’affiche sous
le title dans les résultats de recherche de moteurs :

Pour Google, la meta description n’a pas d’impact direct sur le classement des pages web dans ses résultats de
recherche. Cette description a plus pour objectif d’attirer les internautes à cliquer sur les résultats. Il faut y mettre
des appels à l’action, des messages marketing intéressants, des baselines qui captent l’attention des utilisateurs.
Les méta descriptions ont également une limite de
caractères à respecter. Voici les limites selon les
moteurs de recherche :

● Google : environ 156 caractères, espace


compris
● Baidu : entre 80 et 100 caractères chinois,

Optimisation des ●
espace compris
Yandex : entre 155 et 160 caractère russes,

balises <meta
espace compris

description>
On pratique !
Après les méta tags, les moteurs de recherche vont scanner les heading titles (ou
les titres éditoriaux) d’une page web. Ces titres sont placés dans la balise <body>
du site, et doivent suivre cette hiérarchie (de 1 à 6) afin d’être optimisés
techniquement parlant :

H1 : Titre de niveau 1 H2 : Titre de niveau 2 H3 : Titre de niveau 3


contenant le sujet ou contenant un contenant un

Balisage
l’information principale. sous-titre du H1. Cette sous-titre du H2. Cette
Cette balise a le plus balise reste importante balise entre dans la
de poids sémantique pour le SEO, mais a un spécificité de la page,
heading par rapport aux cinq
autres.
poids un peu plus
faible que le H1.
et donne une
information

tags
généralement plus
précise que le H1 et le
H2, mais son poids
sémantique est
également moindre
que les H1 et H2.
Après les méta tags, les moteurs de recherche vont scanner les heading titles (ou
les titres éditoriaux) d’une page web. Ces titres sont placés dans la balise <body>
du site, et doivent suivre cette hiérarchie (de 1 à 6) afin d’être optimisés
techniquement parlant :

H4 : Titre de niveau 4 H5 : Titre de niveau 5 H6 : Titre de niveau 6


contenant des petits contenant des noms (le dernier)

Balisage
titres pour chaque de produits ou des contenant des
paragraphe. Cette noms d’éléments éléments très
balise est dans le spécifiques. Cette spécifiques sur un
heading détail des points
traités par page. Son
balise n’a presque
plus d’impact en
produit, un concept
ou une idée. Cette

tags
impact en SEO est termes de poids balise est rarement
minime. Cependant, sémantique SEO, utilisée car la plupart
elle doit tout de mais elle permet de des sites ne vont pas
même contenir des bien structurer les jusqu’à cette
mots-clés. informations, et il profondeur
faut également y d’informations.
mettre des mots-clés
dans cette dernière.
Les balises heading titles sont les titres éditoriaux qui
structurent l’information au sein d’une page web.
Comme nous l’avons déjà mentionné dans le chapitre 3
dans la partie SEO technique, après les méta tags, les
moteurs de recherche scannent la page, et lisent les
balises <body>, <h1>, <h2>, <h3>, etc.

Optimisation des Les balises <hn> ont un certain poids en termes de


SEO sémantique car elles contiennent souvent les

heading titles (h1,


données les plus importantes, et structurent
l’importance des informations dans le contenu.

h2, h3) Ces balises ne doivent pas contenir des éléments


comme “cliquez-ici”, “en savoir plus” car ce type de
contenu n’a pas de mots-clés stratégiques, et ne doit
pas être placé dans des balises stratégiques comme les
heading titles.

L’idée des heading titles est de hiérarchiser les


informations du plus général au plus spécifique.
Optimisation des heading titles (h1, h2, h3)

Titres éditoriaux remplis et optimisés


On pratique !
L’optimisation d’URLs a un nom bien précis en
référencement naturel, et cela se nomme “URL
Rewriting”.

L’idée est de réécrire les URLs d’un site afin qu’elles


soient plus lisible, contiennent des mots-clés, et
qu’elles soient faciles à retenir.

Optimisation des Souvent, avec les paramètres d’URLs liés à la navigation


à facette, à la sélection de filtres et de catégories dans

URL (URL
les sites e-commerce, les URLs se présentent sous
cette forme :

Rewriting) https://www.example.com/search?category=dress&b
rand=name&color=red&size=38

Ce type d’URLs ne sont pas SEO-friendly, et peuvent


causer des problèmes de duplication de contenu. Les
URLs principales sont celles qui ne contiennent pas de
paramètres.
Toutes celles qui en contiennent sont souvent des
déclinaisons des URLs principales.
Dans ce point, l’idée est de réécrire les URLs mal écrites
comme :

https://www.example.com/search?category=dress&b
rand=name&color=red&size=38

Optimisation des Et les transformer en ce type d’URLs plus courtes et

URL (URL lisibles par exemple :

Rewriting) https://www.example.com/dress/brand/red/38/

L’idée est d’avoir des URLs lisibles pour les internautes


et pour les moteurs de recherche.

=> Des URLs plus propres sont également plus


rapidement indexées dans les moteurs.
Pour qu’un contenu soit pertinent aux yeux des moteurs de
recherche, il faut qu’il respecte certaines conditions comme la
longueur du contenu, la densité de mots-clés pour certains
moteurs de recherche qui prennent en compte encore cette
notion, le maillage interne, etc.

En 2012, dans une étude de serpIQ (dont le site n’existe plus),


il a été démontré qu’une page web contenant plus de
2000 mots se positionne souvent dans le top 10 des
résultats de recherche, voire en position 1 ou 2, que les
pages qui en ont moins :
Optimisation des
contenus textuels
Un contenu ayant plus de 1200 mots envoie un
signal positif à Google, et un contenu ayant près
de 2000 mots envoie un signal de très bon
qualité à Google.

L’idée est également de produire des contenus


Optimisation des de qualité qui donne de l’information éducatif,
unique aux internautes.

contenus textuels Pour l’ensemble des moteurs de recherche, lorsque


nous cherchons à optimiser les contenus, il est
préférable d’insérer les mots-clés au début des
articles, dans le premier paragraphe par exemple,
afin que les crawlers les voient immédiatement
lorsqu’ils arrivent et crawlent les pages.
On pratique !
Balisage attributs alt
Les attributs alternatifs sont surtout connus pour les
images.

En effet, Google Images, ainsi que les autres moteurs


d’images lisent cet attribut pour comprendre la
description de l’image est indexée l’image en fonction
des mots-clés qui s’y présentent.

Concrètement, les attributs alt se trouvent dans les


balises images, et se présentent sous cette forme :

<img src=“nom-fichier-optimise.jpg” alt= “Mots-clés -


Nom de produit - Marque” />
Dans les CMS (Content Management System) tels que
WordPress, Drupal, Magento, etc. il existe des champs
nommés “Texte alternatif”, “alt”, ou “texte
descriptif” pour désigner l’attribut alt des images :

Balisage attributs
alt
Dans ces attributs alt, il est important d’y mettre
des mots-clés afin que les visuels puissent
remonter correctement dans Google Images.

Optimisation des Le contexte autour de l’image a également son


importance. Il faut y mettre des légendes, des
attributs alt pour les textes explicatifs comportant aussi des
mots-clés afin que l’image ait plus de chance à

images ressortir correctement dans les moteurs d’images.

Les attributs alt des images sont à optimiser


surtout pour les sites e-commerce vendant des
produits qui doivent être bien référencés.
Voici un exemple de sites ayant des attributs alt
vides pour les images de produits :

Optimisation des
attributs alt pour les
images En omettant de remplir les attributs alt, il existe un
réel manque à gagner pour le référencement
naturel des images.
De ce fait, il est difficile pour les moteurs de
recherche de comprendre de quels types de
produits il s’agit, de les catégoriser correctement,
et de les faire remonter sur des mots-clés
pertinents.
Le maillage interne est un concept qui peut se
résumer aux relations entre les pages internes
du site web.

Plus une page a de liens internes (notamment la


page d’accueil car elle relie toutes les pages entre
Optimisation du elles depuis elle-même), plus elle a des chances
de bien se positionner dans les moteurs de

maillage interne recherche.

C’est pourquoi, il ne faut pas laisser de pages


isolées (orphelines), et essayer de les mailler
entre elles au maximum (par exemple, créer une
section de produits similaires pour renforcer le
maillage interne des pages, etc.)
Plus une page a de inlinks (liens internes), plus
elle a de chance d’être classée dans le top des
résultats de recherche.

Optimisation du
maillage interne
Le fil d’Ariane est le fil conducteur de la navigation
d’un site. Il permet de renforcer le maillage interne
d’un site, et de permettre aux internautes de
comprendre où ils sont au sein du site.

Les ancres de texte permettent d’améliorer


Optimisation des considérablement le positionnement d’une page
dans les moteurs de recherche.

fils d’Ariane Plus elles sont claires et composées de mots-clés


pertinents, plus la page aura des opportunités de

(ancres) classement sur ces derniers dans les moteurs.

Voici un fil d’Ariane idéal selon nos


recommandations :

Accueil > Catégorie (mot-clé recherché) >


Sous-catégorie (mot-clé recherché) > Produit
(avec mot-clé)
Optimisation des fils d’Ariane (ancres)

Afin d’avoir des mots-clés dans le fil d’Ariane, il faut nommer les rubriques dans le menu avec des termes
recherchés (voir l’étude de mots-clés) ainsi lors de la récupération automatique des données pour composer
le fil d’Ariane, cela se fera naturellement et systématiquement.

Voici un code source HTML où nous pouvons voir comment le fil d’Ariane est composé :
Les ancres des liens internes et externes sont à optimiser afin
d’envoyer les bons signaux aux moteurs de recherche et de les
faire “comprendre” sur quels termes clés, nous souhaitons faire
remonter des pages web.

Dans Google Search Console par exemple, il est possible de voir les
mots sur lesquels les sites externes font le plus d’ancrage de textes :

Optimisation des
ancres de texte
internes et
externes
Les ancres des liens externes ont un poids
considérable sur le positionnement des pages web
sur des mots-clés stratégiques.

Si nous souhaitons remonter sur un mot-clé


Optimisation des recherché, nous devons l’utiliser comme texte
d’ancrage dans le site et à l’extérieur du site, sur les
ancres de texte autres sites externes.

internes et En étant précis dans les ancres internes et externes


(souvent, nous devons contacter les propriétaires

externes des sites externes pour leurs demander d’utiliser


une ancre de texte adéquate par rapport à notre
activité), nous envoyons la bonne information aux
moteurs de recherche, et ils comprennent sur quels
termes ils doivent catégoriser et faire remonter le
site.
Les attributs hreflang sont des balises linguistiques créées
par Google pour gérer des sites multilingues qui sont sur un
même domaine.

Typiquement, les sites internationaux présentent ces


problématiques. Afin de montrer la bonne version
linguistique aux moteurs de recherche, il faut absolument
montrer les bonnes versions linguistiques à ces derniers,

Balisage Hreflang sinon l’implémentation pourrait ne pas fonctionner.

Si un propriétaire possède un site avec plusieurs versions


linguistiques, il est nécessaire de mettre la balise :

<link rel=“alternate” href=“exemple.com/repertoire/”


hreflang=“langue-pays” />

dans la partie <head></head> des pages web multilingues.


La valeur de l'attribut hreflang permet d'indiquer la langue (au format ISO
639-1) ainsi que la région (facultatif, au format ISO 3166-1 Alpha 2) d'une autre
version de l'URL.

Voici la syntaxe exacte :

EN GB ES
Balisage contenu en contenu en contenu en
Hreflang anglais, quelle
que soit la région
anglais destiné
aux internautes
anglais destiné
aux internautes
situés au situés en
Royaume-Uni Espagne

Nous devons toujours avoir un couple de “langue-pays” soit : “fr-CA” pour du


contenu en langue française destiné aux internautes au Canada, “es-FR” pour du
contenu en espagnol destiné aux internautes en Espagne, etc. Il est important de
respecter cette syntaxe, sinon, les balises hreflang sont ignorées.
Voici les erreurs de balisage hreflang les plus courantes :

Balisage Hreflang
Les balises schema.org sont des balises metadonnées qui
permettent d’ajouter de l’information supplémentaire sur
une page web. Il existe plusieurs types de balises
schema.org, et voici un extrait des plus courants :

Balisage Rich
Snippets
Balisage Rich Snippets

Sur schema.org, il existe une page spéciale sur le “Breadcrumb” (Fil d’Ariane en anglais), et cette dernière fournit
des exemples de codes à implémenter pour générer le rich snippet (extrait ou résultat enrichi en français) dans
Google.
Souvent omis, les noms des fichiers de
médias audio, vidéo, images, sont

Optimisation importants à optimiser. Même s’ils ont


peu de poids pour le référencement
des fichiers médias naturel, il est nécessaire d’avoir une
certaine homogénéité au niveau des
contenus du site.
Les noms de fichiers d’images, de vidéos, de bandes son doivent être
optimisés, et il est possible de suivre ce format :

Optimisation Image Video Audio

des fichiers nom-de-produit nom-de-produit nom-de-bande-


-mots-cles-mar -mots-cles-mar son-mots-cles-
médias que.jpg que.mp4 marque.mp3
Il ne faut pas ajouter de caractères accentués et/ou
spéciaux dans les noms de fichiers car ce sont aussi les URL
des fichiers.
Comme nous l’avons vu précédemment, les URLs ne doivent
pas contenir de caractères accentués (à, é, è, ù, ô, etc.) ou de
caractères spéciaux (¢, ß, ¥, £, ™, ©, ®, ª, ×, ÷, ±, ², etc.).

Voici quelques autres règles à respecter pour les noms de


fichiers :

Optimisation ●

Des guillemets remplacent les espaces
Les caractères suivants sont réservés et ne peuvent

des fichiers médias donc pas être utilisés dans l’URL : # $% & '() * +, /:; =?
@[]
● Les majuscules sont à éviter pour les URLs car elles
sont sensibles à la casse (et peu d’internautes
saisissent leurs URLs en majuscule)

Afin d’éviter les erreurs courantes lors de la récupération des


fichiers, les caractères spéciaux doivent être aussi retirés lors
de la sauvegarde des fichiers.
En outre, il n’est pas conseillé d’utiliser les accents
circonflexes dans les noms de fichiers.
13 Audit de liens externes

14 Recettage technique et sémantique

15 Suivi, maintenance et reporting

SOMMAIRE 16 SEO Technique

17 SEO Sémantique

18 Méthodes de netlinking

Véronique DUONG
18. Méthodes
de netlinking
Le netlinking (ou link building en anglais) est l’un des
principaux piliers en référencement naturel.

Les parties techniques et sémantiques sont


importantes pour la vie et la santé d’un site même, mais
l’environnement externe du site compte également
pour le faire performer et le faire gagner en visibilité sur
le web.

Introduction du L’objectif du netlinking peut être expliqué par cette


définition que nous donnons souvent à nos clients :

Netlinking “L’idée est de récolter le plus de liens externes possible,


et de qualité, sur des sites et des médias référents. Ce
sont ces derniers qui constituent toute la popularité du
site web (près de 50%).“

Il est nécessaire d’aller en collecter le plus possible afin


de commencer à bien positionner le site sur des
mots-clés intéressants grâce aux ancres de texte
externes pertinentes”.
Pour définir un indice de confiance fiable pour chaque URL, Majestic est
parti d’une liste à forte volumétrie de sites analysés manuellement et
répondant aux critères de confiance communs à tous les moteurs de
recherche (ex : Dmoz, Yellowpages,…). La liste ne serait pas exhaustive, mais
Trust elle est suffisamment importante selon Majestic pour que leurs algorithmes
Flow et leurs calculs soient fiables à l’échelle du Web. Le Trust Flow est donc
calculé de lien en lien à partir des liens sortants des sites de la liste. Il
symbolise la capacité d’une page à transmettre une notoriété et de la
confiance.

Définition C’est une métrique qui indique la popularité de la page, d’une évaluation
de sa capacité à transmettre de la puissance de jus de lien. Il est calculé à
Netlinking Citation
Flow
partir du nombre de liens total, du nombre de domaines référents, etc. Il est
gradué de 0 à 100. Plus une page a un Citation Flow élevé, plus elle est en

SEO mesure d’apporter de la popularité.

(Notion initiée par MOZ, une société indépendante spécialisée dans le Search
aux Etats-Unis) : Le Domain Authority évolue sur une échelle de 1 à 100.
Plus un domaine possède un Domain Authority élevé, plus il est considéré
Domain comme un domaine puissant aux yeux des crawlers.
Authority Il tient compte du nombre et de la qualité des liens entrants ou backlinks vers
le nom de domaine, ainsi que d’autres facteurs liés au référencement du site
comme le contenu, le trafic.
10 points à vérifier
pour savoir sur les
liens externes
le PageRank de la page (Google
ne met plus à jour cet indice, mais
l’utilise toujours ainsi que les autres les liens dans les contextes textuels
moteurs de recherche tels que l’autorité des noms de domaine (et non pas présents dans les
Baidu) (Domain Authority) footer, menus, etc.)

Domain Liens
PageRank
Authority textuels

Nom
Trust Flow
domaine

les noms de domaine qui pointent le TrustFlow (indice de confiance


vers le site du site, et cet indice existe pour
Google, Baidu et Yandex par
exemple)
les liens sont t-ils en nofollow ou en
le nombre de liens sortants du site dofollow ? Il faut privilégier le
externe (s’il en a un certain dofollow car cet attribut envoie la
nombre, cela peut diluer sa quasi-totalité de la puissance du jus
puissance de liens) les mots-clés des ancres de texte de lien

Liens Mots
Dofollow
externe clés

Noms Co-
domaines citations

la pertinence des noms de les co-citations


domaines auxquels le site est lié
Guest Blogging
Le guest blogging est l’une de nos méthodes recommandées pour
trouver des liens externes car l’objectif est de rédiger un article invité
sur le blog d’un autre propriétaire, et de pouvoir y glisser un lien vers
son site.

Cette technique est souvent gratuite car cela consiste en un échange


équitable d’articles ou d’autres services de promotion en ligne.

Cela peut se faire sous forme d’interviews, d’articles expert sur un sujet
précis, ou autre.

Dans le domaine du référencement naturel, le guest blogging est une


pratique courante, et une méthode qui fonctionne pour obtenir des liens
externes qui pointent vers son site.

La longueur idéale pour un article invité est de 800 mots environ. Ainsi les
moteurs de recherche verront un bon signal de ratio code / texte, et le lien
externe vers le site à optimiser sera moins “visible”, aux premiers abords,
aux internautes et aux crawlers.
Publications
externes payantes

L’objectif des publications externes


payantes via des plateformes spécialisées
est de payer un article ou de payer la
possibilité d’avoir un lien du site à
optimiser sur le site d’un autre
propriétaire.
Les coûts varient fortement d’un site à un autre car le modèle économique sur ce
point n’est pas encore suffisamment clair. Un article payant faisant mention et un
lien vers le site à rendre visible peut coûter de 20 euros à plus de 2000 euros en
fonction des métriques du site :

01 02 03
Publications est-ce que son est-ce que son est-ce que son
externes autorité de indice de indice de
domaine confiance (Trust mention dans
payantes (Domain Flow) est d’autres sites
Authority) est suffisant ? (Citation Flow)
puissant ? est satisfaisant ?

Toutes ces questions doivent être posées pour être certain que l’achat de l’article
que nous faisons est un choix judicieux.
Il existe une méthode de collecte de liens externes qui
se nomme le “Link Ninja”.

L’objectif de cette pratique est de demander


directement des liens à des webmasters d’autres sites,
et de placer ces liens dans les footers, les menus, la
page d’accueil d’un site.

Le procédé consiste en trouver un site sur lequel placer


le lien du site à optimiser, puis d’y mettre ce lien, et
d’espérer qu’il soit validé par le webmaster qui gère ledit

Link Ninja site.


C’est une pratique longue générant peu de retours sur
investissement. Nous donnons la méthodologie de
cette dernière, mais nous ne recommandons pas de
concentrer l’ensemble des efforts sur cette
stratégie.

Souvent, les liens sont obtenus en commentant des


articles de blog, des posts dans des forums, en
envoyant une demande à un webmaster du site
spécialisé sur lequel nous voulons faire apparaître le lien
du site à optimiser.
L’objectif du Link Baiting (ou de l’inbound marketing car
selon nous, les deux termes sont synonymes) est de
créer du contenu de qualité sur un site à optimiser, et
que ces contenus attirent naturellement les autres
webmasters des autres sites à faire des liens vers le

Link Baiting nôtre.

(Inbound
En termes de contenu, nous n’allons pas nous orienter
uniquement vers des articles et des contenus textuels.

Marketing) Dans le cas du Link Baiting, nous parlons de contenus


multimédias, de jeux, de concours, de quizs,
différents formats qui incitent les internautes à venir
sur le site à optimiser et à re-partager ces contenus
avec leurs réseaux via leurs sites qui vont à leurs tours
partager l’information également.
Faire tester un produit ou un service gratuitement
(en échange d’un lien externe) est une bonne méthode
pour faire découvrir son savoir-faire. Cette méthode est
connue dans le monde des influenceurs, mais elle existe
également en SEO.

Si le site à optimiser en question est un site


e-commerce, il serait très intéressant pour le
Tests de produits propriétaire du site de faire tester un des produits par
des blogueurs référents dans le domaine, et de faire un

ou de services lien vers son site lorsque les blogueurs feront un article
pour expliquer le produit, donner leurs avis, etc.

Si le site à faire gagner en visibilité est un site vitrine de


prestations de services, il est tout aussi pertinent de
faire tester les services à des blogueurs, des
partenaires, etc. et de leurs demander d’en parler sur
leurs blogs ou leurs sites sous forme d’articles avec un
lien qui pointe vers le site vitrine initial.
Participation à des
événements
Participer à des salons, à des conférences, à des séminaires, à des
meetups, etc. afin de promouvoir la notoriété d’une marque, d’un
site web, est une bonne méthode pour se rendre visible auprès des
autres acteurs, entreprises et entités d’un secteur.

Pour cela, il faut faire une veille stratégique constante des


événements dans le secteur en question, et y participer activement
pour créer une récurrence et des rencontres avec d’autres
organismes, et se faire un nom petit à petit.

Après avoir participé à ces événements, la meilleure façon de faire


perdurer sa visibilité est de parler de cet événement et de
mentionner l’entité d’organisation de l’événement dans un article,
sur un blog ou une rubrique actualités du site, en espérant que cette
dernière partage l’article qui la mentionne à son réseau.
Vidéo Marketing
Avec le mobile qui est devenu un incontournable en termes
d’usages et de navigation, le format vidéo est une bonne
pratique à adopter pour promouvoir avec interaction les
produits et les services d’une société.

Plusieurs sites e-commerce présentent leurs produits avec


des vidéos courtes qui montrent le produit sous tous les
angles à 360°. Cela permet aussi aux internautes de bien
comprendre comment fonctionne le produit, comment
l’utiliser.

Il est à noter que les vidéos de type tutoriels suscitent


beaucoup d’intérêt car elles permettent d’informer et
d’apprendre aux internautes et aux mobinautes comment
fonctionnent les produits.
Lorsqu’un individu a l’impression d’apprendre de nouvelles
techniques pour son usage professionnel ou personnel, cela
est un réel bonus pour la marque ou le site web, car
l’utilisateur va retenir la vidéo qui l’aura aidé.
Rédiger des revues de
presse

L’objectif est de réaliser des communiqués de presse sur


un nouveau produit, un nouvel événement, un nouvel
ouvrage, etc. et de le proposer à différents médias
référents.

Certains médias référents très connus tels que les


Echos, le Journal Du Net (groupe Le Figaro), etc.
permettent de créer des tribunes d’expert, et de les
publier (sous réserve de la validation des médias
référents).

Cependant, cela demande un certain budget. Au moins


1500€ HT par article.
On pratique !
A retenir :

3 piliers (technique, sémantique et netlinking)

● SEO onsite à travailler


Conclusions ●

SEO off-site à travailler
S’appuyer sur des développeurs
● Se nouer des partenariats

Il faut pratiquer pour réussir en SEO ! Pour aller plus loin, vous pouvez toujours vous
procurer mon ouvrage “Gestion du SEO”
disponible chez Eyrolles :

https://www.eyrolles.com/Informatique/Livre/
gestion-du-seo-9781784055752/

Vous aimerez peut-être aussi