Création couverture : Hokus Pokus
Image de couverture : © Maksim Rumiantcev – Shutterstock
© Dunod, 2017
11 rue Paul Bert, 92240 Malakoff
www.dunod.com
ISBN : 978-2-10-076099-2
Sommaire
Pourquoi ce livre ?
Introduction
Partie 1
Travailler son site pour obtenir une image irréprochable
Chapitre 1 ■ La structure du site
Chapitre 2 ■ La stratégie éditoriale, le content marketing
Chapitre 3 ■ Le SEO technique
Chapitre 4 ■ L’analyse des actions inbound marketing on-site
Partie 2
Construire sa réputation Web
Chapitre 5 ■ Des campagnes de liens naturels
Chapitre 6 ■ Le SMO, une réputation contrôlée
Chapitre 7 ■ Dominer les SERPs avec la recherche universelle
Chapitre 8 ■ Les autres leviers de réputation sur le Web
Chapitre 9 ■ Analyses des actions inbound marketing off-site
Partie 3
Réorganiser le SEO en inbound marketing
Chapitre 10 ■ Une stratégie inbound adaptée au marché
Chapitre 11 ■ Travailler avec le reste de l’entreprise
Conclusion – Un métier en constante évolution
Glossaire du marketing digital
Pourquoi ce livre ?
Comment travailler le SEO ? Comment en tirer le maximum pour améliorer
sa notoriété sur le Web et en particulier sur les moteurs de recherche ? Pour
les étudiants en marketing, les dirigeants d’entreprises ou encore les trafic
managers, la réponse à ces questions est cruciale.
Or, le SEO (Search Engine Optimization ou optimisation des sites Web pour
les moteurs de recherche) est un concept qui a largement évolué ces dernières
années. L’algorithme du moteur de recherche Google, leader mondial de la
recherche, a changé afin d’améliorer la qualité de ses résultats. Il intègre pour
cela un plus grand nombre de critères.
Ne pas savoir en quoi a consisté cette évolution revient à ne pas pouvoir créer
des stratégies marketing sur le Web de manière optimale.
En effet, le SEO a élargi considérablement son champ d’action au point de
s’intégrer désormais dans la totalité des tâches marketing.
De là vient la nécessité de faire le point, c’est ce que cet ouvrage se propose
de faire. Il montrera comment le SEO a évolué vers l’inbound marketing,
permettant de mieux communiquer avec les experts du domaine et de créer
des stratégies et des plans d’actions cohérents et efficaces.
L’ouvrage se veut un outil facile d’accès. Il n’a pas pour objectif de
transformer le lecteur en expert ni ne requiert de connaissances spécifiques.
En effet, l’ouvrage, au fil du texte, explique, à la lumière du SEO
« moderne », tous les termes et concepts nécessaires à la compréhension du
propos.
Par ailleurs, il est conçu de telle manière qu’il est possible de n’en lire que
des parties. Nous avons veillé en effet à intégrer dans chaque chapitre les
informations nécessaires à la compréhension du propos.
Nous espérons ainsi offrir l’aide indispensable à quiconque a besoin de
recourir au Web pour améliorer la visibilité de sa marque.
Introduction
L’inbound marketing, une réponse à la nouvelle manière
de penser le SEO
Certains imaginent le SEO comme un levier marketing, d’autres comme une
série d’actions ou astuces visant à améliorer les positions d’un site Web dans
les pages de résultats des moteurs de recherche. Mais le SEO est bien plus
large que cela. Il se greffe à de nombreuses actions Web marketing1 et
s’inscrit dans une réflexion globale sur l’image et la façon dont une marque
désire communiquer. Le SEO constitue l’ensemble des éléments qui
permettent à une marque d’être visible lorsqu’un internaute recherche des
informations concernant son activité, ses produits, ses services et ses
contenus.
C’est pourquoi le SEO, notamment du fait de ses conséquences, doit être pris
en compte dans la réflexion stratégique de l’entreprise. En effet, avec le SEO,
il est devenu impossible de travailler la notoriété d’une entreprise sans
comprendre l’intégralité de l’univers dans lequel elle s’inscrit. De nombreux
indices nous montrent que le métier connaît une évolution importante des
compétences requises, notamment du fait de l’évolution des moteurs de
recherche. Le métier de SEO doit travailler sur de nouveaux champs
d’action ; il doit réfléchir au message, à la structure dans laquelle il est
intégré ainsi qu’à la manière de le communiquer. Cette vision plus globale de
la communication Web et l’intériorisation de la notion de notoriété à la
démarche de SEO doivent être mises en place sur l’intégralité des supports
Web. C’est l’émergence de l’inbound marketing.
C’est pourquoi il semble plus justifié de parler d’inbound marketing, d’un
marketing facilitant l’entrée de trafic sur un site.
L’inbound marketing repose sur trois piliers : un contenu de qualité, les
actions classiques du SEO et les réseaux sociaux. Le champ d’action du SEO
est à ce jour encore mal délimité. Certains considèrent toujours le SEO
comme une série d’astuces qui améliorent les positions sur les moteurs de
recherche : c’est la dimension Black Hat du SEO. D’autres pensent que le
SEO doit intervenir dans la création de contenus sur les réseaux sociaux. Il
est donc difficile de définir où et comment le SEO doit intervenir. À cela
s’ajoute une mauvaise image du SEO liée à de nombreux malentendus. C’est
pourquoi il nous semble important de redéfinir le SEO et de l’inscrire dans la
logique de l’inbound marketing. L’inbound marketing est un SEO qui voit
plus loin, comprend mieux les utilisateurs et installe la notoriété d’une
marque durablement. Plus tôt la marque inclura une réflexion inbound
marketing dans sa stratégie, meilleur sera le contrôle de l’information
envoyée aux moteurs de recherche et sur les réseaux sociaux, et par
conséquent aux internautes qui visitent la page, et finalement, meilleure sera
la visibilité de la marque sur le Web.
Nous évoluons sur un Web surchargé d’informations et donc très
concurrentiel. Nos manières de naviguer ont elles aussi évolué et nous
accédons à l’information autant via les médias sociaux et les moteurs de
recherche que via des sites et des blogs auxquels nous faisons confiance. Il
n’est donc plus seulement question d’apparaître en bonne position dans les
SERPs mais aussi de faire entendre sa voix sur le Web. C’est pourquoi la
« logique SEO » doit s’intégrer à toutes les strates de l’entreprise pour être
répercutée sur tous les médias disponibles sur le Web. Le SEO devient une
nouvelle manière de donner une information sur le Web.
Pour cela, le SEO utilise de nombreux leviers. Certains n’appartenaient pas à
la sphère du SEO, d’autres ont été inventés depuis peu. L’augmentation du
champ d’action du SEO et les évolutions internes des moteurs de recherche
ont donc un impact majeur sur la manière dont ce dernier doit être abordé. Il
ne peut plus être cantonné à une partie de la stratégie webmarketing, mais
doit être partie prenante de la quasi-globalité des actions mises en place. Tous
les services de l’entreprise doivent le prendre en compte dans leur métier à
des niveaux plus ou moins élevés. Nous montrerons donc dans cet ouvrage
les champs d’actions du SEO, traditionnels et nouveaux, qui nous conduisent
à redéfinir le métier de SEO comme celui d’inbound marketeur.
Cet ouvrage a pour but de démontrer que le SEO ne peut plus être traité
indépendamment du reste des actions de l’entreprise. Son impact est
fortement réduit s’il n’est pas mis en place au sein d’une stratégie d’inbound
marketing cohérente2 et, par conséquent, au sein d’une stratégie de marque.
Nous soulignerons donc les éléments à prendre en compte pour mettre en
place une stratégie cohérente. Il appartiendra à la marque de s’approprier ces
informations et d’agrémenter sa réflexion en fonction de ses besoins, pour
bénéficier d’effets positifs sur la notoriété et sur le trafic vers le site.
L’inbound marketing est le futur du SEO. De fait, les moteurs de recherche,
en se rapprochant de la navigation des internautes, poussent le SEO à se
recentrer sur la qualité des contenus, la notoriété de son ou de ses auteurs,
mais aussi sur la diffusion de la majeure partie des contenus d’un site sur le
Web. Il existe de nombreux mythes SEO3. C’est pourquoi nous nous
emploierons tout au long de ce livre à donner les éléments pour discerner le
vrai du faux et être capable de percevoir les tendances. Nous verrons ainsi
que le SEO relève moins de trucs et astuces pour « arnaquer » les moteurs de
recherche et plus d’une stratégie de relations publiques et de communication
pour un site Web.
La démarche de l’inbound marketing
Rappelons tout d’abord que le marketing est l’ensemble des actions ayant
pour objectif de convertir un utilisateur en client d’une marque ou en membre
d’une communauté. On pense souvent aux actions intrusives qui « forcent »
une personne à acheter, aux actions qui convainquent. Or, le plus souvent,
une personne estime avoir un besoin et se met en recherche d’informations
pour y répondre. Elle fait donc elle-même la démarche d’achat ou d’adhésion.
Il existe alors toute une série d’actions marketing qui peuvent être mises en
place pour faciliter l’accès aux produits et aux services recherchés4. On parle
alors de marketing entrant, d’inbound marketing.
L’inbound marketing consiste à capter l’attention d’un prospect grâce à un
contenu de qualité et une bonne notoriété. Il a été élaboré en réponse aux
méthodes traditionnelles de marketing, aussi appelées outbound marketing,
celles qui envoient des messages publicitaires à un public non qualifié et
uniquement réceptif afin de le convaincre d’acheter. L’inbound marketing a,
lui, pour objectif de répondre à une demande5 ; c’est dans le cadre d’une
requête que l’internaute pourra accéder aux contenus.
Le processus de l’inbound marketing est le suivant :
• La démarche quantitative : générer du trafic.
Attirer des visiteurs sur un site en se faisant connaître et en présentant la
marque comme experte en son domaine. Ceci passe généralement par la
création d’un contenu de qualité à haute valeur ajoutée. En valorisant
l’expertise auprès des internautes et en sachant communiquer avec les
moteurs de recherche, la marque fait parler d’elle et verra la fréquentation
et la notoriété de son site augmenter.
• La démarche qualitative : convertir les prospects en client.
Parallèlement à l’établissement d’une notoriété, l’accès à l’offre de
produits ou de services doit être facilité par un parcours utilisateur simple
et des call-to-actions accessibles et parlants. Les prospects doivent être
libres de venir à la marque. C’est pourquoi est proposée une offre adéquate
afin de ne pas courir le risque que les prospects se sentent piégés et quittent
le site. Une bonne réputation en ligne et une offre adaptée seront garantes
des conversions.
• Le monitoring : analyser l’impact des actions.
Une bonne compréhension des KPIs ou tableaux de bord permet d’affiner
une stratégie et d’améliorer un service ainsi que la communication. En
regardant les chiffres et en comprenant ce que les visiteurs ont vécu avec la
marque, on vérifie que les objectifs de positionnement sont atteints.
Cette dernière étape peut être off ou on-line. Seule la partie digitale de
l’inbound marketing sera explicitée dans ce livre. Ainsi, nous
décomposerons les types d’actions qui peuvent être mis en place sur le
Web et nous verrons comment tous ces composants doivent être travaillés
ensemble pour mettre en place une stratégie d’acquisition client efficace.
Nous proposerons tout au long de ce livre des fiches techniques qui viendront
définir et contextualiser les composants que nous aborderons dans chaque
chapitre.
Notes
1. http://moz.com/blog/whiteboard-friday-the-seo-fundamentals-pyramid
2. http://moz.com/blog/why-we-cant-just-be-seos-anymore-whiteboard-friday
3. http://www.webseoanalytics.com/blog/the-top-20-seo-myths-you-should-be-aware-of/et
http://www.seroundtable.com/google-seo-myths-18427.html
4. http://www.emarketinglicious.fr/webmarketing/inbound-marketing-contre-outbound-
marketing-infographie
5. http://www.hubspot.com/inbound-marketing
Partie 1
Travailler son site
pour obtenir
une image
irréprochable
L‘inbound marketing utilise, comme premier levier d’action, toutes les
améliorations concernant le site Web et les médias contrôlés par l’entreprise,
les « earned médias ». Ces interfaces d’expression sont donc celles qui
présentent la marque et « donnent le ton » de la relation créée entre la marque
et ses visiteurs. L’objectif de ces supports est de permettre aux internautes de
s’identifier à l’esprit d’une marque et de s’engager dans une relation durable
avec la marque et ses produits. Il est donc important de les travailler en
priorité.
Travailler ces éléments, c’est :
– permettre à la marque de mettre son ou ses messages en valeur pour
répondre aux besoins des internautes et les convertir en prospects, clients
ou ambassadeurs ;
– indexer et référencer les sites et les autres éléments de communication de la
marque dans les moteurs de recherche, outils principaux utilisés par les
internautes pour naviguer sur le Web ;
– créer des partenariats qui permettront d’apporter du trafic vers les « earned
medias » de la marque et plus particulièrement son site Web.
Chapitre 1
La structure du site
Executive summary
►► Comprendre le fonctionnement des moteurs
de recherche, c’est donner toutes les chances à un site
d’être positionné sur des termes apporteurs de trafic et de
notoriété Web. Suivre et anticiper les évolutions des
algorithmes des moteurs de recherche, c’est offrir à
l’entreprise l’agilité nécessaire pour s’adapter
aux améliorations techniques.
►► Lister et organiser les contenus d’un site, c’est
faciliter l’accès aux informations proposées par la
marque. Sélectionner et créer des pages importantes, c’est
limiter les points d’entrée sur le site afin de mieux
contrôler les parcours utilisateurs des internautes mais
aussi des moteurs de recherche.
►► Un lien, c’est la possibilité de découvrir une autre
page du site. Il doit donc être bien réfléchi pour être
cohérent avec les attentes du visiteur et ne pas rendre
la découverte du site confuse.
L’objectif d’un site Web est de faire passer un message et ce, qu’il soit
conceptuel (une nouvelle manière d’aborder un sujet) ou pratique
(présentation de services ou de produits).
Or, pour qu’un message soit bien compris, il est nécessaire que la forme
sous laquelle il est présenté soit claire. Le lecteur peut ainsi comprendre et
s’approprier le message.
L’organisation des différents types de contenus, leur mise en page et leur
accessibilité sont alors primordiales pour qu’un message soit efficace et
assimilable par l’internaute ainsi que par les robots des moteurs de recherche.
Les moteurs de recherche
Figure 1.1 – Moteur de recherche principal par régions
Définition ■ Moteur de recherche
Un moteur de recherche est un outil qui permet de sélectionner des documents dans
une base en réponse à une recherche. C’est donc un site qui rassemble de nombreux
sites Web et les classe selon leur thématique afin de pouvoir les présenter lors d’une
recherche. Il existe aussi des moteurs de recherche verticaux dont le rôle est de
compiler des images, des vidéos ou encore des produits.
En tant qu’internautes, nous ne connaissons que les pages de résultats de ces moteurs
de recherche, les SERPs (Search Engine Results Pages). En amont, les moteurs de
recherche font un énorme travail pour connaître et trier les contenus disponibles sur le
Web et donc nous fournir ces résultats. C’est la partie immergée de l’iceberg.
Fonctionnement des moteurs de recherche
■ Indexation par les spiders bots
Pour connaître les contenus disponibles sur le Web, les moteurs de recherche
présents sur Internet envoient des programmes – des spiders bots – qui
visitent et sauvegardent des pages Web et repèrent les liens hypertextes qui
s’y trouvent pour les suivre. On dit alors que les spiders bots, ou bots,
« crawlent » le Web.
Les bots sont souvent assimilés à des internautes fous qui cliquent sur tous
les liens qu’ils trouvent. Ils permettent l’exploration du Web et la
récupération des informations. C’est la phase de crawl. Cette phase est
coûteuse pour les moteurs de recherche car ils ne disposent pas de moyens
illimités, tant en termes de temps que de ressources de bots ; pourtant, leur
objectif est bien de couvrir tout le Web. Le temps passé par les robots sur un
site est limité, tout comme les pages crawlées. En fonction de la taille, de la
notoriété et de la fréquence d’actualisation du site, les moteurs de recherche
associeront un crawl budget, un temps de crawl.
Lorsqu’une page est crawlée, elle est analysée afin de décider si elle entre
ou non dans l’index du moteur de recherche. En effet, toutes les pages
n’entrent pas dans l’index. Une page n’est insérée à l’index d’un moteur de
recherche que si elle répond à certains critères de qualité et que si elle peut
s’avérer utile à l’internaute.
Figure 1.2
Pour une page Internet, être indexée signifie alors être stockée dans les
bases de données du moteur de recherche car elle est jugée comme un résultat
potentiel.
■ Positionnement des pages Web
Lorsqu’un internaute fait une recherche dans un moteur de recherche, cet
index est questionné pour fournir les pages contenant la réponse à la requête
de l’utilisateur. Ces pages sont ensuite triées et classées par ordre de
pertinence selon les facteurs définis par les créateurs du moteur de
recherche1. La position dans le classement est ce que l’on appelle une
position dans les résultats de recherche.
Définition ■ Référencer un site et positionner
Référencer un site signifie le faire entrer dans l’index des moteurs de recherche. Le
positionner signifie lui donner une visibilité maximale dans les résultats de
recherches.
Par conséquent, pour optimiser un site, il faut travailler par étapes :
• Faire entrer le site dans l’index des moteurs de recherche.
• Faciliter l’identification des pages correspondant aux requêtes des
internautes.
• Optimiser le positionnement des pages.
• Analyser et améliorer les facteurs de positionnement sur le site.
■ Les pages de résultats, les SERPs
Le classement fait par les moteurs de recherche est donc une liste de sites qui
s’affiche après la réalisation d’une requête dans un moteur de recherche. Ces
listes, appelées « pages de résultats de recherche », sont aussi nommées
SERPs, acronyme de Search Engine Results Pages.
Toutes les pages Internet présentes sur les pages de résultats sont
présentées de la même manière. On appelle cela des extraits des sites, des
annonces ou des snippets.
Figure 1.3 – Partie supérieure d’une page de résultats Google
Ces extraits sont, le plus souvent, composés d’un titre, d’une description et
d’une adresse. Cette dernière peut prendre la forme d’une URL ou d’un fil
d’Ariane. D’autres éléments peuvent venir enrichir le snippet2, selon
plusieurs facteurs (cf. chap. 3, « Les balises de visibilité présentes dans le
<head> »3). Ces annonces peuvent être organiques et dépendre du classement
des moteurs de recherche, mais elles peuvent aussi être payantes, c’est-à-dire
résultant de campagnes publicitaires financées par une marque.
Au sein de ces annonces, les moteurs de recherche peuvent décider de
fournir plus d’informations aux internautes. Ces éléments supplémentaires,
aussi connus sous le nom d’extensions d’annonce, enrichissent l’annonce ;
c’est pourquoi on appelle ces annonces rich snippet (ou annonces enrichies).
L’extension la plus connue est le Site Link, un lien direct vers un page plus
profonde du site.
Figure 1.4 – Exemple de rich snippet : le Site Link
L’algorithme de classement
Afin de classer les pages Web lors d’une recherche et de proposer des
résultats adaptés aux requêtes faites par les internautes, les moteurs de
recherche ont élaboré des algorithmes4 de classement. Ces algorithmes sont
des programmes qui sélectionnent les informations.
■ Les composants de l’algorithme Google
Un moteur de recherche utilise de nombreuses règles, afin de classer et
d’ordonner ces documents pour répondre au mieux à la requête de
l’utilisateur. On appelle cet ensemble de règles un algorithme. Si on compare
Internet avec l’univers5, les bots sont ce qui permet à un moteur de recherche
de savoir si un site est habitable et les algorithmes les classent selon leur
intérêt.
Selon Google, plus de 200 facteurs sont pris en compte pour le classement
des sites dans les SERPs. Ces facteurs et leurs poids dans l’algorithme restent
un mystère. Google, comme les autres moteurs de recherche, ne dévoile pas
la recette de son succès, afin de ne pas donner trop d’informations qui
pourraient corrompre l’intégrité des résultats6, mais aussi pour préserver son
avantage commercial. Nous pouvons néanmoins déterminer plusieurs
catégories de facteurs7 permettant de positionner un site Web dans les pages
des moteurs de recherche. On parle de facteurs de ranking.
Figure 1.5 – Facteurs de ranking de Google selon une étude de Moz en 2015
De nombreux organismes ont travaillé à identifier8 les facteurs de ranking
et leur poids et ce pour tous les moteurs de recherche9.
L’analyse est limitée car il s’agit de corrélations et il est impossible de
s’assurer d’un impact, mais ces facteurs estimés nous apportent une bonne
vision sur les points à travailler en SEO.
Les facteurs on-page
Ces facteurs font référence à tout ce qui touche à la compréhension du site,
tout ce qui peut être fait sur le site afin de fournir un code clair et un contenu
de qualité. Ce sont tous les éléments qui permettent de structurer le contenu et
d’en faciliter la compréhension et l’indexation.
Les facteurs sémantiques
Ces facteurs sont très récents, mais ils tendent à se développer. Ils concernent
la thématique du site et l’organisation des données, mais aussi l’univers
lexical utilisé sur le site et l’univers lexical des pages émettrices de liens ou
qui parlent du site. Pour cela, il est nécessaire de travailler les synonymes et
les termes associés aux requêtes sur lesquelles une page Web doit apparaître.
Le but est d’aider les bots à comprendre le sujet de la page.
Les facteurs de navigation
Depuis quelque temps, Google est capable d’associer les requêtes effectuées
aux utilisateurs, grâce aux recherches en mode sécurisé et en sessions
connectées. Cela signifie que les résultats de recherche prennent en compte
l’historique des recherches et les centres d’intérêt de l’internaute, mais aussi
le lieu où est faite la recherche, les autres sites visités, le temps passé sur le
site, l’adéquation du site à la requête ; tous ces éléments permettent au moteur
de recherche de savoir si un site est pertinent par rapport à la requête de
l’internaute. Le comportement des internautes sur le Web est donc compilé et
utilisé pour améliorer les SERPs. Ces facteurs ne peuvent être pris en compte
que sur des sites indexés et sont tributaires des données collectées par le
moteur de recherche en question.
Les facteurs off-pages
Ces facteurs prennent en compte toutes les personnes qui parlent d’une
marque et/ou de son site, qui y envoient des liens, bref tout ce qui permet
d’avoir une bonne réputation en ligne mais aussi hors ligne. Le facteur
principal est le Page Rank (cf. chap. 1, « Le Page Rank »), mais on observe
une importance croissante des facteurs sociaux. La présence d’une marque
sur les réseaux sociaux ainsi que le nombre d’interactions entre les
internautes et la marque sont donc des éléments à ne pas négliger.
Les pénalités
En parallèle, les moteurs de recherche, lors de leurs analyses de sites, peuvent
mettre à jour des mauvaises pratiques compromettant la qualité des résultats
de recherche. Afin de rétablir des pratiques plus adaptées à leurs best
practices, ils peuvent pénaliser les sites.
On trouve plusieurs types de pénalités qui vont d’une dégradation des
positions à la suppression de l’index : le blacklistage. Les pénalités peuvent
être manuelles ou automatiques10. De même, elles peuvent impacter
l’intégralité du site ou une partie seulement. Les filtres mis en place par les
moteurs de recherche pour nettoyer leurs index ne sont pas des pénalités à
proprement parler, mais la conséquence sera la même si un site est filtré par
ces derniers.
■ Le Page Rank
Le Page Rank ou PR est un algorithme d’analyse des liens. Son brevet11 a été
déposé en 1998 par Larry Page (co-fondateur de Google). Cette méthodologie
basée sur le PR est aujourd’hui la base de la plupart des moteurs de recherche
sur le Web. C’est grâce à cet algorithme que Google a pu se démarquer de la
concurrence et proposer de meilleurs résultats de recherche.
Le PR est un score entre 0 et 10, 0 signifiant une absence de notoriété et 10
une très forte notoriété. Le principe du PR est de comptabiliser le nombre de
liens reçus, appelés « backlinks », par une page pour lui attribuer un score.
On parle communément d’un backlink comme d’un vote d’un site vers un
autre. Au départ, plus le site avait obtenu de liens, plus le PR était élevé.
Avec le temps, le calcul est devenu plus complexe, les moteurs de
recherche, Google en tête, font tout leur possible pour pondérer les liens faits
vers un site, et donner plus d’importance aux liens ayant une réelle valeur
ajoutée pour les internautes. Par conséquent, même si le PR est toujours un
élément central, d’autres facteurs qualitatifs se sont ajoutés pour pallier ses
défaillances. En effet, les liens sont facilement manipulables (cf. chap. 5,
« Les partenariats de liens »). C’est pourquoi les moteurs de recherche
s’appuient sur les données contenues dans la page et le site Web émetteur du
lien et, depuis l’émergence du Web 2.0, sur les signaux sociaux (cf. chap. 6,
« Le SMO, une réputation contrôlée »).
Les moteurs de recherche ont donc pris en compte de nombreux critères
qualitatifs pour nuancer ce PR purement quantitatif.
Figure 1.6 – Illustration de Page Rank
Le PRi est le Page Rank interne, aussi nommé Internal Page Rank. Il
reprend la même logique que le PR à l’intérieur du site. Pourtant, ces deux
indicateurs sont indépendants l’un de l’autre.
Le calcul du Page Rank
Même si nous ignorons la méthode de calcul exacte, le PR est calculé en
fonction de plusieurs facteurs12 :
• L’origine du lien : la provenance du lien et son emplacement dans le code
donnent une information sur la qualité de ce lien. Si le lien vient d’une
page interne au site, il lui sera accordé moins d’importance. De même, si
un lien est placé dans le corps du texte de la page (cf. chap. 1,
« L’emplacement des liens ») et en partie supérieure de ce texte, il aura
plus d’impact.
• Le PR de la page à l’origine du lien : si un lien provient d’une page ayant
un PR fort, il lui sera accordé plus d’importance.
• L’autorité du domaine dont provient le lien : la qualité globale du site
émettant un lien est prise en compte. La qualité d’un site est estimée via le
trust rank. De même, si le site dont émane un lien fait aussi des liens vers
des sites ou des pages considérées comme « spammy », le poids donné au
lien sera moins important.
• Le nombre de liens émis par un site : si un site fait de nombreux
backlinks vers un même nom de domaine (cf. chap. 3, « Un nom de
domaine qui représente la marque »), les liens auront moins de poids car
les moteurs estiment qu’il y a connivence entre ces sites.
• La thématique du lien : si un lien provient d’une page dont le champ
lexical est similaire à la page sur laquelle arrive le lien, le lien aura alors
plus de poids.
La passation et l’atténuation du PR
On parle de transmission ou de passation de PR car la qualité, autrement dit
le PR, d’une page influence le score des pages qui en recevront des liens. Le
PR, aussi appelé « popularité », est divisé par le nombre de liens présents sur
la page. Si une page fait cinq liens, chaque lien transmettra 1/5 de la
popularité de la page. Il est donc primordial de bien réfléchir à la stratégie de
liens afin de pouvoir donner de la priorité à ceux qui sont les plus importants
pour le référencement (cf. chap. 1, « Le PR sculpting »).
De plus, des tests ont montré que le PR n’est jamais passé en intégralité.
En effet, chaque saut de page correspond à une perte légère de PR, afin
d’éviter toute manipulation de ce dernier. Cela signifie que, plus le nombre de
clics nécessaires pour arriver à une page sera élevé, moins le PR de cette page
sera fort. C’est pourquoi la structure des contenus d’un site doit être réfléchie
avec soin (cf. chap. 1, « Organiser les contenus »).
Connaître la réputation d’un site, son PR
Il est impossible d’avoir accès au PR tel que Google le calcule. Certains
outils fournissent un PR indicatif pour une page13, comme la Google
Toolbar14, le ToolBar PageRank ou TBPR. Ces outils ne sont plus supportés
par Google depuis mars 2016. Ainsi, Google veut éviter toute tentative de
manipulation des liens afin de protéger la qualité de ses résultats de
recherche.
Le PR sculpting
Le PR sculpting consiste à choisir les liens qui transmettront du PR. Pour
cela, on ajoute un attribut « nofollow » sur certains liens d’une page, afin
qu’ils ne soient pas suivis pas les robots et ne reçoivent pas de PR. Le PR est
donc divisé par le nombre de liens sans attribut nofollow.
En 2009, Matt Cutt15, responsable de qualité de l’index de Google, a
annoncé que l’attribut nofollow serait désormais pris en compte dans la
formule de calcul de Page Rank. Les liens continueront d’être ignorés par les
robots, mais ils seront suivis et captureront une partie du PR de la page.
D’une manière générale, la nouvelle formule prend en compte tous les liens
se trouvant sur une page (même les liens Javascript ou publicitaires) et
répartit le PR en fonction du nombre de liens.
Cette technique ayant été utilisée à outrance par le SEO, une décision dont
l’objectif est de mettre fin au PR sculpting a été prise. Pour pouvoir transférer
plus de PR vers certaines pages, les robots divisent à présent la notoriété par
le nombre de liens présents sur la page, mais continuent à ne pas faire passer
de PR sur les liens contenant un nofollow.
Le saviez-vous ? ■ Le Trust Rank, un PR pour site Web
En 2004, un algorithme est mis au point pour lutter contre les sites Internet « spam ».
Cet algorithme donne une note aux sites Web dans leur intégralité, permettant ainsi
de connaître la qualité d’un site. La note est comprise entre 0 et 1, 1 étant une page de
qualité. Cette dernière permet de donner un degré de confiance aux pages et aux
contenus d’un site Web dans leur globalité. Cet indice de confiance se propage d’un
site à l’autre de façon décroissante16. Plus un site est éloigné d’un site de confiance,
moins son Trust Rank sera bon.
Le Trust Rank, ou TR, est utilisé par les algorithmes de nombreux moteurs de
recherche. Ainsi, obtenir un lien avec un faible PR provenant d’un site avec un fort
TR est mieux que d’avoir un lien avec un bon PR d’un site ayant un faible TR. On
parle ici d’« autorité » d’un site Web. Les termes « trust » ou « authority » sont aussi
régulièrement utilisés par Google17 pour parler de la qualité d’un site sans toutefois
faire référence à l’algorithme dont nous avons parlé ci-dessus.
■ Changements et évolutions des moteurs de recherche
Petit à petit, les moteurs de recherche se sont donc perfectionnés pour offrir
une réponse toujours plus pertinente aux internautes et conserver leurs parts
de marché. Afin d’être complets, ils intègrent non seulement les pages Web,
mais aussi les images, les vidéos, les news ou encore d’autres types de
documents18.
Ces perfectionnements passent par une amélioration du design et des types
de résultats présentés, mais ils passent avant tout par une amélioration de
leurs algorithmes. Lorsque l’on parle de l’algorithme d’un moteur de
recherche, on parle de l’ensemble des facteurs impactant le classement. Ces
facteurs sont gardés secrets par les moteurs de recherche afin d’éviter que les
Webmasters adaptent leurs sites en fonction de ces facteurs. On évite ainsi la
manipulation des SERPs. Le jugement humain intervient aussi dans l’analyse
des facteurs de classement19.
Un moteur de recherche est donc un environnement en constante évolution
qui, en permanence, ajoute ou retire des éléments des SERPs pour répondre
aux usages des internautes et fournir les meilleurs résultats possibles.
On lie souvent le SEO à Google, ce qui n’est qu’en partie vrai, car le SEO
doit s’intéresser au fonctionnement de tous les moteurs de recherche.
Cependant, en France, Google représente presque 95 % de la recherche
Internet20.
Figure 1.7 – Top 5 des moteurs de recherche de juillet 2015 à juillet 2016 en France
Cela signifie que la majeure partie des Français utilise aujourd’hui Google.
Dans ce contexte, il semble donc normal de cibler les efforts sur le
fonctionnement de Google. Pourtant, les autres moteurs de recherche comme
par exemple Yandex, Baidu ou Naver doivent aussi être pris en compte pour
deux raisons :
1. Lors de travail sur des projets internationaux.
2. Les publications concernant leurs évolutions donnent une vision sur les
enjeux, les choix stratégiques et le futur de ces environnements.
Cette compréhension permettra d’avoir une vision sur le long terme et de
mettre en place des actions pérennes. Une bonne compréhension des
algorithmes des moteurs de recherche offrira donc une meilleure
compréhension du métier.
Les updates de l’algorithme Google
Afin que Google conserve son titre de meilleur moteur de recherche, de
nombreux ingénieurs travaillent pour améliorer les règles de l’algorithme.
Google fait en moyenne 500 changements d’algorithme par an. Il est
important de suivre ces changements afin d’anticiper les évolutions du métier
de SEO.
Mobilegeddon
Le 21 avril 2015, Google a annoncé la sortie d’un nouvel algorithme, le
Mobilegeddon. L’objectif de cet algorithme est d’étendre l’utilisation des
éléments mobile-friendly comme facteur de ranking.
Un site mobile friendly est un site dont les pages s’adaptent aux écrans de
smartphones. Google annonce donc que ces éléments qui facilitent la lecture
de contenus sur les supports mobiles vont prendre plus d’importance dans son
algorithme, et que d’autres facteurs vont entrer dans ce dernier.
L’impact de cet algorithme n’est peut-être pas encore tout à fait clair21.
Prévoir un site mobile ne semble pas être une obligation22, mais ce nouvel
algorithme montre clairement un désir de la part de Google de répondre à la
différenciation des navigations, navigation sur le mobile ou sur des écrans
plus larges.
Les derniers chiffres montrent que les internautes surfent de plus en plus
sur leur mobile ; il semble donc logique que les moteurs de recherche
poussent les créateurs de sites à proposer des contenus de qualité faciles à lire
sur des smartphones. C’est pourquoi Bing a lui aussi annoncé la prise en
compte de facteurs mobiles dans son algorithme23.
Hummingbird
Le dernier algorithme lancé en septembre 2013 par Google s’appelle
« Hummingbird », colibri en français24. Constatant l’usage de plus en plus
fréquent de smartphones et de tablettes ainsi que de la recherche vocale, on
observe une diminution de la longueur des requêtes. Avec Hummingbird,
l’accent a été mis sur la compréhension sémantique des pages Web et la prise
en compte des interactions des utilisateurs avec les pages Web.
En effet, il est moins aisé d’écrire sans clavier, et le vocabulaire utilisé se
rapporte plus au langage parlé qu’à un langage de recherche classique. Les
termes de recherche sont donc moins précis. C’est pourquoi les moteurs de
recherche s’adaptent. Cet algorithme marque donc un premier tournant pour
Google, non seulement parce qu’il implique davantage de changements que
tous les algorithmes mis en place auparavant, mais aussi parce qu’il montre
clairement l’évolution prise par le search ces dernières années.
Les filtres pour l’index de Google
Les filtres de nettoyage sont des actions mises en place à des dates précises25
et dont l’objectif est de nettoyer les index de Google. Par conséquent, ils
permettent une amélioration ciblée sur certains critères des résultats de
recherche. Ils n’interviennent pas directement lors d’une requête, mais
permettent de perfectionner la base de données dont seront extraits les
résultats consultés.
De nombreux filtres ont été mis en place ces dernières années, mais je ne
parlerai que des deux filtres les plus récents, Panda et Penguin :
Panda
Ce filtre26, sorti en février 2011, a pour objectif de lutter contre les contenus
de mauvaise qualité, il cible indifféremment les sites Web ou les contenus
présents sur le Web. Il a permis de désindexer et par conséquent de réduire la
présence de sites aux contenus de faible qualité dans les SERPs. Les sites
ayant des pages Web avec peu de textes ou des textes de faible qualité,
dupliqués (cf. chap. 2, « Le duplicate content ») ou spams ont été pénalisés
pour mettre en avant des contenus correctement travaillés et apportant une
valeur ajoutée aux utilisateurs et donc au Web.
Ces dernières années, Google le fait régulièrement repasser sur l’ensemble
de son index.
Penguin
Lancé en avril 2012, ce filtre réduit l’impact du spamdexing dans les SERPs.
Le spamdexing consiste en la création de trafic artificiel pour un meilleur
positionnement des sites dans les moteurs.
Ce trafic artificiel est généralement mis en place grâce à des campagnes de
linking de faible qualité (cf. chap. 5, « Les partenariats de liens »). Un linking
de faible qualité correspond à des liens achetés, insérés dans un contexte peu
pertinent ou encore obtenus via des environnements créés spécialement pour
le linking et donc peu naturels27. Ces environnements sont généralement
connus sous le nom de « fermes de liens »28 mais concernent aussi d’autres
types de spams29. Penguin a été mis en place pour lutter contre les techniques
de netlinking Black Hat, les annuaires, communiqués de presse, l’achat de
liens et les commentaires et interventions de faible valeur ajoutée sur les
blogs ou forums. En ne prenant plus en compte les liens artificiels, Google
pénalise les sites bénéficiant de ces liens, baisse leurs positions sur les pages
de recherche ; c’est pourquoi les résultats de recherche s’en trouvent
améliorés.
Ces filtres ont révélé les nouveaux enjeux de Google : en faisant évoluer la
perception des robots pour qu’ils aient un comportement toujours plus
similaire à celui des internautes, Google impacte la manière d’appréhender le
SEO. Ce positionnement de Google, visant à toujours améliorer la pertinence
et la qualité des résultats, démontre que l’inbound marketing est l’évolution
naturelle du SEO.
Organiser les contenus
Pour structurer un site, l’objectif est double : il faut donner accès aux
contenus recherchés par les visiteurs et faciliter le passage des moteurs de
recherche sur ce site. On parle du crawl des moteurs de recherche qui permet
l’indexation des pages.
Afin de répondre à ces deux objectifs, il faut proposer un site où les
informations sont faciles à trouver. L’internaute et les bots moteurs de
recherche doivent trouver rapidement un contenu intéressant et utile. Cette
organisation est d’autant plus nécessaire que le site comporte beaucoup de
pages.
Faciliter l’accès à l’information
Pour faciliter l’accès aux contenus du site, les informations doivent être
structurées de manière cohérente pour les visiteurs – spider bots et
internautes.
Une recommandation SEO communément acceptée dit qu’il ne doit jamais
y avoir plus de 3 clics de profondeur entre une page et la Home Page. Les
objectifs de cette recommandation sont d’éviter :
– les sites à arborescence trop complexe, dans lesquels il est difficile de
naviguer ;
– les clics inutiles vers des pages intermédiaires sans valeur ajoutée pour le
visiteur.
Si un site doit compiler un grand nombre de contenus et requiert une
catégorisation complexe des informations, les pages qui se trouvent à plus de
3 clics de la Home Page seront pertinentes pour les visiteurs et de fait
crawlées, indexées par les bots, partagées par les internautes et, par
conséquent, bien positionnées dans les moteurs de recherche.
Il existe plusieurs architectures possibles pour un site.
■ Site à arborescence complexe
On trouve dans ce type d’organisation du contenu (5 niveaux d’informations)
de nombreuses sous-catégories. Cette catégorisation a pour but de classer
avec logique.
Cette architecture profonde propose, le plus souvent, de nombreuses pages
inutiles et contenant peu d’informations. Ces pages sont difficilement
indexables et viennent alourdir inutilement le site.
Figure 1.8 – Site à arborescence complexe
■ Site à arborescence flat
Afin d’alléger les architectures exhaustives dont nous venons de parler, de
nombreux sites ont mis en place une structure « flat », aussi appelée
« flatening ». Dans cette organisation, toutes les pages Web sont accessibles
depuis la Home Page.
Figure 1.9 – Site à arborescence flat
Le problème de cette architecture est que la page d’accueil est surchargée
d’informations car elle répertorie toutes les pages du site. Cette organisation
est donc adaptée pour des sites ayant peu de contenus et désirant associer à
leur marque une ou deux thématiques seulement.
■ Site en silo
Pour structurer un site, il faut donc prendre en compte deux aspects
diamétralement opposés et pourtant complémentaires.
L’architecture en silo permet d’organiser les contenus par thématiques et
de promouvoir celles-ci sur la page d’accueil du site. Cela permettra non
seulement à l’internaute de comprendre ce que la marque propose, mais aussi
aux robots d’avoir accès rapidement à l’intégralité du site.
De plus, en regroupant les contenus par univers thématiques, la cohérence
des liens et la pertinence sémantique au sein de chaque silo sera améliorée.
Chaque silo formera donc un mini-site qui deviendra plus pertinent pour les
visiteurs humains ou virtuels.
FICHE
PRATIQUE
CONSTRUIRE UN SITE WEB, C’EST
DESSINER !
Bien avant de réaliser ces documents de haute qualité contenant tous
les détails de la future page Web, appelée « maquette graphique », il
existe plusieurs étapes pour construire un site Web :
• L’arborescence est une représentation graphique de l’architecture des
contenus, son organigramme. Qui est supérieur à qui ? Où est rangé
quoi ? Elle débute généralement avec la Home Page, puis présente les
catégories, les sous-catégories et parfois les pages d’un site Web.
• L’organisation des liens reprend une présentation similaire à celle de
l’arborescence, mais elle indiquera les liens hypertextes entre les
pages. Ce schéma permet donc de comprendre la navigation Web
souhaitée par la marque, le parcours utilisateur.
• Le zooning : ce travail permet d’identifier les éléments présents sur
une page Web et leurs emplacements. Ce sont des rectangles ou des
carrés permettant de visualiser les éléments de base de la page Web
(header, footer, sidebar, textes, images, etc.).
• Le mockup est un travail plus réaliste où l’on comprend à quoi va
ressembler la page Web. On ajoute donc plus de détails que dans le
zooning afin d’obtenir une visualisation claire de la page. Le design
(couleurs, espacements, visuels, etc.) n’est pas encore intégré à cette
étape.
• Le Wirframe est un autre type de dessin qui a pour objectif de montrer
la fonctionnalité des éléments présents sur la page. Que se passe-t-il
lorsque l’internaute passe la souris à cet endroit ? Lorsqu’il clique ?
Le Wireframe est généralement couplé avec le mockup ou la
maquette graphique afin de présenter un site fonctionnel pour
intégration.
• La maquette graphique est le document que l’on donne à l’intégrateur
pour réaliser une page Web. Elle doit indiquer tout ce que verra
l’internaute concernant le design (couleurs, espaces, emplacements,
textes, etc.) mais aussi les contenus qui doivent être ceux qui seront
utilisés sur le site.
La plus grande partie de ces éléments peut être faite sur un morceau
de papier ou sur un logiciel de dessin très simple. Il existe aussi des
outils en ligne (balsamiq.com) qui offrent une interface simple
d’utilisation pour réaliser ces schémas facilement.
La structure d’un site doit donc s’adapter au maximum aux comportements
des utilisateurs en devançant leurs besoins. Pour cela, les pages les plus
convaincantes doivent être mises en valeur. Pour donner plus de visibilité aux
pages importantes (cf. chap. 1, « Définir les pages importantes pour la
notoriété Web »), ces dernières pourront bénéficier de liens internes (cf.
chap. 1, « La construction du maillage interne ») en provenance de la page
d’accueil, des pages catégories ou encore des pages profondes du site. On
appelle cette pratique le cross linking (cf. chap. 1, « Le cross linking »).
Figure 1.10 – Site en silo
Définir les pages importantes pour la notoriété Web
Lors d’une réflexion sur la structure d’un site, la première question à se poser
est : « Que voulez-vous montrer aux internautes ? » La deuxième est :
« Comment allez-vous le montrer ? » C’est lors de cette deuxième étape que
l’organisation des contenus est décidée et que les informations sont réparties
sur les différentes pages. Chaque page aura alors un rôle précis : donner une
information, permettre à l’internaute d’agir, présenter différents éléments, etc.
Certaines pages d’un site ont plus d’intérêt pour les visiteurs et pour la
marque, car elles décrivent l’activité ou mettent en avant le message, la vision
du site. Ces pages sont identifiables par le nombre de visites qu’elles
reçoivent.
■ La page d’accueil, ambassadrice de la marque
Lorsqu’un site est bien structuré, la Home Page permet de présenter le
message du site et d’envoyer les internautes sur des pages approfondissant
celui-ci. La Home Page devient donc l’ambassadrice du message, de la
marque.
Utiliser la Home Page comme une vitrine du site permet de présenter aux
visiteurs ce qui est réellement important pour la marque. Les liens présents
sur cette page d’accueil donneront accès aux pages à mettre en avant : des
événements, des pages très recherchées, de nouveaux produits pour un site de
commerce électronique, les dernières news dans un contexte éditorial ou
autre.
Néanmoins, les rubriques les plus importantes du site doivent, elles aussi,
être accessibles depuis la Home Page. La présence de ces « univers »,
sections spécialisées du message de la marque, permettra :
– de faciliter l’exploration du site par les robots, en leur permettant d’accéder
à l’intégralité des contenus ;
– d’améliorer la navigation sur le site en présentant les pages à forte valeur
ajoutée ;
– de transférer le PR vers des pages plus profondes mais importantes pour les
internautes.
Conseil
Attention cependant à ne pas surcharger d’informations la page d’accueil. Les
visiteurs du site auront accès à ses contenus en entrant sur d’autres pages que la
Home Page. C’est pourquoi il est inutile de vouloir tout mettre sur la page de
présentation du site sous peine d’enlever de la clarté au message et à la navigation.
La page d’accueil a donc deux objectifs. Le premier est de présenter le
message (le cœur de métier, l’intérêt du site Web, les promos, les actualités) à
un internaute qui ne connaît pas la marque. Et le second est d’accompagner
un internaute dans sa recherche sur le site – l’exploration – mais aussi dans sa
réalisation d’objectifs – la conversion.
■ Avoir de bonnes Landing Pages…
La Home Page n’a pas pour objectif d’être la première page découverte par
les internautes. En effet, ces derniers, en naviguant sur le Web, accèdent aux
contenus via des liens qui les dirigent vers d’autres pages du site. Ces liens se
trouvent sur les moteurs de recherche, sur des sites ou des blogs ayant un
rapport avec la thématique des contenus proposés sur le site ou encore sur les
réseaux sociaux.
Les pages par lesquelles les internautes découvrent une marque ou un site
sont les Landing Pages, aussi appelées « pages d’atterrissage » ou « pages
d’entrée » sur le site.
Toutes les pages d’un site ne doivent pas nécessairement être indexées et
positionnées dans les moteurs de recherche. Il est primordial d’identifier les
pages qui suscitent l’intérêt des internautes et d’en créer de nouvelles qui
viendront combler les manques du site, car ces pages seront utilisées pour
promouvoir l’image de la marque sur le Web – moteurs de recherche, blogs,
réseaux sociaux… C’est ainsi qu’elles deviendront autant de points d’entrée
sur le site pour les internautes, ce sont donc des pages importantes pour le
site.
Dans un premier temps, les pages importantes doivent être identifiées. Lors
de cette analyse, il arrive que l’on remarque que certaines requêtes des
internautes ne sont pas couvertes par ces pages, il faudra alors y répondre en
créant des pages qui y répondent. Ces dernières seront ensuite travaillées
pour :
– bénéficier d’une meilleure visibilité sur le Web ;
– permettre la réalisation des objectifs du site, soit faciliter la conversion des
internautes.
Un contenu apprécié des internautes
Si le site est déjà en ligne, le point de départ de cette analyse consiste à
trouver les pages Web appréciées par les visiteurs.
On estime qu’une page est appréciée en regardant :
– les interactions qu’elle génère, que ce soient des liens, des mentions ou une
activité sur les réseaux sociaux ;
– le taux de rebond, afin de comprendre si les internautes restent sur la page
et sur le site, ou s’ils décident de reprendre une recherche immédiatement
après avoir vu la page ;
– le taux de réalisation des objectifs fixés par la marque à la page.
Une fois que ces pages apporteuses de trafic sont identifiées, leurs
positions dans les résultats des moteurs de recherche doivent être analysées,
afin de définir si :
– la page répond correctement au besoin de l’internaute ;
– des optimisations d’ordre technique ou de contenus sont nécessaires ;
– de nouvelles pages doivent être créées.
Un contenu explicite pour les moteurs de recherche
Un contenu apprécié est un contenu répondant aux besoins de l’internaute et
anticipant ses futurs besoins. Chaque contenu doit donc être élaboré afin de
satisfaire le visiteur. Seule cette manière d’agir permet de créer une notoriété
Web sur le long terme et de répondre aux attentes de Google qui prend en
compte l’intérêt et la pertinence d’une page pour l’internaute.
Une page explicite permet :
– de bénéficier d’un PR de qualité, car il ne sera pas dilué entre plusieurs
pages similaires ;
– d’améliorer le temps de crawl alloué par les moteurs de recherche à votre
site ;
– d’éviter les pages inutiles ;
– d’offrir une navigation simple sur le site ;
– de faciliter la réalisation des objectifs de la page.
Les efforts se concentrent donc sur un nombre réduit de pages cohérentes
et pertinentes, donc plus efficaces pour mettre en place une notoriété digitale.
Une thématique définie
Pour être pertinent aux yeux des internautes et explicite pour les moteurs de
recherche, chaque page doit servir un intérêt unique : une thématique. Ces
pages seront positionnées sur une requête précise dans les SERPs, car elles
regrouperont toutes les informations concernant le besoin de l’internaute.
Jusqu’à la sortie de Hummingbird, le SEO consistait, en grande partie, à
insérer des mots-clés recherchés par les internautes ainsi qu’à créer des pages
pour les positionner sur des requêtes utilisateur. Ce travail artificiel et
chronophage n’a plus lieu d’être grâce à la compréhension sémantique que
les moteurs de recherche ont des pages Web. Google a développé une
meilleure compréhension des contenus crawlés. Ainsi, il est capable de
comprendre la thématique d’une page en assimilant des mots semblables ; il
comprend l’univers sémantique de la page. Il n’est donc plus nécessaire de
réfléchir uniquement en termes de mots-clés, mais il faut penser la
thématique de page.
En effet, une amélioration de la compréhension sémantique d’une page
permet de catégoriser les pages en regroupant un mot et ses synonymes sous
une même catégorie. On ne travaille donc plus un mot-clé sur une page mais
un univers lexical (cf. chap. 2, « Définir les bons termes à travailler »),
autrement dit une thématique.
Comme le dit Rand Fishkin30, il faut aborder le travail SEO autrement et
structurer des informations plutôt que de créer des pages autour de mots-clés.
Ce travail doit donc être adapté au Web sémantique (cf. chap. 5, « Vers des
relations publiques digitales ? »).
Structurer un site autour de thématiques peut revenir à insérer de
nombreuses informations sur une même page. Il est facile grâce au HTML5
et à AJAX de mettre de nombreuses informations sur une page sans que cette
dernière apparaisse surchargée en terme de design. Ces technologies sont
utilisées pour pouvoir répondre à l’adage : une thématique = une page31.
Un contenu unique
Parallèlement à l’organisation de contenu par thématiques, il faut s’assurer
que les pages proposent un contenu unique.
Que ce soit au sein du site Web ou sur Internet, Google est intransigeant
sur le contenu dupliqué (cf. chap. 2, « Le duplicate content »), comme le
montre la vidéo32 de Matt Cutt. Si un moteur de recherche ne comprend pas
la différence entre deux pages, il peut décider de blacklister les deux pages. Il
se peut aussi qu’il positionne les deux, mais qu’aucune des deux n’obtienne
une bonne position. Il peut enfin choisir de n’indexer qu’une de ces deux
pages. Tout le temps et les efforts investis sur la page non indexée
deviendront donc inutiles, car cette dernière deviendra une page « fantôme ».
De plus, ces deux pages seront régulièrement crawlées par les bots, ce qui
correspond à un mauvais usage du temps de crawl alloué.
Proposer un contenu unique aux moteurs de recherche et aux internautes
permet de positionner les landing pages d’un site sur des requêtes adaptées
aux besoins des internautes.
Ces pages deviennent donc le premier contact d’un internaute avec la
marque et le point de départ de sa navigation. C’est pourquoi toutes les
landing pages doivent mettre en évidence le message de la marque et
accompagner le visiteur dans sa navigation sur le site.
■ … Pour une meilleure diffusion du Page Rank
En effet, les pages d’entrée ont pour objectif de convaincre l’internaute de
faire confiance à la marque et, par conséquent, d’approfondir cette relation en
naviguant sur le site.
Du point de vue de la notoriété Web, les pages d’entrée doivent permettent
d’améliorer celle d’autres pages du site grâce à la passation de Page Rank,
autrement dit de transférer une partie d’une Page Rank vers les pages
bénéficiant de liens.
■ Les pages complexes pour les moteurs de recherche
Certaines pages d’un site n’ont pas pour objectif de se retrouver dans les
pages de résultats des moteurs de recherche. Elles sont vitales au
fonctionnement du site, apportent une grande aide aux visiteurs, mais n’ont
aucune valeur ajoutée pour les moteurs de recherche.
C’est le cas pour deux types de pages particulièrement utilisées sur les sites
Web :
• La pagination, soit l’ensemble des pages numérotées. On les retrouve
principalement dans les listes de produits.
• Les pages de recherche interne au site.
Ces pages doivent donc être traitées avec attention. Elles seront travaillées
pour des raisons de navigation et de praticité d’utilisation du site, mais elles
ne seront pas communiquées à l’extérieur. Il faudra s’assurer qu’elles ne
reçoivent pas de liens et que les moteurs de recherche comprennent bien ce
qu’elles sont et leur utilité pour le visiteur.
Naturellement, la Home Page du site sera la page qui recevra le plus de
liens et donc celle qui sera le plus susceptible d’avoir un PR (cf. chap. 1, « Le
Page Rank ») élevé. Afin de faire bénéficier de ce PR les autres pages du site,
la page d’accueil fera des liens vers les pages qui doivent bénéficier de plus
de visibilité. On transmet ainsi la notoriété aux pages considérées comme
plus importantes, et on facilite le crawl de ces pages. Comme nous l’avons
vu, les Landing Page sont des pages optimisées pour le SEO mais ayant un
intérêt pour l’internaute. C’est pourquoi la Home Page ne doit faire des liens
que vers des pages cohérentes avec les besoins des visiteurs, la page d’accueil
ne doit donc pas contenir de liens à des fins uniquement SEO.
Cette pratique peut aussi être étendue à l’ensemble des pages
d’atterrissage. Chacune se comportera alors comme une « mini » Home Page.
L’intégration de liens vers les pages importantes du site permettra de faire
naviguer le PR (cf. chap. 1, « Le Page Rank »). La répartition du linkjuice
sera ainsi optimisée entre toutes les pages importantes du site. C’est le cross
linking (cf. chap. 1, « Le cross linking »).
Conseil
Attention, la structure de site et le linking internes vont de pair ; les faiblesses de l’un
devront être compensées par les forces de l’autre.
Mettre en place une expérience utilisateur
réussie
On entend souvent dire qu’il faut faire un choix entre expérience utilisateur,
aussi appelé UX (pour User Experience), et SEO ; pourtant, les deux sont
intimement liés. Ils répondent à un seul besoin : fournir un site de qualité aux
internautes.
À ce jour, Google a accès à de plus en plus d’informations sur le
comportement des utilisateurs. Il peut donc utiliser ces informations pour
juger de la qualité d’un site dans sa globalité ainsi que pour chacune des
pages. Une bonne expérience utilisateur, de forts taux de fidélité et de
recommandation ou encore un faible taux d’abandon sont autant de facteurs
qui donneront plus de notoriété à une marque et permettront au site de
bénéficier de liens.
Un site est donc le meilleur outil à disposition pour créer une image de
marque. Pour cela, il faut faire entrer l’internaute dans l’univers de la marque
et s’adapter à sa manière d’utiliser le Web. Afin de mener à bien cette
démarche, il est recommandé de s’appuyer sur l’ergonomie et la navigation
sur les pages Web. Ces deux aspects sont importants, non seulement car ils
permettent de différencier la marque de ses concurrents, en offrant aux
internautes un site adapté à leurs habitudes de navigation, mais aussi parce
qu’ils auront un impact sur les données de navigation du site, données prises
en compte par l’algorithme.
Une ergonomie qui rassure l’internaute
L’ergonomie sur Internet fait référence à la mise en page d’un site Web,
autrement dit au positionnement des éléments sur chaque page Web.
Il existe de nombreux mythes à propos de l’ergonomie33. En réalité,
l’ergonomie est simplement un ensemble de codes relevant du bon sens, qui
facilite la lecture des informations sur les pages du site. Voici les pratiques
les plus communément acceptées :
■ Des pages aérées
Les pages ne doivent pas montrer trop d’informations d’un coup. En
respectant l’adage une page = une thématique, la quantité d’informations
devrait être limitée. Mais il se peut qu’une page recense beaucoup
d’informations. Dans un premier temps, il faut se demander s’il ne serait pas
plus pertinent de regrouper ces informations en plusieurs pages, répondant
chacune à un besoin spécifique des internautes. Si ce n’est pas le cas et que
toutes les informations doivent rester sur une même page, je recommande
d’utiliser un design simple et de ne pas montrer toutes les informations en
même temps.
■ Des directives claires
Afin que les internautes réalisent les objectifs donnés à chaque page, les
éléments impactant cette décision doivent être compréhensibles et en nombre
limité. Un trop grand nombre de propositions d’actions différentes peut
déstabiliser les utilisateurs et leur faire abandonner une page qu’ils jugeront
trop compliquée.
■ Des visuels adaptés aux textes
Les visuels facilitent la lecture des utilisateurs sur le Web, mais ces visuels
doivent être utiles : ils doivent expliquer ou illustrer ce que la marque veut
dire. Si les visuels sont de faible qualité ou inutiles pour la page, il est inutile
d’en mettre. En effet, il est tout à fait possible de travailler le design d’un
texte en utilisant les titres et les espacements pour rendre le texte plus
agréable à lire sans y ajouter de visuels.
■ Des informations réparties sur l’ensemble de la page
On entend souvent dire que les informations doivent se trouver au-dessus de
la ligne de flottaison, ligne qui sépare une page Web entre ce qui est
immédiatement vu par un internaute lorsqu’il arrive sur la page et ce qui est
accessible après avoir scrollé la page vers le bas.
Or les utilisateurs scrollent de plus en plus. Ils savent aussi chercher
l’information dont ils ont besoin sur une page. Il est donc plus important de
travailler le design de la page et de bien situer les call-to-action plutôt que de
vouloir tout mettre dans le champ visuel de l’utilisateur et de risquer de
donner un aspect désorganisé.
■ Des standards Web à respecter
À moins d’avoir pour objectif de surprendre l’utilisateur, les conventions qui
se sont établies au fur et à mesure de l’évolution du Web doivent être
respectées.
Les habitudes de navigation des internautes entraînent une fixation de
certains éléments ou de comportements de la page Web. Le panier d’achat
doit, à présent, se trouver en haut à droite, tout comme l’espace de connexion
à l’espace membre. De même, les internautes ont pris l’habitude d’atteindre
la Home Page d’un site en cliquant sur le logo. Un site qui placerait ces
éléments ailleurs ou changerait certains comportements du site serait
perturbant et mettrait l’utilisateur mal à l’aise. Il est donc nécessaire
d’apprendre à connaître les standards Web et de les comprendre, pour
faciliter la navigation des visiteurs.
■ Des éléments graphiques adaptés à l’image de marque
Que cela concerne la police des textes, les couleurs du site ou les animations
des éléments sur une page, tout ce qui provoque des réactions et des
sentiments concernant une marque doit être travaillé avec attention. Pour
cela, il est important de bien connaître les internautes auxquels le site est
destiné.
La police des textes, le contraste des pages ou l’animation des éléments sur
les pages seront influencés par l’âge des internautes, leurs habitudes de
navigation et de nombreux autres éléments. Les couleurs jouent aussi un rôle
important selon leur signification. La couleur bleue donne un effet reposant,
le rouge utilisé en trop grande quantité peut énerver le visiteur, le vert
rappelle la nature, etc. L’utilisation des couleurs permet donc d’influencer le
visiteur sur son ressenti du site.
En portant une attention particulière à ces détails, la lecture des pages sera
facilitée et un sentiment positif sera assimilé à la marque.
■ Une lisibilité adaptée au mobile
Le temps d’attention et la concentration que l’on trouve lors d’une navigation
mobile sont très différents des comportements de lecture que l’on retrouve
sur les desktops ou les tablettes. C’est pourquoi la présentation des contenus
sur les smartphones doit être réfléchie différemment pour conserver l’impact
désiré. Voici quelques exemples d’éléments dont la présentation doit être
adaptée :
• La taille des boutons pour faciliter le clic.
• L’adaptation du texte à l’écran pour éviter aux internautes de devoir
zoomer.
• La taille de la police pour faciliter la lecture.
• La structure du texte pour que les éléments importants ressortent
rapidement.
• Un titre clair et concis pour inciter les internautes à la lecture.
• Des URLs propres.
• Des paragraphes courts pour une lecture rapide.
Le saviez-vous ? ■ Le header et le footer, des éléments cruciaux
de la navigation
Le header et le footer sont des parties d’une page Web que l’on retrouve sur toutes les
pages du site. L’une se trouve généralement en haut de la page, l’autre en bas. Elles
permettent de donner une identité visuelle au site mais aussi de faciliter la navigation
en donnant accès aux informations importantes concernant la marque.
Lorsqu’un bot arrive sur une page, il l’analyse puis la divise en plusieurs parties. En
fonction de sa connaissance du site et des informations contenues dans chaque partie,
il est capable de définir le footer, le header mais aussi les sidebars, les encarts
latéraux contenant des informations qui se répètent sur le site ou des liens vers des
contenus similaires. Comme ils sont généralement récurrents sur toutes les pages, ces
éléments sont jugés moins pertinents pour l’internaute.
Le header et le footer servent donc principalement à la navigation sur le site, ils
doivent par conséquent être pratiques pour l’internaute afin que ce dernier trouve ce
qu’il recherche mais ne doivent pas, pour autant, être surchargés de liens afin
d’accompagner le visiteur dans sa navigation. L’objectif est de diriger le visiteur vers
les pages que la marque désire, tout en lui montrant l’exhaustivité des informations
proposées par site.
De même, ils ne doivent pas contenir d’informations importantes pour deux raisons :
1. Les internautes n’iront pas chercher les informations importantes à ces endroits.
2. Les moteurs de recherche considéreront les éléments contenus dans le header et le
footer comme moins importants car ils sont relatifs à la navigation sur le site.
Les informations seront donc moins importantes pour les moteurs de recherche, elles
auront moins de poids que celles de la partie principale, aussi connue sous le nom de
« corps de la page ». Le corps de la page est l’endroit où se trouvent les informations
principales, ce pour quoi la page a été créée. Ce dernier ne doit pas être confondu
avec le body qui est la balise HTML où sont inscrits les éléments affichés sur la page,
menu et footer inclus.
Pourtant, l’organisation des éléments sur une page Web et son design ont une
importance en SEO, parce qu’ils ont un impact sur le comportement et la navigation
des internautes. Les éléments récurrents comme le header et le footer sont des
éléments différenciants pour un site car c’est grâce à eux que l’on juge de la qualité
d’un site. Ils doivent donc être travaillés avec soin, car seul un bon site obtient des
liens de qualité et améliore sa notoriété auprès des moteurs.
Une bonne visibilité sur tous les écrans
Comme pour l’ergonomie, un site visible sur tous les écrans améliorera la
visibilité sur le Web. C’est ce que Google a démontré avec son dernier
algorithme, « Mobilegeddon », qui prend en compte les bonnes pratiques de
visibilité sur les mobiles dans ses facteurs de ranking. L’affichage dans les
SERPs mobile diffère des résultats de recherche pour les desktops34.
Il existe plusieurs manières de proposer un site pour toutes les typologies
d’écrans : proposer un site par support ou bien un site qui s’adapte à l’écran
de l’internaute.
Créer un site par support revient à élaborer un site pour les smartphones,
un site pour les tablettes et un site pour les ordinateurs de bureau, aussi
appelés « desktops ». Chacune de ces versions doit se trouver à une URL
différente35. Nous ne parlons que de trois types de sites différents ; or, il
existe de nombreux formats, chaque téléphone, tablette et même chaque
ordinateur ayant une résolution d’écran différente36. Il est donc nécessaire de
réfléchir dès à présent à un site adaptable à tous ces supports. C’est pourquoi
je parlerai plus amplement du Responsive Web Design (RWD) et de
l’Adaptive Web Design (AWD).
Figure 1.11 – Le processus de réflexion de design adaptatif
■ Le Responsive Web Design
Le design responsive est un design qui permet d’adapter un site Web à toutes
les tailles d’écran, pour offrir une expérience de navigation similaire sur tous
les types de supports.
Le design responsive ne concerne que la présentation du site37. Tous les
contenus sont accessibles, ils sont juste disposés différemment sur l’écran et
ne sont pas toujours affichés, pour ne pas surcharger les pages sur les petits
écrans. Bien que les contenus appelés et chargés par le navigateur ne soient
pas affichés, les performances du site peuvent cependant être impactées,
comme le temps de chargement de la page ou les animations. Le Responsive
Web Design n’est donc pas une solution idéale, mais c’est un bon compromis
pour toucher une large audience en limitant les coûts de développement38.
Il existe plusieurs raisons pour lesquelles le responsive design n’est pas
optimal pour le SEO39 :
• Si les mots-clés recherchés par les internautes mobiles ne sont pas ceux
recherchés par les visiteurs desktop.
• Si les catégories qui intéressent les internautes mobiles n’existent pas sur le
site.
• Si l’audience cible utilise majoritairement le mobile.
• Si les temps de chargement sur le mobile sont trop longs.
• Si le design responsive empêche des innovations « produit », des options
uniquement disponibles sur mobile, qui amélioreraient l’expérience
utilisateur.
Il faut donc comprendre les besoins avant de choisir de créer un site en
RWD.
■ L’Adaptive Web Design
Avec le design adaptatif, on crée une série de designs pour les différents
types d’écrans avec les contenus associés. Tous les éléments et contenus
proposés sur la version desktop ne sont donc pas envoyés aux navigateurs
mobiles. Ainsi, lorsque l’utilisateur fait une requête, le serveur vérifie le
périphérique – mobile, tablette ou desktop – sur lequel sera affichée la page
qui délivrera le contenu ainsi que le design approprié.
Le design adaptatif est donc une forme élaborée de design responsive. Au
lieu de réorganiser les contenus, ces derniers sont sélectionnés et organisés
selon un design prédéfini pour chaque type de support. Un type de support est
le plus souvent déterminé par la taille de l’écran.
Une infographie permet de visualiser en un coup d’œil les différences entre
le RWS et l’ADW : http://visual.ly/adaptive-Web-design-vs-responsive-Web-
design.
Figure 1.12 – Les questions pour choisir sa visibilité mobile
Ce sera donc à la marque de choisir quel design mettre en place en
fonction des moyens et du comportement des utilisateurs. En effet, l’AWD
est légèrement plus cher et n’est pertinent que si une grande partie des
visiteurs navigue sur le site via différents supports. Si les utilisateurs se
servent essentiellement d’un seul support, il suffira d’optimiser au maximum
le support principalement utilisé et de proposer les contenus sur d’autres
supports, grâce au RWD, afin de ne pas perdre de visites.
Quelques techniques40 pour aider les bots à comprendre quel site est
destiné à un mobile ou à un desktop sont aussi disponibles.
■ La solution application
De nombreuses entreprises estiment préférable de créer une application
smartphone plutôt que de faire un site mobile. Pourtant, l’application ne
remplace pas un site mobile. En effet, une application s’adresse à un public
déjà fidèle, à des internautes qui appartiennent déjà à une communauté. Une
application concerne un site où les internautes sont invités à revenir. Si un
internaute veut découvrir une marque ou consulter une information, il ne
voudra peut-être pas télécharger l’application et adhérer à la communauté du
site.
De plus, les coûts de développement et de maintien d’une application sont
à prendre en compte. La pertinence pour la marque doit être assurée avant de
lancer un tel projet. Et ce d’autant plus que deux à trois applications (Apple,
Android et Windows Phone) doivent être construites pour être présentes sur
la majorité des smartphones.
Il est donc nécessaire de bien réfléchir au public visé et de comprendre
l’ensemble des interactions des internautes avec le site, avant de privilégier
l’application au site mobile. L’application pour smartphone est
complémentaire au site mobile et ce, uniquement pour certains types de site,
le plus souvent les sites de e-commerce ou les sites d’informations.
Figure 1.13 – Les manières d’utiliser un smartphone
FICHE
PRATIQUE
LA VISIBILITÉ POUR LES SITES
ET APPLICATIONS MOBILE
Il arrive qu’une marque choisisse de n’être présente que sur les
dispositifs mobiles. L’élaboration de la stratégie sera alors la même
que celle que nous proposons dans cet ouvrage. Notons que, pour les
sites mobiles, l’ergonomie est d’autant plus importante que les
contenus devront être faciles à lire. Il existe de nombreux points1 qui
peuvent être pris en compte lorsque l’on travaille l’ergonomie d’un
site. La meilleure manière de connaître les aspects à prendre en
compte pour réaliser un site avec une ergonomie et un parcours
utilisateur efficace est de réaliser des persona. Les persona sont des
utilisateurs fictifs du site qui représentent les différents types de
visiteurs que le site doit recevoir. Grâce à ces persona, la manière de
lire les pages, les pages consultées, les chemins de navigation ainsi
que de nombreux autres aspects pourront être identifiés concrètement
et mis en place sur le site rapidement.
Une navigation qui simplifie l’accès
aux informations41
La navigation est l’autre point fondamental de l’expérience utilisateur. La
navigation est ce qui permet aux internautes d’accéder aux autres contenus
présents sur le site. Elle se fait principalement grâce aux liens internes. Les
liens internes sont des liens entre les pages du site.
Afin d’améliorer la navigation sur le site et l’accès aux pages importantes
(cf. chap. 1, « Définir les pages importantes pour la notoriété Web »), on crée
une stratégie de liens internes. Cette stratégie est aussi nommée « linking
interne » ou « maillage interne », car elle crée des ponts entre les pages du
site, proposant ainsi d’autres chemins de navigation aux internautes et
permettant d’améliorer le Page Rank de certaines pages. C’est pourquoi un
bon maillage interne permet de faire du Page Rank modeling42, soit
d’augmenter le Page Rank de certaines pages en les liant avec des pages
« fortes ».
Liens et navigation sur un site
Il nous semble important de définir ce qu’est un lien, ainsi que le vocabulaire
associé aux liens avant d’aborder ce sujet.
Les liens sont les balises <a> du code HTML. Ils sont la base de la
navigation Internet. C’est grâce aux liens que tous les contenus sont reliés
entre eux et forment cette grande toile d’araignée, le Web. Ils sont
primordiaux, car c’est ainsi que les bots parcourent le site et définissent les
pages à indexer ainsi que le PR des pages (cf. chap. 1, « Le Page Rank »).
■ Les liens internes
Un lien interne est un lien qui part d’un site et qui envoie l’internaute vers
une autre page du même site. L’internaute reste donc sur le même nom de
domaine.
■ Les liens externes
Un lien externe est un lien qui envoie un internaute vers un autre site, un
autre domaine. On appelle aussi les liens externes des « liens sortants » ou
des « backlinks ».
■ Les ancres des liens
Une ancre est l’ensemble des termes sur lesquels sera affiché un lien. Ils sont
généralement de couleur différente et parfois soulignés pour indiquer à
l’internaute qu’il peut visiter une autre page en cliquant sur ces termes.
■ Les codes de réponse HTTP
Les codes HTTP sont les directives envoyées par le serveur lorsqu’une
requête est effectuée sur un site. Ces codes permettent de savoir comment se
passent les échanges de données entre le navigateur et le serveur lorsque l’on
demande à accéder à une page.
Il existe de nombreux codes HTTP43, je ne parlerai ici que des codes http
qui doivent être connus pour améliorer la visibilité d’un site sur le Web.
200
Ce code correspond à un échange réussi. Le serveur a bien envoyé la page
requêtée.
301
La page requêtée a été déplacée définitivement, l’internaute sera donc
redirigé vers une autre page, une autre URL.
Lors de la suppression d’un contenu, on utilise le code 301 pour rediriger
les visiteurs vers la nouvelle page ou une page de thématique similaire. Dans
le cas contraire, l’internaute sera redirigé automatiquement vers une
page 404.
Le code 301 est aussi utilisé pour :
– éviter une duplication de la Home Page : une erreur commune lors de la
mise en ligne d’un site est de ne pas bien établir les règles de redirection.
En effet, lorsqu’une marque achète un nom de domaine, ce dernier est
accessible de deux manières différentes : www.mon-site.com ou bien mon-
site.com. Il est important de définir laquelle de ces deux versions est la
version principale ;
– faciliter la passation du Page Rank : si le site a déjà une certaine ancienneté,
il faudra retravailler des redirections existantes pour éviter de faire des 301
en cascade. Pour éviter de faire une 301 sur une page déjà réceptrice
d’une 301, l’intégralité des redirections devra être listée afin que toutes les
redirections soient faites vers une page visible sur le site.
302
La page requêtée a été déplacée temporairement. L’internaute sera donc
redirigé vers une autre page jusqu’à ce que cette directive soit annulée.
Étant donné l’état temporaire de cette directive, le Page Rank ne sera pas
transféré vers la page sur laquelle l’internaute sera redirigé.
404
La page n’existe pas, le serveur fournit donc soit un code erreur sur le
navigateur, soit une page indiquant à l’internaute que le contenu qu’il
recherche est introuvable.
Il est très important de bien penser cette page, afin de ne pas en faire une
page sans issue et de permettre au visiteur de continuer sa navigation sur le
site.
Figure 1.14 – Les principales réponses HTTP et leurs significations
Analyse du maillage interne existant
Avant toute chose, un site déjà en ligne et disposant d’une certaine ancienneté
doit être analysé afin de bien comprendre le fonctionnement et les impacts de
la structure existante de liens internes. De cette manière, on peut d’une part
identifier et supprimer les liens nocifs, d’autre part améliorer les liens
internes pertinents.
■ Comprendre la source du Page Rank
Dans un premier temps, il faut comprendre la source du Page Rank.
Pour cela, les liens vers le site travaillé ainsi que les liens internes au site
doivent être analysés. Ces analyses permettent de comprendre quelles sont les
pages les plus appréciées et quel est le chemin parcouru par les internautes à
partir de ces pages.
En fonction des résultats, les améliorations nécessaires seront réalisées afin
de donner, grâce à un bon maillage interne, plus de visibilité aux pages les
plus recherchées et les plus efficaces en termes de conversion.
On proposera ainsi une page pertinente à l’internaute ainsi qu’aux robots,
tout en améliorant le crawl et la conversion sur le site.
FICHE
PRATIQUE
CONSTRUIRE UN PARCOURS
DE NAVIGATION WEB
Un parcours de navigation Web est le parfait mélange du parcours
utilisateur et de l’organisation des contenus. En effet, un parcours de
navigation efficace est une arborescence des contenus qui permet à
l’internaute de facilement convertir et/ou acheter. Concrètement, on
simplifie l’utilisation du site pour chaque type de visiteur en lui
proposant les pages Web qui répondent exactement à ses besoins.
Pour cela, il est important de travailler sur trois dimensions pour bien
cerner les utilisateurs et adapter la navigation.
Sur la première dimension, l’objectif est de segmenter le public
cible en segment d’utilisateur ayant les mêmes caractéristiques, pour
ensuite utiliser la technique des persona. L’objectif est de
comprendre leurs attentes envers la marque et son site Web pour
répondre à quelques questions :
Figure 1.15 – Les éléments de la navigation Web
• Quels sont leurs besoins et/ou attentes ?
• Quelles sont leurs utilisations Web ?
• Sur quels outils naviguent-ils ?
• Comment faut-il leur parler ?
•…
La deuxième dimension permet de comprendre la relation que
l’utilisateur entretient avec la marque. Il s’agit donc ici de définir des
niveaux d’utilisateurs en fonction des interactions qu’ils ont eues
avec la marque (découverte, information, achat) :
• Est-il un visiteur, prospect, lead, client, client fidèle ou ambassadeur ?
• Quel est le degré de connaissance marque ?
• Quelles informations ont-ils fournies à la marque ?
• Quel est son parcours d’achat ?
• Quel est son comportement après achat ?
La troisième dimension est l’adaptation du discours de la marque à
chaque interlocuteur. L’idée ici est d’accompagner le visiteur pour
que ce dernier s’identifie non seulement aux produits mais aussi aux
valeurs et à l’esprit véhiculé par la marque :
• Quelle est l’histoire qu’il doit entendre ?
• Quelles sont les pages qui lui permettront d’identifier les objectifs de
la marque ?
• Quels boutons, liens ou autres éléments visuels lui donneront envie de
réaliser ces objectifs ?
• Quels sont les points d’identification ?
Cette réflexion sur trois dimensions permet alors de comprendre
quels sont les points de passage obligatoires pour que la marque
puisse présenter sa valeur ajoutée à l’internaute. Attention, selon le
public cible auquel appartient l’internaute, les points de passage ne
seront pas les mêmes, car ils n’ont pas les mêmes attentes. On a donc
souvent plusieurs parcours de navigation pour un même site selon les
persona identifiés, ce qui rend sa construction très complexe.
■ Rechercher les pertes de Page Rank
Les analyses des liens permettront d’identifier les pertes de Page Rank. On
constate plusieurs manières de perdre le Page Rank.
Les liens sortants
Un lien sortant est un lien vers une page extérieure au site. L’internaute, et
par conséquent les bots, sort donc du site pour en visiter un autre. Le risque
est qu’il ne revienne pas sur le site. C’est pourquoi les liens sortants doivent
être justifiés et apporter un « plus » aux visiteurs.
Les pages sans issues
Une page sans issue est une page qui n’émet pas de lien interne ou externe.
Or, une page ne faisant pas de lien ne transmet pas de PR. La notoriété
acquise par cette page n’est donc pas redistribuée vers d’autres pages du site.
De plus, le fait qu’une page n’ait pas de lien rend la navigation sur le site plus
difficile, pour l’internaute comme pour les robots.
Les pages d’erreur ou 404 sont aussi considérées comme des pages sans
issues, sauf lorsque l’on y travaille le linking.
Les nombreux liens sur une page
Plus la page contient de liens, plus le Page Rank sera dilué lors de sa
distribution sur les pages suivantes. On dit que le linkjuice sera dilué. C’est
pourquoi il faut élaborer avec soin les liens présents sur une page, et d’autant
plus les liens dans le corps du texte.
La construction du maillage interne
Une fois ces analyses réalisées, et forts de ce que nous avons compris, la
réflexion sur la mise en place d’un maillage interne pertinent pour le site peut
commencer. Le maillage est une logique à mettre en place, c’est une
adaptation à un secteur d’activité (ce que font les concurrents), aux
partenaires (le type de liens envoyés) et aux clients (pour leur proposer une
navigation sur le site qui correspond à leurs besoins). Le tout est allié à une
compréhension du fonctionnement des bots pour un meilleur crawl du site.
■ Les avantages d’un maillage interne fonctionnel
Il semble naturel de faire des liens au sein d’un site Web, mais il existe de
nombreux avantages à faire des liens internes de qualité. Voici une liste non
exhaustive de ces raisons :
• Faciliter la navigation et augmenter le nombre de pages vues :
l’amélioration de l’accès à l’intégralité des pages donne plus de visibilité
aux contenus, et par conséquent, contribue à la réalisation des objectifs du
site Web.
• Passer du PR : en travaillant la structure de liens internes, les pages dont le
Page Rank est faible bénéficieront de la forte notoriété d’autres pages du
site. On appelle cela « faire passer du linkjuice ».
• Réduire le taux de rebond : même si un internaute arrive sur une page qui
ne correspond pas entièrement à sa requête, un bon travail de maillage
interne lui fournira la possibilité d’aller visiter des pages similaires ou en
relation avec la thématique de la page qui répondront mieux à sa requête.
• Faciliter le crawl et l’indexation : en facilitant la navigation, les bots de
moteurs de recherche accéderont plus facilement aux contenus. Le temps
passé à crawler le site est donc réduit. La mise en place de relations entre
les pages donne un contexte plus fort à chacune d’entre elles, c’est
pourquoi elles seront mieux comprises par les moteurs de recherche et par
conséquent plus facilement indexées et mieux positionnées.
■ Différentes approches du maillage interne
La construction du maillage interne d’un site dépend directement de la
structure choisie pour ce site. Pour ce faire, plusieurs stratégies de liens
peuvent être mises en place :
Lier toutes les pages du site entre elles
Pour ce faire, on utilise le menu et le footer. Les pages importantes et les
pages moins importantes reçoivent donc le même nombre de linkjuice. Cette
technique est très limitée, car on divise ainsi le PR en de nombreuses parts, ce
qui empêche de mettre en avant les pages à fort potentiel.
Cette méthode est donc mieux adaptée pour des sites de petite taille.
Lier les pages filles uniquement
Les pages « filles » sont les sous-pages de pages Web. Les liens se font donc
de manière verticale des pages mère vers les pages filles. Les pages ne
recensent alors que peu de liens. Cette technique permet ainsi de conserver un
Page Rank fort pour les pages de niveau supérieur.
Cependant, les robots, comme les internautes, doivent effectuer de
nombreux clics avant d’atteindre les pages à forte valeur ajoutée. En chemin,
ils doivent passer par de nombreuses pages sans intérêt dont le seul but est de
catégoriser et de lister les pages importantes (cf. chap. 1, « Définir les pages
importantes pour la notoriété Web ») du site. De plus, cette méthode a pour
inconvénient de perdre le PR au dernier niveau de la structure.
Le cross linking
La méthode du cross linking consiste à lier les pages du site entre elles en
fonction des centres d’intérêt du visiteur, et ce pour positionner au mieux les
pages importantes de la marque dans les résultats des moteurs de recherche.
Pour cela, chaque page Web considérée comme importante doit faire et
recevoir des liens de pages pertinentes pour la navigation de l’internaute.
C’est pourquoi il faut garder à l’esprit la cohérence des liens positionnés : un
lien n’est fait que si ce dernier est dans la thématique de la page et s’il répond
à un besoin de l’internaute après sa visite sur la page.
Afin d’éviter les pages sans issue, on positionne des liens sur des pages
profondes vers d’autres pages profondes ou des pages de catégorie
supérieure ; on met en place des liens transversaux.
Le cross linking se trouve donc à l’intersection des méthodes que nous
venons d’énumérer, il adapte les liens aux besoins réels de l’internaute et aux
objectifs donnés pour une page Web. Cette stratégie se base sur la mise en
avant des pages importantes du site, tout en facilitant le trafic entre toutes les
pages.
La pertinence des liens
L’aspect sémantique prenant une dimension toujours plus grande dans les
algorithmes des moteurs de recherche, il est primordial de faire des liens vers
des pages ayant des thématiques similaires (cf. chap. 1, « Avoir de bonnes
Landing Pages… »).
En effet, un internaute ne cliquera sur un lien que si ce dernier a un rapport
avec la requête qui lui a permis d’arriver sur cette page. Il a un besoin précis
en tête, il scanne donc la page pour trouver les informations qu’il désire et
son attention ne sera retenue que par des éléments, textuels, images ou liens,
en relations avec sa demande.
Les moteurs de recherche prennent désormais ce comportement en compte
dans leur algorithme et accordent une plus grande importance aux liens qui
dirigent l’internaute vers une page à la thématique similaire de la page de
départ.
Conseil
Attention, le cross linking doit rester pertinent pour les internautes, afin que cela
semble naturel aux robots. Il ne faut pas abuser de cette méthode sous peine de :
– surcharger la page de liens ;
– diluer le Page Rank ;
– ne plus comprendre la stratégie de liens.
Il n’existe pas de stratégie de linking parfaite dans l’absolu, seule la
compréhension des enjeux de chacune de ces méthodes permet de trouver ce
qui convient le mieux au site travaillé. Il ne faut pas hésiter non plus à
remanier les liens en fonction des résultats. De manière globale, toute la
structure de linking mise en place doit être conservée dans un document, le
tableur est l’outil adéquat pour cela.
■ Les best practices du maillage interne
Voici un aperçu des bonnes pratiques lors de la mise en place de liens dans le
cadre du maillage interne.
L’emplacement des liens
Les liens doivent se trouver sur un texte. Il serait optimal de positionner un
lien en haut de page dans le texte principal, le corps du texte, mais il faut
avant tout respecter la cohérence du lien au sein du texte.
Dans la mesure du possible, il est recommandé d’éviter les liens sur des
images car les moteurs de recherche ne peuvent pas comprendre ce que
représente une image (cf. chap. 2, « Les images »).
Des liens fonctionnels
Les liens doivent mener quelque part. C’est pourquoi il faut éviter les liens
cassés qui redirigent vers des 404 (cf. chap. 1, « Les codes de réponse
HTTP »). Pour cela, les redirections 301 permettent de rediriger non
seulement les utilisateurs mais aussi le Page Rank. La navigation du site doit
être fluide.
De même, le nombre de « dangling links » doit être aussi faible que
possible. Ces liens vers des documents ou des pages non indexables ou des
pages en nofollow n’ont que peu d’intérêt pour les visiteurs.
Des liens « en dur »
Les liens doivent toujours être en HTML, donc accessibles aux robots. Il faut
donc éviter autant que possible les liens en Javascript ou Flash, pas ou mal
lus par les bots. Dans la même logique, les formulaires ne doivent pas être
utilisés pour faire des liens, les bots ne remplissant pas les champs des
formulaires ou des moteurs de recherche pour accéder aux contenus.
Un lien minimum pour chaque page
Si une page ne reçoit aucun lien, elle ne sera pas trouvée par les bots, à moins
qu’un site extérieur ne lui fasse un lien. S’il semble impossible d’établir un
lien vers cette page, il faut se demander si elle est vraiment nécessaire et, si
c’est le cas, à quel besoin utilisateur elle répond et enfin comment on l’insère
dans le parcours de navigation.
Un nombre raisonnable de liens
Le nombre de liens par page n’est officiellement plus une considération de
Google, qui donne pour directive de conserver un nombre « raisonnable » de
liens par page44. Si un grand nombre de liens se trouvent sur une page, il est
préférable que ces derniers soient justifiés par le type de pages émettrices (le
plus souvent listing de produits ou d’articles). Rappelons que le PR est divisé
par le nombre de liens sur la page.
Il existe la possibilité de brouiller des liens, c’est une pratique risquée, car
les moteurs de recherche sont toujours plus performants à ce sujet ; ainsi, peu
importe la technique utilisée, il existe un risque que ces liens soient
découverts un jour par les bots et que cela ait un impact négatif sur le
référencement du site. C’est pourquoi un expert doit accompagner cette
démarche.
Des ancres reprenant la thématique de la page cible
Pour rédiger les liens, on utilise comme ancre un mot-clé défini comme
important (cf. chap. 2, « Définir les bons termes à travailler »). Toutes les
ancres pointant vers une même page devront reprendre ce mot-clé ou un de
ses synonymes. C’est ce que l’on appelle la sémantique « déportée ». En
utilisant, dans l’ancre du lien, un terme présent sur la page de destination (cf.
chap. 1, « Avoir de bonnes Landing Pages… »), les moteurs, mais aussi les
internautes peuvent connaître la thématique de la page45 avant de cliquer. On
parle de « déportation » de l’univers sémantique de la page sur l’ancre. C’est
pourquoi les termes comme « En savoir plus », « Cliquez ici » ou autres
expressions trop génériques sont à bannir. Non seulement elles ne donnent
aucune information sur le contenu auquel on accède via le lien mais elles
n’incitent que très peu l’internaute à interagir avec ce lien.
Ne traiter que les pages importantes
Faites attention aux pages qui font du « bruit » pour rien, comme nous
l’avons vu dans la partie concernant l’organisation des contenus dans la
structure du site (cf. chap. 1, « Organiser les contenus ») : il est inutile de
créer des pages qui n’ont pas un intérêt réel pour l’internaute.
S’il est malgré tout nécessaire de créer ces pages pour des raisons business,
elles ne doivent recevoir que peu de liens et uniquement lorsque cela est
absolument nécessaire, afin de diluer le moins de PR possible. Pour cela, on
ajoutera aussi un rel = nofollow (cf. chap. 2, « Un contenu unique ») sur ces
pages qui doivent se trouver au fond de l’architecture du site.
Des thématiques lisibles pour chaque page
L’aspect sémantique prenant une dimension toujours plus grande dans les
algorithmes des moteurs de recherche, il est avantageux de faire des liens
vers des pages ayant des thématiques similaires (cf. chap. 1, « Avoir de
bonnes Landing Pages… »).
En effet, un internaute ne cliquera sur un lien que si ce dernier a un lien en
rapport avec la requête qui lui a permis d’arriver sur cette page. Il a un besoin
précis en tête, il scanne donc la page pour trouver les informations qu’il
désire et son attention ne sera retenue que par des éléments, textuels, images
ou liens, en relation avec sa demande.
Les moteurs de recherche prennent désormais ce comportement en compte
dans leur algorithme et accordent une plus grande importance aux liens
guidant l’internaute sur une page à la thématique similaire de la page de
départ.
Malgré tous ces efforts, de nombreux sites manquent de clarté car ils ont
négligé l’étape de structure de l’information. Le message est donc confus. Il
est donc important de bien définir la vision du site et le message qui y sera
véhiculé. Bien répertorier les contenus et les organiser permet une bonne
compréhension du message et par conséquent une bonne expérience de
navigation pour l’utilisateur.
Ce n’est donc qu’une fois les contenus répertoriés et organisés que
l’architecture du site Web pourra être définie et le site Internet être créé.
L’essentiel
►► La structure, le visuel et la navigation du site
forment la clé de voûte de la réussite sur le Web. Ce sont
donc les premiers aspects auxquels il faut réfléchir pour
positionner un site correctement dans les résultats des
moteurs de recherche mais aussi sur les bons blogs ou
réseaux sociaux. C’est grâce à une structure claire et
logique, à des pages adaptées aux besoins des visiteurs et
à une navigation fluide qu’un site deviendra
incontournable sur le Web.
►► Les moteurs de recherche sont des robots dont
l’intelligence artificielle va analyser et classer les
contenus d’un site Web. Un algorithme de classement est
un programme composé de nombreux critères, dont le
poids diffère, qui permet de trier par pertinence les pages
Web pouvant répondre à la demande de l’internaute. Le
principal de ces critères est le Page Rank qui correspond
à un vote en faveur d’un site Web. L’intelligence
d’analyse des contenus et la complexité des algorithmes
de classement sont en perpétuelle évolution pour
proposer une recherche toujours plus adaptée aux besoins
des internautes.
►► L’arborescence optimale est différente pour
chaque site en fonction de ses contenus mais aussi de ses
objectifs. Mais le point commun entre des arborescences
efficaces est la capacité à fluidifier la navigation des
internautes sur le site afin de leur proposer une réponse
adaptée à leurs besoins tout en accomplissant un objectif
fixé par la marque. Les Landing Pages sont des points
d’entrée sur le site Web, elles doivent donc donner envie
aux visiteurs de poursuivre leur navigation et d’explorer
le reste des contenus.
►► Une expérience utilisateur réussie passe par
un accès simple et rapide aux contenus de la marque pour
que le visiteur ait envie de poursuivre son expérience
sur le site ou dans les autres univers de la marque.
►► Le header et le footer sont les éléments
incontournables pour présenter la pensée d’une marque et
fluidifier la navigation sur le site. L’utilisateur ne doit pas
s’adapter à la marque, c’est la marque qui doit être
accessible par tous les moyens possibles et sur toutes les
interfaces. Si elle ne l’est pas, ses concurrents le seront.
►► La visibilité d’un site Web dans les pages de
résultats des moteurs de recherche dépend en grande
partie de la qualité des liens qui fluidifieront la passation
du PR. Tous les liens ne se valent pas, mais tous les liens
doivent être fonctionnels pour garantir une qualité de
navigation. L’ancre d’un lien est l’ensemble des termes
sur lesquels le visiteur cliquera pour accéder à la page
bénéficiant du lien. La cohérence des liens correspond
donc à une savante réflexion entre ce que la marque veut
dire et ce que le visiteur veut entendre, selon ses besoins
et sa recherche.
Notes
1. https://www.youtube.com/watch?v=KyCYyoGusqs
2. https://support.google.com/webmasters/answer/35624?hl=en
3. Pour tous les titres indiqués entre guillemets et précédés d’un numéro de chapitre, se
reporter à la table des matières située à la fin de l’ouvrage.
4. https://fr.wikipedia.org/wiki/Algorithme
5. http://moz.com/blog/a-universe-of-graphs
6. https://www.youtube.com/watch?v=BS75vhGO-kk
7. http://moz.com/blog/the-evolution-of-search
8. https://moz.com/search-ranking-factors et
http://www.seobythesea.com/2014/03/incomplete-google-ranking-signals-1/ et
http://searchengineland.com/periodic-table-of-seo-2015-edition-222074 et
http://www.searchenginejournal.com/infographic-googles-200-ranking-factors/
9. http://moz.com/blog/google-vs-bing-correlation-analysis-of-ranking-elements
10. http://www.7-dragons.com/archives/penalites.php
11. http://www.google.com/patents/US6285999
12. Fishkin R. & Hogenhaven T., « All links are not created equal : 10 illustrations of
search engine’valuation of links », In inbound marketing and SEO, Wiley, 2013.
13. http://www.pagerank.fr/ ou http://www.prchecker.info/check_page_rank.php ou
http://www.ecreativeim.com/pagerank-link-juice-calculator.php
14. http://www.google.fr/intl/fr/toolbar/ie/index.html
15. http://www.mattcutts.com
16. Andrieu O., Réussir son référencement Web, Eyrolles, 2014.
17. http://www.youtube.com/watch?v=ALzSUeekQ2Q
18. http://www.google.com/insidesearch/howsearchworks/algorithms.html
19. https://www.youtube.com/watch?v=nmo3z8pHX1E
20. http://www.blogdumoderateur.com/chiffres-google/
21. https://moz.com/blog/day-after-mobilegeddon
22. http://searchenginewatch.com/sew/news/2405094/optimization-not-only-factor-in-
mobilegeddon-search-ranking
23. http://searchenginewatch.com/sew/news/2408661/bing-to-follow-in-mobilegeddons-
footsteps?
24. http://searchengineland.com/google-hummingbird-172816
25. http://www.journaldunet.com/solutions/seo-referencement/calendrier-google-penguin-
et-panda-update-la-chronologie.shtml
26. http://www.seobythesea.com/2014/03/googles-panda-granted-patent-on-ranking-
search-results/
27. https://www.youtube.com/watch?v=3mdMXdQ_VyU
28. http://moz.com/blog/whiteboard-friday-link-farming
29. http://www.abondance.com/actualites/20131014-13265-les-criteres-de-penguin-2-1-
etude.html
30. http://moz.com/blog/topics-people-over-keywords-rankings-whiteboard-friday
31. http://www.youtube.com/watch?v=dnyOduyZQl0
32. http://www.youtube.com/watch?v=o7sfUDr3w8I
33. https://www.youtube.com/watch?v=gyAzWlBNXZ4
34. http://www.searchenginejournal.com/google-to-drop-domain-names-in-favor-of-site-
names-in-mobile-serps/130931/
35. https://www.youtube.com/watch?v=mY9h3G8Lv4k
36. http://www.lukew.com/ff/entry.asp?1649
37. http://socialmediatoday.com/jacey-gulden/1251101/not-all-responsive-web-design-
created-equal
38. http://www.interfacesriches.fr/2013/03/13/le-responsive-web-design-nest-pas-une-
solution-cest-un-compromis/
39. http://searchengineland.com/when-responsive-web-design-is-bad-for-seo-149109
40. https://www.youtube.com/watch?v=HVQHbfpqXHM
41. http://searchenginewatch.com/sew/how-to/2405740/6-content-tips-for-adapting-to-the-
post-mobilegeddon-world
42. http://www.arfooo.com/referencement-la-fin-du-pr-sculpting-vive-le-pr-modeling-
n42.html
43. https://support.google.com/webmasters/answer/40132?hl=fr
44. http://www.youtube.com/watch?v=l6g5hoBYlf0 et
http://www.seroundtable.com/google-100-links-17727.html
45. http://www.webrankinfo.com/dossiers/strategies-de-liens/thematique-pages-backlinks
Chapitre 2
La stratégie éditoriale,
le content marketing
Executive summary
►► Les contenus, ce sont tous les éléments visibles sur
une page Web : textes, images, vidéos et sons.
Ces éléments doivent être uniques et cohérents avec
le message proposé sur la page.
►► La qualité d’un contenu, c’est sa capacité à
répondre aux besoins exprimés par les internautes, issus
du public cible, lors d’une recherche Web sur un moteur
de recherche ou lors de leur navigation sur d’autres sites
Web.
►► Un champ lexical, c’est l’ensemble des mots et
termes importants qui seront utilisés à des emplacements
clés, sur une page Web, pour que la thématique de la
page soit bien comprise.
La stratégie éditoriale comporte deux aspects, le premier est la création de
pages afin de répondre aux besoins des internautes et aux objectifs de
conversion. C’est lors de la construction de l’architecture d’un site que les
pages à créer sont définies.
Le deuxième aspect est la rédaction de ces contenus. Concentrons-nous
donc à présent sur le contenu du site.
Construire des contenus efficaces
Les contenus sont au cœur du site Web. Ce sont tous les éléments utilisés
pour présenter un message. Ils doivent véhiculer ce message tout en
respectant un format adapté au public cible et doivent rester compréhensibles
pour les bots de moteurs de recherche.
Les types de contenus
On distingue plusieurs types de contenus.
■ Les textes
On parle du « texte de la page » pour parler des paragraphes qui présentent le
message. Ils sont uniques et répondent à la thématique de la page. Les textes
récurrents sur toutes les pages ne sont donc pas inclus dans cette définition.
On comprend aussi comme « contenus textuels » tous les éléments issus du
Web 2.0. Les commentaires des utilisateurs, les avis, les réseaux sociaux sont
donc aussi des textes pour une page Web.
■ Les images
On distingue deux types d’images :
• Les images de contenu : ce sont les visuels qui illustrent le message. Elles
apparaissent dans le corps de la page. Nous approfondirons leur
optimisation par la suite (cf. chap. 2, « Les images » et chap. 3, « Les
vidéos et les fichiers audio »).
• Les images de navigation : ces images sont les images utilisées pour
naviguer sur le site. Ce sont les flèches, les boutons, les fonds et tous les
autres éléments qui rendent un site attractif et qui facilitent la navigation,
mais qui n’ont aucun rapport avec le message. Ces images sont à ignorer
lorsque l’on travaille la visibilité d’un site sur le Web. De plus, pour des
raisons liées à la rapidité d’affichage des pages (cf. chap. 3, « Le temps de
chargement des pages »), je conseille de les regrouper dans un document
appelé « Sprite ».
■ Les vidéos
Les fichiers vidéo peuvent être hébergés sur le site ou sur des sites tiers
comme YouTube ou encore Dailymotion.
Il est préférable de les héberger sur des sites tiers pour trois raisons :
• L’hébergement vidéo coûte cher : pour héberger des vidéos, il est
nécessaire de louer des serveurs adaptés, capables de supporter le poids des
vidéos ainsi que le trafic qu’elles génèrent.
• La suppression des risques : le fonctionnement du site Internet est alors
plus souple et le travail des équipes techniques en est facilité.
• L’avantage SEO offert par les sites tiers : la grande fréquentation de ces
sites leur donne un poids important dans les SERPs, et leur assure le
passage régulier des bots des moteurs de recherche.
■ Les fichiers audio
Les fichiers audio ne sont que peu utilisés car généralement jugés intrusifs
par les internautes. Par exemple, le lancement automatique d’une musique,
parfois d’une vidéo, est généralement considéré comme désagréable pour
l’internaute. Le Web n’est pas un environnement sonore sauf si le visiteur le
désire. C’est pourquoi il faut s’assurer de la valeur ajoutée qu’apportent les
effets sonores au site avant de les proposer sur une page, mais surtout donner
au visiteur la possibilité de contrôler le son.
Le saviez-vous ? ■ Le Web 2.0 est le Web des contenus
On parle de Web 2.0 pour identifier un Web devenu accessible à l’ensemble des
néophytes, non seulement pour consultation mais aussi pour la création de contenus.
À partir des années 2000, de nombreux outils apparaissent et permettent à tout un
chacun de créer des contenus Web sans avoir de connaissances techniques. Les
connaissances techniques correspondent à la compréhension du fonctionnement d’un
site Web, comme le HTML, le CSS ou des langages pour communiquer avec les
serveurs. L’arrivée des réseaux sociaux comme Facebook ou YouTube, mais aussi
d’outils de CMS (Content Management System) dont le plus connu est Wordpress,
permettent de mettre des contenus en ligne sans avoir recours à la technique. C’est le
Web des contenus, car le nombre de contenus créés augmente de manière
exponentielle.
Utiliser les contenus selon l’objectif des pages
■ Les contenus les plus impactants
Tous les contenus ne sont pas perçus de la même manière par les internautes.
Les études montrent que les contenus vidéo et images sont non seulement
mieux compris mais surtout plus partagés sur le Web. En effet, il est
important de comprendre que les internautes lisent très peu sur le Web, ils
scannent les pages. C’est une fois cette lecture rapide effectuée qu’ils
décideront de prendre le temps de lire la page, ou d’en chercher une autre qui
leur semble plus pertinente.
Une marque a donc très peu de temps pour « capter » un visiteur et le
convaincre de suivre le parcours de navigation. Les pages Web doivent donc
être construites selon des critères ergonomiques facilitant la lecture et la
compréhension de la thématique de la page, comme nous l’avons expliqué
plus haut. Mais le choix des contenus et leurs utilisations auront aussi un
impact fort sur la capacité de rétention d’une page. Il est donc important
d’utiliser tous les contenus sur un site Web et il est recommandé d’insérer
plusieurs types de contenus sur un page Web afin d’attirer l’œil du lecteur, de
lui montrer que la page répond à son besoin. Cela permet de retenir un
visiteur sur le site de la marque.
■ Comprendre les attentes sur la page
Attention pourtant à ne pas insérer des contenus uniquement parce que c’est
une « best practice ». L’intelligence humaine est capable d’identifier très
rapidement un contenu qui a de la valeur, qui va lui apprendre quelque chose,
d’une décoration complètement inutile.
Les contenus doivent donc être réfléchis lors de la création de la page Web
et être complémentaires les uns des autres, c’est ce que l’on appelle le content
marketing.
Pour cela, il faut encore une fois reprendre son public cible, ses persona
ainsi que les parcours de navigation afin de définir les éléments qui devront
être présents sur la page. Les contenus utilisés pour représenter ces éléments
feront partie de la décision finale de la construction d’une page. Le choix des
contenus devra, en plus, prendre en compte deux dimensions :
• Les appétences de la cible : selon le public visé, les internautes préféreront
utiliser certains contenus plutôt que d’autres. Il est aussi fort probable que
les attentes en termes de contenus évoluent selon l’implication de
l’internaute avec la marque. Un internaute peut, en début de parcours
client, vouloir trouver des avis clients ou des textes courts pour présenter
un produit puis, lorsqu’il est devenu régulier, avoir envie de trouver des
infographies ou des vidéos qui approfondissent sa connaissance du produit,
ou de la marque. Il est donc important d’adapter les contenus proposés aux
internautes en fonction de leur relation avec la marque, de leurs attentes
mais aussi de leur utilisation d’Internet.
• Les ressources de la marque : toutes les entreprises n’ont pas les moyens
de créer des contenus vidéo ou image (qui sont très consommateurs de
temps mais aussi d’argent). Il faut par la suite diffuser ces contenus et
continuer à les faire vivre, soit par des réutilisations soit en continuant à en
produire. Ces contenus s’intègrent à la stratégie d’image de la marque. Il
faut donc savoir évaluer les capacités de l’entreprise avant de choisir les
contenus utilisés, sur le site mais aussi pour les autres communications
Web de la marque.
Le choix et l’utilisation des contenus doivent vraiment faire partie
intégrante de la réflexion marketing digitale dans la mesure où ils sont les
arguments de vente de la marque, tant sur le fond que sur la forme.
Le duplicate content
On parle de duplicate content lorsque plusieurs contenus présents sur le Web
sont identiques ou fortement similaires. Afin d’éviter les pages doublons dans
les SERPs, les moteurs de recherche repèrent et suppriment ces contenus.
C’est pourquoi il est primordial de proposer aux moteurs de recherche un
contenu non seulement de qualité, mais surtout unique. Rappelons que pour
les moteurs de recherche, chaque URL correspond à une page différente. Un
contenu dupliqué peut donc se trouver sur différents sites ou sur un
même site.
Le duplicate content est un problème qui concerne autant les pages du site
entre elles que les pages du Web en général. Un contenu dupliqué est un texte
ou un paragraphe copié provenant d’une autre page sur Internet ou sur le site.
Le texte repris est constitué de pages intégralement copiées ou de bouts de
textes repris.
■ Pourquoi faut-il éviter le contenu dupliqué ?
Lorsqu’un moteur de recherche, lors de son crawl, trouve plusieurs pages
ayant un contenu identique ou similaire, il conservera la page qui lui semble
être l’originale, la page « canonique ».
Pour définir la page canonique, les moteurs de recherche observeront deux
facteurs :
• La date de publication si elle est indiquée ou, sinon, la date de découverte de
la page par les bots.
• La popularité de la page, celle qui aura le plus fort PR ainsi que
potentiellement un bon TR.
Les autres pages « doublons » seront mises de côté, elles ne seront pas
mises dans l’index. Il peut arriver qu’elles soient simplement rétrogradées
dans le classement.
Par contre, si un nom de domaine comporte trop de contenus dupliqués, les
moteurs de recherche baisseront le PR des pages et/ou le TR du site. Ils
pourront même aller jusqu’à blacklister le site.
En parallèle, une fois les pages identifiées comme dupliquées, les bots des
moteurs de recherche viendront visiter le site moins régulièrement (cf.
chap. 2, « Le duplicate content »).
■ Les types des contenus dupliqués
Il existe plusieurs types de contenus dupliqués. On parle ici de contenus au
sens large du terme, les textes, les médias, la structure HTML, etc.
Le true duplicate
Le true duplicate est une page qui est la copie exacte d’une autre page. Seule
l’URL est différente.
Le near duplicate
Le near duplicate est la copie d’une partie d’une page. On parle de near
duplicate si l’ordre des blocs HTML est différent ou si certaines parties de la
page ont été modifiées.
Le cross domain duplicate
Le cross domain duplicate est un contenu partagé par plusieurs sites Internet.
Il peut être « near » ou « true ». Il est aussi beaucoup plus dangereux pour un
site, car il est possible qu’une page d’un autre site Web soit indexée et bien
positionnée au détriment d’une page du site en question.
■ Le duplicate content au sein d’un site
Il est fréquent que les contenus au sein d’un site Web soient dupliqués.
Plusieurs URLs peuvent pointer vers une page ayant un contenu identique ou
similaire dans différents cas de figures :
• Les versions imprimables.
• Les URL dynamiques.
• La pagination (cf. chap. 1, « Les pages complexes pour les moteurs de
recherche »).
• Le search à l’intérieur du site (cf. chap. 1, « Les pages complexes pour les
moteurs de recherche »).
• Un nom de domaine avec et sans « www ».
•…
■ Le duplicate content sur le Web
De manière générale, tout contenu présent sur le Web doit être unique. Aucun
contenu provenant d’un autre site ne peut donc être copié sur un autre site. Il
est possible de faire référence à un texte par un lien ou par un commentaire.
Google propose de nombreuses actions à mettre en place pour éviter le
contenu dupliqué1, tout comme les autres moteurs de recherche. Ces
recommandations permettent d’éviter autant que possible de créer un contenu
dupliqué qui viendrait surcharger les index de pages à faible valeur ajoutée.
La qualité générale du Web en sera améliorée ainsi que la réputation de la
marque.
Définir les bons termes à travailler
Les moteurs de recherche ne pouvant pas avoir accès au contenu image,
vidéo et audio, travailler le contenu éditorial du site signifie travailler les
textes. C’est pourquoi il est avant tout primordial de dédier une partie de la
réflexion au contenu textuel du site, dans la mesure où il s’agit de la seule
information réellement compréhensible pour les moteurs de recherche.
Les Landing Pages et leurs thématiques permettent de connaître le sujet de
chaque page. Il est temps à présent de rédiger les contenus textuels de ces
pages.
Nous avons déjà fait remarquer que les mots-clés perdent de l’importance
dans les stratégies SEO. Il est aujourd’hui nécessaire de travailler des
thématiques pour proposer un contenu adapté à l’émergence du Web
sémantique. Pour ce faire, nous devrons tout de même travailler les mots-clés
pour ces univers thématiques, mais différemment. Il est, en effet,
incontournable de connaître les meilleurs mots-clés à travailler au sein d’un
univers. Les techniques traditionnelles de création de listes de mots-clés
continuent donc à être utilisées. La manière d’utiliser ces listes a, par contre,
évolué. Les mots-clés seront regroupés par thématique et plusieurs de ces
mots seront insérés dans la page lors de la rédaction.
Créer une liste de mots-clés
L’objectif d’une liste de mots-clés est de centraliser les mots, les expressions
ou les tournures, que nous appellerons « termes clés », qui seront travaillés
sur le site. Cette liste facilite la rédaction des pages et permet de pouvoir
mener des analyses par la suite. Elle reprend donc toutes les requêtes des
univers dans lesquels la marque veut apparaître.
Figure 2.1 – Liste de termes-clés à travailler
La nature des termes travaillés sur le site a un impact sur la stratégie car ils
ne ciblent pas tous le même public. On divise généralement les termes clés en
trois types :
■ Les mots-clés génériques
Ce sont les mots-clés composés de peu de termes (un ou deux mots) très
recherchés sur le Web. Il faut être prudent lors de la sélection de mots-clés
génériques, car ils peuvent ne pas correspondre au public cible.
Exemple
Par exemple, pour un garage, « changer un pneu » peut paraître
pertinent, mais c’est sans compter tous les individus qui cherchent à
savoir comment changer un pneu ; ils veulent des tutoriels et non un
service professionnel. Il en va de même pour le terme « spa » qui peut
être utilisé par un internaute lorsqu’il recherche un centre de bien-être ou
bien des informations sur la société protectrice des animaux SPA.
Ces termes participent plus à une campagne de notoriété qu’à une
acquisition de trafic pour la marque.
■ Les mots-clés moyenne traîne ou mots-clés middle tail
Ces mots-clés sont plus précis et ont de forts potentiels de trafic. Ce sont
généralement des termes génériques auxquels on a apporté une précision,
comme par exemple « restaurant chinois à Strasbourg » ou « recette de
muffin ».
Ils correspondent généralement aux pages catégories ou autres pages de
thématiques et permettent une acquisition de trafic de qualité rapide.
■ Les mots-clés longue traîne ou mots-clés long tail
Ces mots-clés sont très précis car ils sont composés de plusieurs mots, mais
ils ont des volumes de recherches faibles. Il est particulièrement important de
se positionner sur ces termes car le trafic qui en résulte est très qualifié. Si un
internaute inscrit cette requête, il recherche certains types de services, la
marque a donc beaucoup plus de probabilité de convertir. Ne pas l’y
positionner reviendrait à rater une vente « facile ».
Il est difficile de définir le nombre de mots-clés dans les requêtes middle et
long tail car cela dépendra du secteur. En fonction des secteurs d’activité, un
terme longue traîne peut commencer à trois ou à cinq mots par requêtes.
Comment trouver les bons mots-clés ?
Entrons à présent dans le détail de l’élaboration de cette liste.
La première étape requiert une réflexion approfondie de la part de la
marque ainsi qu’une bonne compréhension du secteur d’activité dans lequel
le site évolue. En effet, il est important de bien comprendre la ou les
thématiques du site et de ses produits ou services afin de pouvoir en faire une
liste exhaustive.
La première étape consiste à lister tous les termes sur lesquels le site doit
apparaître lorsqu’un internaute le recherche dans un moteur de recherche.
Tous les univers lexicaux présents sur le site Web doivent se retrouver dans
cette liste. Si le site comporte de nombreux univers thématiques, il est
possible d’élaborer des listes par thématique.
FICHE
PRATIQUE
COMMENT INITIER LA RÉFLEXION
SUR LES TERMES CLÉS ?
La première étape est la plus complexe à réaliser car, il faut sortir de
son rôle de marketeur et se mettre à la place du visiteur, ou plutôt de
tous les visiteurs. Voici donc quelques astuces pour faire une liste
préliminaire de mots-clés à utiliser sur vos pages Web :
1. Lister les termes que vous inscririez dans un moteur de recherche lors
d’une recherche d’un produit de la marque. Attention : vous ne devez
pas nommer la marque dans votre recherche, vous devez être un
internaute qui cherche un produit ou un service mais qui ne sait pas
quelle entreprise pourrait le lui fournir.
2. Demander à vos collègues, famille, amis de faire de même en vous
donnant 5 à 20 termes de recherche qu’ils utiliseraient. Cela vous
permettra d’identifier comment d’autres personnes procèdent pour
trouver des informations sur votre produit ou votre service. Le mieux
serait de pouvoir demander à des personnes issues de votre public
cible de réaliser cette liste.
Une autre manière d’aborder cette liste est d’utiliser des outils qui
scannent vos pages Web et soulignent les termes qui sont le plus
souvent utilisés sur le site. Cette analyse est d’une grande aide, car
elle permet de faire ressortir l’existant et de comprendre l’approche
qu’ont pu avoir vos prédécesseurs. Mais elle est aussi risquée, car
elle vous enferme dans un schéma de pensée. Je recommande donc
de la faire dans un deuxième temps.
■ Keyword Suggest
Le Keyword Suggest est un outil proposé par Google. Lorsqu’une recherche
est faite dans la barre de recherche des moteurs de recherche, Google propose
des recherches plus complètes. Ces propositions correspondent à ce qui est le
plus demandé par les internautes et donnent un indice sur de qu’inscrivent les
internautes lors de leurs recherches.
Figure 2.2 – L’outil de suggestion des mots-clés de Google
Les requêtes qui semblent pertinentes seront ajoutées à la liste.
■ Recherches Google associées
Les moteurs de recherche proposent, en fin de page de recherche ou dans la
sidebar, d’autres requêtes qu’ils estiment être similaires à la recherche ayant
été faite ou qui ont pour objectif de l’approfondir.
Figure 2.3 – L’outil de recherche associée de Google
On sélectionne les requêtes appropriées à l’univers et on les ajoute à la
liste.
■ Google Trends
Google met à disposition des marketeurs digitals un outil de prévision des
tendances sur des mots-clés2. Cet outil permet de prévoir les recherches des
internautes mais aussi de comparer l’intérêt porté à certains mots-clés ainsi
qu’une estimation de l’évolution du nombre de recherches.
■ Google Keyword Tools
Google fournit aussi un outil3 qui permet de connaître les volumes de
recherche ainsi que la concurrence sur des requêtes. Les volumes de
recherche correspondent à une moyenne des recherches par mois sur les
12 mois précédents. Et la concurrence donne un taux de présence, autrement
dit un taux de résultats pour une requête donnée.
En insérant les termes de la liste établie, l’outil met à disposition ces
informations et propose d’autres termes en lien avec la thématique des
expressions de la liste.
Grâce aux outils présentés ci-dessus, nous avons :
– une liste de mots-clés exhaustive et pertinente pour notre entreprise ;
– les volumes et la concurrence pour chacun de ces mots-clés.
Ce sont ces informations qui permettent de choisir quels mots-clés seront
travaillés sur le site et sur quelles pages.
Choisir les bons mots-clés
Une fois la liste exhaustive (ou presque) réalisée, il est nécessaire de
l’élaguer.
Avant toute chose, les termes de la liste doivent être uniques, il faut donc
la dédupliquer, autrement dit supprimer les doublons de la liste élaborée. Ceci
permettra d’éviter les erreurs d’analyse.
Dans un premier temps, il faut associer les mots-clés à des Landing Pages
spécifiques (Home Page, page catégorie, page produit). Chaque terme sera
associé à une page uniquement. Si un terme est difficile à associer, c’est qu’il
n’y a pas la page qui correspond ou que deux pages se cannibalisent.
Puis il faut, pour chaque page, organiser les termes afin de sélectionner les
termes à travailler en priorité.
1. Priorité 1 : les mots-clés à travailler absolument. Ils devront être intégrés
aux contenus des pages.
2. Priorité 2 : les mots-clés trop difficiles à travailler pour le moment. Ils
pourront être utilisés dans la stratégie de linking.
3. Priorité 3 : les mots-clés qui ne sont pas vraiment intéressants, mais qui
peuvent à terme apporter du trafic. On peut les travailler dans la stratégie
de linking ou observer les évolutions de recherche, afin de définir s’ils
doivent être travaillés par la suite.
4. Priorité 4 : les mots-clés qui ont un volume de recherche égal à 0, sont
hors sujet ou bien trop génériques. Ces mots-clés devront être supprimés de
la liste.
Ces priorités seront définies en se basant sur plusieurs critères :
– Le potentiel de recherche (cf. chap. 2, « Choisir les bons mots-clés ») des
termes déjà travaillés sur le site et dont les positions sont connues.
– L’adéquation entre un terme et la page sur laquelle il est positionné.
– La qualité et le travail déjà fait sur le site.
– Les volumes de recherche d’un terme.
– La concurrence des mots-clés.
C’est pourquoi, pour définir une priorité pour chaque terme de recherche, il
est important de comprendre à quoi correspondent chaque mot-clé et les
actions requises pour positionner le site sur ce terme :
• Les expressions à fort trafic mais très concurrentielles : le mot-clé est
tellement porteur que des dizaines de concurrents très performants
occupent la première page de résultats. L’effort pour atteindre cette page
est grand, car il requiert une grande notoriété de la marque et une forte
présence dans les SERPs.
• Les expressions pertinentes et peu concurrentielles, mais à faible trafic :
c’est un mot-clé « de niche » sur lequel on peut rapidement occuper une
position Google honorable, mais dont le trafic est plafonné par un faible
volume. L’idée est de multiplier ces niches ou mots-clés très spécifiques et
de travailler sur ce que l’on appelle la « longue traîne ».
• Les expressions moyennement concurrentielles et à fort trafic, mais peu
pertinentes : ce sont des termes qui peuvent apporter de nombreux
visiteurs, mais qui débouchent rarement sur des conversions, soit parce
qu’ils visent une cible qui n’est pas la clientèle de la marque, soit parce que
l’angle d’attaque ne déclenche pas l’achat. Ces mots-clés auront pour
avantage d’augmenter la notoriété Web.
• Les expressions moyennement concurrentielles et à trafic moyen : grâce
à ces termes, il est possible de créer une « base » de fréquentation stable.
En cumulant plusieurs de ces mots-clés, on crée des visites régulières et de
qualité.
Le choix des termes est le résultat d’un compromis entre les objectifs
idéalisés pour la marque, la réalité du travail déjà engagé et les ressources à
disposition pour mettre en place les actions nécessaires. La stratégie de
positionnement de la marque doit donc être réalisable et régulièrement revue
pour prendre en compte la notoriété grandissante du site sur le Web.
Heureusement, tout travail réalisé sur des termes clés améliore la notoriété
globale du site sur le Web. Ainsi, en travaillant des termes long tail ou des
expressions niches, la légitimité globale du site sur ces thématiques se
trouvera renforcée et il sera plus facile de travailler d’autres termes.
Quand et comment utiliser cette liste ?
À tout moment ! C’est grâce à cette liste que se construisent la stratégie
éditoriale et le linking (cf. chap. 5, « Des campagnes de liens naturels ») du
site.
Cette liste pourra être utilisée tout au long des améliorations éditoriales des
pages Web (cf. chap. 2, « Construire un univers lexical sur chaque page »),
mais aussi pour les campagnes de liens (cf. chap. 5, « Des campagnes de liens
naturels »). Elle ne sera pas forcément utilisée dans son intégralité en
permanence, car certains aspects ou certaines thématiques du site devront être
travaillés en profondeur.
Mais cette liste sera aussi utilisée pour suivre le positionnement du site (cf.
chap. 4, « Analyses des positions dans les SERPs ») dans les SERPs. En
effet, grâce à des relevés de positions ou certains outils, il est possible de
suivre les évolutions de l’intégralité de cette liste dans les moteurs de
recherche et d’avoir ainsi un aperçu le plus global possible du positionnement
des annonces naturelles et donc de la notoriété Web sur les moteurs de
recherche.
Construire un univers lexical
sur chaque page
Une fois la liste de mots-clés créée, les termes qui la composent seront
travaillés sur les Landing Pages. Travailler les termes de la liste de mots-clés
signifie rédiger le contenu des pages Web en intégrant les termes de
priorité 1.
Les univers lexicaux des pages d’atterrissage du site doivent être travaillés
en priorité. En proposant des contenus de qualité sur ces pages d’entrée, qui
sont la première interaction des internautes avec la marque, on donnera envie
de partager les contenus sur d’autres canaux Web. Mais les contenus de
qualité sur les pages qui doivent être référencées dans les moteurs de
recherche permettent aussi une meilleure compréhension du message par les
moteurs et par conséquent un meilleur positionnement du site dans les
SERPs.
C’est pourquoi nous proposons quelques bonnes pratiques de rédaction
pour le Web qui permettront de booster l’image de la marque auprès des
internautes et de renforcer sa notoriété auprès des moteurs de recherche.
Une thématique par page
Pendant longtemps, le SEO a recommandé d’insérer le mot-clé principal à
travailler aussi souvent que possible dans les textes de la page. Cela s’appelle
le keyword stuffing ou « farcage » de mots-clés. Cette technique est à présent
obsolète, mais elle reste très présente dans les mémoires. On entend donc
encore souvent dire que le SEO et un texte bien écrit sont incompatibles.
Or les moteurs de recherche améliorent quotidiennement leur
compréhension des textes, élargissent leur vocabulaire et les similitudes de
sens entre les mots. Ils sont donc tout à fait aptes à comprendre un champ
lexical, sans avoir besoin que l’on insiste sur un mot en particulier4. Il est
donc plus logique et plus naturel de travailler un ensemble de termes et de
synonymes faisant référence à une même thématique. On travaillera donc sur
une page un mot-clé principal que l’on insérera, le plus souvent, au début du
texte, puis on conservera l’univers lexical en utilisant des synonymes ou des
termes recherchés en rapport avec la thématique.
Figure 2.4 – Organiser les pages par thématiques
Il n’est donc pas question ici de surcharger la page de mots-clés importants
pour Google (cf. chap. 5, « La sur-optimisation et la désoptimisation »), mais
de bien définir l’univers sémantique de la page. En effet, un univers lexical,
s’il est bien compris par les bots des moteurs de recherche, permet à la page
d’être correctement catégorisée et de ressortir sur des requêtes où elle est
pertinente.
Un contenu explicite
Les moteurs de recherche ne comprennent pas encore les périphrases ou les
métaphores. Par conséquent, le contenu doit être explicite et utiliser le terme
clé de la page ainsi que ses synonymes en fonction de la pertinence attribuée
dans la liste de mots-clés. Une bonne pratique est de définir 2 à 3 mots-clés
prioritaires à fort potentiel (un de ceux-là, au minimum, devra être sur la
page) et une dizaine de mots-clés avec un bon potentiel qui pourront être
utilisés par le rédacteur de manière optionnelle, en rapport avec la thématique
de la page.
Un style adapté
L’article doit aussi rester lisible pour l’internaute et doit correspondre à
l’image de la marque. C’est cela qui fera la différence entre un bon site et un
site moyen pour l’internaute. Il faut donc trouver un ton adapté au message et
au public. Selon que le public est jeune, citadin ou peu adepte du Web, la
marque devra s’adresser à lui de manière différente. L’objectif est de fidéliser
les visiteurs afin de les faire « convertir » en créant une relation sur le long
terme. De plus, rappelons que les données de trafic influencent le
référencement.
Un contenu actualisé
Le contenu doit être d’actualité ou actualisé et régulièrement renouvelé5. Ceci
est surtout vrai pour les sites aux contenus informatifs, mais les sites plus
institutionnels doivent aussi prendre en compte le concept de « fraîcheur ».
Afin de fidéliser les visiteurs et de faire revenir les bots sur le site, les
contenus doivent évoluer pour rendre le site vivant. Il faut donc éviter un
grand nombre d’ajouts de contenu sur un jour, puis plus rien pendant trois
mois. Les mises en ligne doivent être étalées et rester pertinentes avec la
stratégie d’acquisition de trafic, mais aussi de vente. Cette technique
permettra aussi de fidéliser les visiteurs qui reviendront régulièrement voir les
nouveautés, tout comme les bots.
Une grammaire et une orthographe parfaites
Ce ne sont pas encore des facteurs de ranking en soit, mais ils ont néanmoins
un impact dessus car une page avec une mauvaise orthographe ou des erreurs
grammaticales est de moindre qualité. Il est encore difficile pour les moteurs
de recherche d’automatiser l’évaluation de la justesse grammaticale d’un
contenu dans toutes les langues, mais cela ne saurait tarder6.
De plus, un site mal écrit est souvent perçu par les internautes comme un
site manquant de professionnalisme, ce qui ne favorise pas la réputation off et
on-line de la marque.
Un texte en HTML
Le texte doit toujours être en HTML, pas de Javacript, Java, d’image ou
autre, le contenu doit être facilement accessible et compréhensible aux bots
d’indexation, aux bots d’accessibilité ainsi qu’aux internautes ayant désactivé
des fonctions de leur navigateur.
Un contenu unique
Le contenu doit être unique, afin de ne pas avoir de contenus dupliqués (cf.
chap. 2, « Le duplicate content »).
Les contenus doivent avoir une valeur ajoutée pour l’internaute, si un
contenu reprend des informations sans rien ajouter, c’est que la page n’a pas
grand intérêt pour l’internaute, elle sera donc difficile à positionner.
Voici quelques recommandations à suivre pour éviter le duplicate content :
• Supprimer les pages faisant doublon et rediriger en 301 : les contenus
dupliqués devront être identifiés et supprimés. Une redirection 301
permettra au PR d’être transféré vers la page canonique, autrement dit la
page principale que l’on désire positionner dans les SERPs.
• Utiliser l’attribut rel = “canonical” : s’il est impossible d’éviter des pages
similaires en termes de contenus, les moteurs de recherche doivent en être
informés à l’aide d’une balise. Cette balise informe les robots que la page
visitée est une version dupliquée d’une autre page. C’est pourquoi on y
insère un lien vers la page canonique afin d’éviter le duplicate content.
• Utiliser les métas pour les robots : les directives noindex et nofollow
permettent de dire aux robots de ne pas indexer une page. Attention : on ne
peut pas insérer la balise no index et la balise canonical7 dans le code, il
faut choisir.
• Utiliser le robots.txt : le fichier robots.txt (cf. chap. 3, « Le robots.txt »)
indique que certaines pages ne doivent pas être indexées. L’insertion d’une
ligne de code permet de privilégier la page originale. Il est recommandé de
combiner cette action avec l’utilisation de la balise canonical, car les
moteurs de recherche peuvent ne pas prendre en compte les indications
données dans le robots.txt.
• Les outils des Webmaster Tools : Bing et Google mettent à disposition des
outils pour supprimer des URL de leurs index ou bloquer l’indexation de
pages en utilisant certains paramètres8. Ces outils sont très utiles mais ne
dispensent pas d’utiliser les actions citées ci-dessus pour informer les
autres moteurs de recherche.
• Diversifier les pages au maximum : afin de ne jamais reprendre un
contenu existant sur une autre page, la structure de site doit être claire et les
pages d’entrée sur le site identifiées.
• Travailler tous les aspects des pages en pensant au duplicate content :
les contenus dupliqués ne sont pas uniquement les textes, mais tout ce que
les moteurs de recherche peuvent comprendre, à l’heure actuelle comme
dans à l’avenir. Les éléments invisibles comme les métas (cf. chap. 3, « Un
code facilement compréhensible ») ainsi que d’autres éléments, comme les
visuels doivent eux aussi être uniques.
Un contenu varié
Le contenu éditorial ne correspond pas seulement aux textes présents sur le
site mais aussi aux images, aux vidéos ou à l’audio (cf. chap. 3, « Les vidéos
et les fichiers audio »). Un bon contenu est un contenu qui donne envie à
l’internaute de le partager, d’en faire profiter ses amis et ses connaissances
(cf. chap. 6, « Le SMO, une réputation contrôlée »). Il apporte quelque chose
en plus à celui qui le lit, le regarde ou l’entend. Il attirera donc du trafic
« naturellement ».
Des « visuels » doivent dynamiser les pages. De plus, les espaces blancs
permettent d’aérer la page et d’en faciliter la lecture.
Un emplacement optimal des termes clés dans la page
L’endroit où sont placés les mots-clés a son importance en SEO. Il est
préférable de mettre un mot-clé dans la partie la plus importante de la page, le
texte principal, plutôt que dans le header, le footer ou une side bar.
Il est recommandé de mettre les mots-clés prioritaires (cf. chap. 2,
« Définir les bons termes à travailler ») au début du texte ou dans des balises
qui les mettent en valeur (cf. chap. 3, « Les balises de notoriété présentes
dans le <body> »). Toutefois, nous devons nuancer cette affirmation, qui
même si elle reste vraie, ne doit pas devenir une obsession. L’important est
de rester « naturel », c’est-à-dire que le texte soit agréable à lire pour
l’internaute. Le contenu s’adresse avant tout à l’internaute et non aux moteurs
de recherche, car les critères de l’algorithme Google (et des autres moteurs de
recherche) prennent en compte la satisfaction de l’internaute. N’oublions pas
que l’évolution des algorithmes des moteurs de recherche montre les efforts
fournis pour que leurs bots aient une expérience similaire à un utilisateur
lambda sur le site.
Lors de la rédaction, il peut arriver de ressentir le besoin de retravailler
l’architecture du site. Il ne faut pas hésiter à le faire, car les étapes de création
de page, l’élaboration de listes de termes et la rédaction des Landing Pages
sont étroitement liées. Nous avons proposé un ordre optimal de mise en place
de la stratégie éditoriale, mais il semble évident que cet ordre doit s’adapter
aux besoins identifiés lors de la mise en place de la stratégie.
Le saviez-vous ? ■ Le Web sémantique est déjà une réalité
Le Web sémantique est « une toile de données qui peuvent être traitées directement et
indirectement par des machines pour aider leurs utilisateurs à créer de nouvelles
connaissances », comme l’explique Tim Berners Lee, son fondateur (et fondateur du
Web).
Le Web sémantique est donc l’utilisation de données (soit tous les composants de la
page Web, comme les mots, les images, etc.) qui sont identifiées et structurées pour
que l’intelligence artificielle comprenne le sujet de la page. La compréhension de la
page va donc plus loin que son simple sujet et permet d’apprécier la ligne éditoriale,
autrement dit la relation entre les points abordés ou encore l’avis de l’auteur. C’est
donc une compréhension de la page qui se rapproche du fonctionnement de l’esprit
humain. On peut donc imaginer que les moteurs de recherche de demain seront
capables de comprendre ce que nous voulons vraiment chercher et nous fournir une
réponse parfaitement adaptée.
L’essentiel
►► Le contenu proposé aux moteurs de recherche
ainsi qu’aux visiteurs est le nerf de la guerre. La liste de
mots-clés doit donc être exhaustive et pertinente pour le
site et en accord avec le champ sémantique défini sur
chaque page. Elle doit aussi s’adapter aux évolutions des
comportements des internautes afin d’insérer les termes
de la liste qui répondent le mieux aux besoins des
internautes. C’est ainsi que la page se positionnera sur les
bonnes requêtes dans les résultats de recherches. Il faut
orienter la stratégie de contenu vers l’utilisateur, mais elle
doit rester facilement accessible aux robots.
►► Les contenus doivent être uniques au sein d’un
même site Web mais aussi entre les sites Web existants
sur la toile, reprendre un contenu existant n’apporte pas
une réponse adaptée à la recherche d’un internaute.
►► Pour proposer des contenus de qualité adaptés
aux besoins des internautes, il est important de définir un
champ lexical sur chaque page, ou du moins pour
les Landing Pages. Ces champs lexicaux doivent
reprendre les termes des internautes pour que ces derniers
comprennent rapidement que la marque répond
à ses besoins mais aussi pour apparaître en meilleure
position dans les pages de résultats des moteurs
de recherche.
►► Les termes utilisés sur les pages Web peuvent être
génériques et reprendre la thématique de la page ou bien
plus spécifique pour approfondir la réponse fournie
à l’internaute, on parle alors de moyenne ou longue
traîne.
Notes
1. https://support.google.com/webmasters/answer/66359?hl=fr
2. http://www.google.com/trends/
3. https://adwords.google.com/o/KeywordTool
4. http://moz.com/blog/topics-people-over-keywords-rankings-whiteboard-friday
5. http://www.youtube.com/watch?v=o4hH4ZQ_19k
6. http://www.youtube.com/watch?v=qoFf6Kn4K98
7. http://www.seroundtable.com/noindex-canonical-google-18274.html
8. Fishkin R. & Hogenhaven T., « Duplicate content in a post-panda world », In inbound
marketing and SEO, Wiley, 2013.
Chapitre 3
Le SEO technique
Executive summary
►► L’URL, c’est l’adresse du site Web. Elle se
compose entre autre du nom de domaine, dont le choix
est vital en termes d’image de marque et a un impact
direct sur la visibilité du site sur le Web dans les moteurs
de recherche.
►► Le code d’un site, c’est la manière dont sont
organisés ses composants. On parle ici de tous les
langages front-end ou back-end, mais aussi d’autres
fichiers qui impactent la qualité perçue du site et par
conséquent son emplacement sur les pages de résultats
des moteurs de recherche. La structure du code est aussi
un facteur non négligeable, quoique généralement
inconscient, de la récurrence des visites sur le site.
►► De nombreux éléments et outils proposés par
les moteurs de recherche leaders permettent également
d’améliorer la compréhension des contenus. La mise en
place de ces éléments, devenue incontournable pour celui
qui travaille son SEO, est donc cruciale pour améliorer
la visibilité du site sur la toile mais aussi l’expérience
utilisateur lors de sa navigation sur les pages Web.
Nous allons voir à présent les optimisations techniques à mettre en place sur
le site, pour permettre aux moteurs de recherche de bien comprendre et
répertorier un site, autrement dit de le crawler et l’indexer. Ces optimisations
ne concernent pas ou très peu les internautes, mais elles ne doivent en aucun
cas impacter négativement l’utilisation du site pour les visiteurs.
Un nom de domaine qui représente
la marque
Le nom de domaine est l’adresse à laquelle le site sera en permanence
accessible sur le Web. Le nom de domaine est l’adresse générique, celle qui
mène à la porte d’entrée du site, autrement dit la Home Page.
Choisir le nom de domaine
■ Les termes du nom de domaine
Historiquement, les acteurs du SEO ont pris pour habitude de recommander
d’utiliser comme nom de domaine des termes sur lesquels on désire voir le
site apparaître dans les SERPs, on appelle cela des EMDs (Exact Match
Domain).
Exemple
Par exemple, lorsque l’on crée un site de vente de poisson à domicile, le
nom de domaine acheté serait vente-poisson-a-domicile.com.
Il est pourtant important de préciser que le nom de domaine est de moins
en moins pris en compte dans l’algorithme Google5, et ce depuis la mise en
place en 2012 du filtre EMD. De plus, selon Moz, la corrélation entre le
classement d’un site et son nom de domaine est en perte de vitesse constante
depuis 20106. Insérer des termes sur lesquels le site doit apparaître dans le
nom de domaine n’est donc plus aussi important que cela ne l’a été.
L’utilisation de termes clés dans le nom de domaine comporte encore
quelques avantages :
• Positionner la page plus facilement sur certaines requêtes.
• Bénéficier de plus de notoriété lorsqu’un acteur du Web fait un lien vers le
site.
• Avoir des ancres efficaces surtout si l’ancre est faite sur le nom de domaine.
• Bénéficier de la co-occurrence et la co-citation (cf. chap. 5, « Vers des
relations publiques digitales ? »).
Cependant, il est recommandé de choisir un nom de domaine selon des
critères plus marketing que dans un but d’optimisation de positionnement
dans les moteurs de recherche.
En effet, pour une entreprise comme pour un individu, l’objectif est de
construire une présence durable sur le Web. Promouvoir le nom de la marque
est donc plus important qu’une requête sur laquelle on désire se positionner.
C’est la force de la marque qui viendra renforcer le référencement grâce à
une clientèle durable et une notoriété forte. C’est pourquoi nous
recommandons d’utiliser le nom de la marque comme nom de domaine. Il est
en effet possible d’intégrer les mots-clés importants dans les sous-domaines
et les URLs, afin d’expliciter la thématique des pages.
■ Les extensions possibles
Chaque extension de nom de domaine est considérée comme un nom de
domaine différent.
Étant donné que chaque extension a une signification concernant le type
d’activité du site, choisir une extension pour le nom de domaine est
intimement lié à la stratégie du projet. Il faut pour cela prendre en compte le
public cible ou encore la zone sur laquelle s’étend l’activité de la marque.
Un projet à l’international ou projet localisé
Si un projet a pour objectif, même à long terme, l’international, il est d’usage
d’acheter le maximum d’extensions possibles selon le budget. Faire ainsi a
plusieurs avantages :
• Réserver les extensions afin de pouvoir les utiliser rapidement et sans
contraintes.
• Acquérir de l’ancienneté pour ces noms de domaine.
Si un projet n’impacte qu’un pays ou une région, cette information doit
être visible grâce à l’extension.
Les moteurs de recherche proposent une recherche toujours plus
personnalisée à l’internaute. Si une recherche est effectuée sur un moteur de
recherche local, du type « google.fr », les sites dont les noms de domaine
finissent en «.fr » seront alors, dans une certaine mesure, privilégiés. Il en va
de même si l’internaute est identifié sur un lieu particulier.
La prééminence du «.com »
On entend souvent dire qu’il est préférable d’acheter un «.com » pour donner
une dimension internationale à son projet, même si celui-ci ne passera a
priori jamais les frontières du pays ou que le projet n’est pas commercial.
C’est, selon moi, une mauvaise utilisation des extensions.
Comme nous l’avons expliqué dans la première partie de ce chapitre, une
extension a une signification : elle relie un site Web à un lieu ou à un type
d’organisme. Pendant longtemps, les internautes ont été mal informés et ont
entendu qu’un site Internet avait un «.com ». Or les internautes sont de plus
en plus habitués au fonctionnement du Web et par conséquent au
fonctionnement de l’URL. Il est donc grand temps de réutiliser les extensions
telles qu’elles ont été pensées. Le nom de domaine choisi doit être cohérent
avec la stratégie de la marque.
■ Le nom de domaine, image de la marque
Une fois les termes pour le nom de domaine choisis, il s’agit à présent de
bien rédiger ce dernier. Car toute la communication se fera autour de ce nom
de domaine. Il doit donc être :
– unique ;
– compréhensible ;
– facile à retenir.
Il est recommandé de créer des URLs courtes, lisibles et faciles à retenir.
Pour ma part, je pense qu’un nom facile à retenir n’a pas besoin d’être court.
Il doit avant tout être lisible et être cohérent pour l’internaute.
Si le nom de domaine comporte plusieurs mots et si le budget le permet, on
peut acheter les variantes avec et sans tiret, ainsi que plusieurs extensions. Il
suffira de travailler les redirections pour rediriger le trafic vers le site
principal. Cette pratique permet :
– de capter tout le trafic de ceux qui recherchent la marque ;
– de ne pas donner à un concurrent mal intentionné la possibilité de voler du
trafic.
Les recommandations données pour la rédaction d’URLs (cf. chap. 3,
« Les bonnes pratiques de la rédaction d’URLs ») apportent d’autres éléments
pour choisir le nom de domaine à acheter. Matt Cutt donne aussi des
recommandations utiles sur le choix du nom de domaine7 pour un site.
Le nom de domaine dans le référencement
Plusieurs aspects du nom de domaine sont utilisés dans les algorithmes de
référencement.
■ Ancienneté du nom de domaine
Un nom de domaine installé bénéficiera d’un plus grand historique et sera par
conséquent vu comme stable par les moteurs de recherche. Attention
toutefois lors d’un rachat de nom de domaine existant : si le site a fait l’objet
de sanctions de la part des moteurs de recherche, celles-ci peuvent continuer
d’impacter le nouveau site.
■ Unicité du nom de domaine
Un seul nom de domaine doit être utilisé pour communiquer sur une marque
et acquérir du trafic provenant du Web ou d’autres supports.
Si la marque possède plusieurs noms de domaine, il faut définir le nom
principal et rediriger tous les autres noms de domaine vers celui-ci grâce à
une 301 (cf. chap. 1, « Les codes de réponse HTTP »). Mettre un site sur tous
les noms de domaine achetés revient à l’exposer aux sanctions appliquées au
duplicate content (cf. chap. 2, « Le duplicate content »).
■ Hébergement
L’endroit et la manière dont un site est hébergé n’ont qu’un impact
secondaire sur le référencement. Pourtant, les données de trafic sont
maintenant prises en compte par les principaux moteurs de recherche pour
définir l’indexation et la position d’une page dans les SERPs.
C’est pourquoi nous retiendrons deux aspects lors du choix de l’hébergeur
Web :
1. Avoir un serveur dédié : le site doit être unique sur le serveur Web. Les
serveurs mutualisés ont le mérite de n’être pas chers ; cependant, ils
présentent plus d’inconvénients que d’avantages. En effet, pour les moteurs
de recherche, plusieurs sites sur un même serveur signifient que ces sites
appartiennent à la même personne. Si un site est pénalisé par un moteur de
recherche, il y aura donc de fortes chances que les moteurs suivent de près
les actions des sites se trouvant sur le même serveur, voire qu’ils les
pénalisent. De plus, si un site fait tomber le serveur pour une raison ou
pour une autre, les autres sites seront impactés et les internautes n’auront
plus accès à l’ensemble des contenus.
2. Avoir un serveur localisé sur la zone principale : les moteurs de
recherche prennent en compte le lieu du serveur pour connaître la
provenance d’un site8. Il est donc préférable d’avoir un hébergement en
France, si le public cible du site se trouve en France.
■ Les sous-domaines
Les sous-domaines étaient auparavant perçus par les moteurs de recherche
comme des sites indépendants les uns des autres. Aujourd’hui, les moteurs de
recherche les affilient au site principal. De plus, les moteurs de recherche ne
pratiquent plus le clustering9. C’est une méthode qui avait pour objectif de
limiter l’apparition de pages appartenant au même site dans les SERPs.
Ces changements ont plusieurs avantages :
• Ils permettent de créer des univers thématiques indépendants, ce qui est
particulièrement intéressant pour un site aux contenus très variés.
• Avec l’arrêt du clustering, on peut positionner plusieurs pages provenant du
domaine principal et des sous-domaines sur des requêtes génériques.
• Enfin, on maîtrise mieux le référencement international, en créant des sous-
domaines par langues (cf. chap. 10, « La problématique des langues »).
Grâce aux sous domaines, il est donc possible d’insérer des mots-clés
importants pour le référencement des pages dans le nom du sous-domaine, en
début d’URL.
■ Faire une migration de nom de domaine
Changer de nom de domaine est généralement peu recommandé car cela est
risqué en termes de référencement. Pourtant, il peut arriver qu’un changement
de nom de domaine soit indispensable pour la survie d’un organisme.
Une migration de site peut se faire pour de multiples raisons, SEO ou
autres. Elle doit se faire sous une supervision SEO. Dans un premier temps, il
est important de comprendre les « best practices » pour une migration1.
Google donne des instructions claires à ce sujet2, qui permettent de bien
organiser les étapes de la migration et de ne pas perdre en visibilité dans les
SERPs.
FICHE
PRATIQUE
QU’EST-CE QU’UNE URL ?
URL est l’acronyme pour Uniform Ressource Locator. Une URL est
une adresse qui, une fois écrite dans la barre du navigateur, permet
d’accéder à un contenu disponible sur le Web, autrement dit une
ressource disponible sur le Web.
Une URL est composée de plusieurs parties permettant à l’internaute
d’accéder correctement aux contenus qu’il désire consulter sur
Internet. Ces informations composant l’URL s’organisent en ordre
décroissant de précision :
• Éléments d’une URL.
• Protocole ://www.nom-de-
domaine.extension/dossier/page.extensionDuDocument
Le protocole
Un protocole est un service de communication permettant
d’acheminer des données et donc dans notre cas des pages Web. Le
protocole que nous utilisons sur le Web est celui inventé par Tim
Bersner-Lee, l’HyperText Transfer Protocol, plus connu sous
l’abréviation HTTP. HTTPS est la version sécurisée de ce protocole.
Ces protocoles permettent de télécharger les pages Web sur l’écran
de l’ordinateur par l’intermédiaire du navigateur. Depuis fin 2014,
Google recommande aux sites de l’utiliser.
Le www
Le www est l’acronyme pour World Wide Web. Les www permettent
de signaler que des informations sont hébergées par un serveur Web,
donc connectées en permanence, ce qui rend ces informations
consultables en continu. Aujourd’hui, on a tendance à voir les
« www » disparaître des adresses Web. Mais ce n’est pas tant une
disparition qu’un raccourci emprunté par les acteurs. La plupart des
utilisateurs du Web savent aujourd’hui qu’une adresse Web
commence par « http://www », il semble donc inutile de le rappeler à
chaque fois.
Le nom de domaine
Le nom de domaine, aussi appelé NDD, est le nom choisi pour
accéder à l’espace Web d’un site, autrement dit, l’espace qui est
réservé en ligne pour stocker le site. Un nom de domaine est un alias
permettant d’accéder rapidement à l’adresse d’un site Internet.
Il est choisi par le propriétaire du site Web qui le loue pour une
période d’un an ou plus. Lorsque le contrat touche à sa fin, le
propriétaire est prioritaire pour continuer à louer ce nom. S’il ne le
renouvelle pas, le nom devient à nouveau disponible. L’organisme en
charge des noms de domaines est l’ICANN3.
L’extension du nom de domaine
Il existe plusieurs types d’extensions4. Une extension peut donner
une information sur le lieu d’origine de la page comme les extensions
territoriales qui permettent de cibler un lieu (.fr,. nl,. paris,. alsace,
etc.), une communauté ou un secteur (.hotel,. radio, etc.), mais elles
peuvent aussi donner une information sur le type d’organisme
propriétaire de la page grâce aux extensions génériques (.com pour
commercial,.org pour organisation,. gouv pour gouvernemental,. info
pour informatif, etc.) ou les extensions réservées à une cible
spécifique ou bien encore les extensions fermées destinées aux noms
de marque.
Il existe des listes10 recensant tous les noms de domaines disponibles.
Le dossier
Le dossier permet de connaître l’emplacement où est rangé un
contenu dans l’architecture d’un site. Inséré dans l’URL, il donne le
chemin qu’il faut parcourir pour accéder à ce contenu. La structure
du site pouvant être complexe, il peut donc y avoir plusieurs dossiers
dans l’URL11.
La page
La page Internet est le fichier que le visiteur voit. Elle est faite à
l’aide du code HTML qui structure des éléments textuels et visuels,
c’est-à-dire les informations présentées à l’internaute.
Le fichier qui constitue la page Web visible par l’internaute est le
plus souvent composé du code HTML qui organise les éléments du
site, de code CSS qui gère le design de la page et donc l’affichage
des éléments ainsi que du code Javascript qui permet l’interaction de
l’internaute avec ces éléments mais aussi de faire des animations sur
le site.
L’extension de la page
L’extension indique le langage utilisé pour créer la page. Une
extension.htm ou.html indiquera que cette page est codée uniquement
en langage html, une extension.php en langage PHP, et ainsi de suite.
Avec l’URL Rewriting (cf. chap. 3, « Faire de l’URL rewriting,
pourquoi et comment ? »), il arrive fréquemment de ne plus voir
l’extension de la page dans les URLs. Cette dernière ne semble pas
obligatoire, certains pensent qu’elle permet aux moteurs de recherche
d’éviter de confondre un dossier et une page.
Des URLs descriptives
Les URLs sont les adresses spécifiques pour chaque page et qui reprennent le
nom de domaine. Un nom de domaine est donc une URL racine.
Le nom de domaine et l’URL sont des aspects importants pour plusieurs
raisons :
• Ils correspondent à la carte de visite ; ils feront partie des premières
impressions que les visiteurs auront du site (lors d’une recherche sur un
moteur ou d’un salon).
• Ils seront utilisés sur tous les supports de communication.
• Ils devront être facilement mémorisables pour l’internaute.
• Ils sont pris en compte par l’algorithme des moteurs de recherche, même si
l’importance qui leur est accordée à tendance à diminuer.
Il faut donc y prêter la plus grande attention, tant pour le SEO que pour le
marketing et la communication.
Les bonnes pratiques de la rédaction d’URLs
L’URL est l’adresse visualisée par l’internaute et le moteur de recherche,
avant même d’entrer sur le site, c’est une des portes d’entrée du site. Ce sont
les noms des Landing Pages.
Pendant longtemps, le grand public les a ignorées, car trop illisibles. Mais
aujourd’hui, elles sont un réel facteur de décision. En effet, elles permettent
aux prospects d’avoir une indication sur le contenu de la page qu’ils vont
visiter. Ces URLs sont visibles à plusieurs endroits :
• Un prospectus papier : il est aujourd’hui de plus en plus courant d’inscrire
des URLs sur des supports de communication papier, l’URL est donc une
source d’information sur le contenu de la page.
• Un autre site Web : les internautes ont pris l’habitude de passer le curseur
de la souris sur un lien, pour avoir des informations sur la page d’arrivée, et
ce grâce à l’URL. De même, les robots les lisent avant même d’aller visiter
la page, pour avoir une idée de la qualité des liens présents sur une page.
• Un moteur de recherche : l’URL fait partie des trois informations données
dans les SERPs par les moteurs de recherche (cf. chap. 1, « Les pages de
résultats, les SERPs »). Elle peut donc être visible sous l’annonce ou dans
un snippet.
Certaines règles doivent donc être respectées afin de correspondre aux
standards Web, de montrer la qualité des contenus et d’être bien compris par
les internautes et les bots.
■ Une URL lisible
Une URL doit être réfléchie dans un esprit marketing, en plus d’un esprit
SEO12. Il faut donc construire des URLs parlantes, courtes et faciles à retenir.
Une URL difficilement compréhensible peut faire douter de la qualité de la
page, voir même du site. Si les internautes doutent de la qualité du site, le
trafic et le Click Trough Rate de ce dernier en seront impactés. De même, si
les bots doutent de la qualité du site, ce dernier sera mal indexé.
Les positions du site seront dans les deux cas de figures impactées
négativement. C’est pourquoi il est recommandé d’éviter les abréviations, les
chiffres ou les termes qui ne donnent pas d’informations sur la thématique de
la page Web.
■ Les mots-clés dans l’URL
Les URLs doivent reprendre autant que possible des mots ou expressions
considérés comme importants et qui font donc partie de la liste de mots-clés
(cf. chap. 2, « Définir les bons termes à travailler »).
Plus un mot est important pour le business, et donc le référencement, plus
il est recommandé de le mettre le plus à gauche possible de l’URL. Des tests
ont démontré que les mots à gauche d’une URL ont plus d’importance pour le
positionnement dans les SERPs que les mots en fin d’URLs.
De plus, cela permettra aux internautes de comprendre rapidement ce dont
il est question dans la page.
■ Des tirets pour les espaces
Les moteurs de recherche assimilent le tiret « - » à un espace, ce qui n’est pas
le cas pour les autres symboles, du type underscore, « _ »13. Par conséquent,
les tirets doivent être utilisés pour séparer les termes présents dans une URL
ou un nom de domaine. En ne remplaçant pas les espaces par des tirets, les
moteurs de recherche comprendront les mots présents dans l’URL comme
étant attachés ; soit un seul mot. On perdrait ainsi les bénéfices SEO d’utiliser
des mots-clés dans les URLs.
Avoir des underscores dans une URL a un impact négatif négligeable, il
n’est donc pas important de changer un nom de domaine à cause de cela,
mais il peut être intéressant d’y réfléchir pour les autres URLs. Tout est
question de priorité et d’impacts.
■ Les majuscules et minuscules
Une URL écrite en majuscule est différente d’une URL écrite en minuscule ;
ce sont alors deux adresses différentes.
L’URL peut être écrite en majuscule ou en minuscule, mais nous
recommandons fortement d’écrire tous les mots des URLs en minuscule. Ce
n’est pas obligatoire mais les internautes y sont habitués. C’est pourquoi, il
est préférable d’éviter les majuscules qui peuvent conduire les utilisateurs,
habitués à tout écrire en minuscules, à une 404, c’est-à-dire une impasse.
■ L’utilisation des abréviations
Il faut être extrêmement prudent lors de l’utilisation de sigles ou
d’abréviations pour raccourcir un nom de domaine. Outre le fait de ne pas
être clair ou cohérent pour l’internaute, un concurrent ou une autre entreprise
pourrait surgir à tout moment et se positionner sur des abréviations utilisées
par la marque.
■ Les caractères spéciaux
On peut aujourd’hui insérer une partie des caractères spéciaux (accents ou
trémas) dans les URLs ; Google et d’autres moteurs de recherche sont
capables de les reconnaître. Pour autant, il n’est pas recommandé d’utiliser
les caractères spéciaux ou des signes de ponctuation dans les URLs pour
plusieurs raisons :
• Tous les moteurs de recherche ne les prennent pas en compte. Cela pourrait
donc poser des problèmes d’indexation sur certains moteurs.
• Le risque d’erreur, lors la transmission des URLs, est augmenté.
• Les internautes n’y sont pas habitués et peuvent donc commettre des
erreurs.
Il est donc préférable d’éviter les caractères spéciaux dans les URLs14 pour
obtenir une bonne indexation et une optimisation du trafic.
■ La longueur des URLs
Les URLs doivent être faciles à mémoriser, elles doivent donc être courtes et
aussi logiques que possible.
Google recommande de ne pas avoir plus de 2 000 caractères15 dans une
URL ; au-delà de cette limite, il ne prend pas les caractères en compte. La
limite de taille pour les URLs d’un site doit se trouver bien en dessous de
celle recommandée par Google, pour faciliter la mémorisation par les
utilisateurs,
■ Des URLs toujours actives
De manière générale, les URLs ne doivent jamais mener à une impasse,
autrement dit renvoyer vers un code 40416.
Si une page a existé sur un site et qu’elle a été supprimée, son URL n’a pas
pour autant disparu du Web. Elle y demeurera encore longtemps, sur d’autres
sites, sur les réseaux sociaux ou sur d’anciennes publications. C’est pourquoi
le trafic arrivant sur cette URL doit être redirigé vers la nouvelle URL de la
page ou bien sur une page de thématique correspondante. C’est uniquement
ainsi qu’une marque pourra conserver une bonne image sur le Web et
continuer de répondre aux besoins des internautes.
C’est aussi le cas pour les robots des moteurs de recherche. De plus, une
page qui a été active a acquis un Page Rank dont une autre page pourrait
bénéficier.
Dans ce cas de figure, il est recommandé d’utiliser un code 301
(cf. chap. 1, « Les codes de réponse HTTP ») si la page est définitivement
supprimée ou un code 302 si elle est momentanément hors ligne.
■ Une URL pour un contenu
Peu importe la stratégie adoptée pour la mise en ligne d’URL, un contenu ne
doit être associé qu’à une seule URL.
Même s’il est possible de proposer plusieurs formes d’écriture pour les
URLs, avec et sans majuscule ou bien avec et sans caractères spéciaux, et de
capter ainsi l’intégralité du trafic, il ne doit exister qu’une seule URL
affichant le contenu. Les autres URLs doivent rediriger vers l’URL
principale.
Travailler des URLs dynamiques
Les URLs peuvent aussi être créées automatiquement, lorsque les pages du
site sont créées dynamiquement. Ces sites ou parties de sites dynamiques
restent difficiles à indexer pour les moteurs de recherche qui les considèrent
comme potentiellement très risqués, à cause de leurs nombreux contenus
pouvant être similaires ou de faible qualité. C’est pourquoi il est souvent
recommandé de ne pas les indexer (cf. chap. 3, « Le robots.txt »). Pourtant,
cela n’est pas toujours possible, il faut donc rester vigilant afin que
l’indexation du site soit optimale.
Voici quelques points à surveiller lorsque l’on gère un site ayant des URLs
dynamiques.
■ Reprendre les best practices pour la rédaction d’URLs
Les URLs dynamiques étant des URLs avant tout, les recommandations
citées ci-dessus s’y appliquent (cf. chap. 3, « Les bonnes pratiques de la
rédaction d’URLs »). Il est tout à fait possible de créer des règles d’écriture
ou de réécriture pour les URLs et de faire en sorte que ces URLs soient
« SEO-friendly ».
■ Indexer des pages pertinentes
Une attention particulière doit être donnée aux pages soumises à l’indexation.
Les sites dynamiques créent des pages à la demande. Il faut donc identifier,
parmi elles, les pages qui ne doivent pas être travaillées en SEO ou
communiquées hors du site. Ces pages auront un contenu à faible valeur
ajoutée et ne seront donc pas pertinentes dans la stratégie. Les identifier
permettra de dire aux moteurs de recherche de ne pas les prendre en compte.
■ Éviter les spiders traps
Certaines pages peuvent être mal reconnues ou mal comprises par les bots.
Ces derniers se perdent en boucles infinies, indexant ainsi des milliers de
documents non pertinents17. Il faut donc identifier ces pages et les retirer de
l’indexation grâce à un robots.txt (cf. chap. 3, « Le robots.txt »).
■ Éviter d’avoir plusieurs URLs pour une même page
Ce sont généralement les URLs dynamiques qui envoient vers des contenus
dupliqués.
En effet, les paramètres passés dans l’URL ont souvent pour conséquence
de créer des URLs à la volée et donc plusieurs URLs pour une même page.
C’est le cas, par exemple, pour les critères de sélection d’une recherche
interne au site.
Ces deux recherches proposent le même contenu mais sont visibles sur deux URLs
différentes :
Recherche de chat ordonnée par prix et limitée à 25 images
https://fr.fotolia.com/search?k=chat&order=price_1&limit=25
=
Recherche de chat limité à 25 images ordonnées par prix
https://fr.fotolia.com/search?k=chat&limit=25&order=price_1
Comme chaque page doit avoir une URL unique, si plusieurs URLs
pointent vers une même page Web, les moteurs de recherche les
considéreront comme du contenu dupliqué (cf. chap. 2, « Le duplicate
content »). Il faut donc bien vérifier les règles de création d’URL et de
redirection 301.
■ Choisir avec attention les paramètres passés dans l’URL
Il sera parfois nécessaire d’intégrer aux URLs des paramètres nécessaires à
une bonne gestion des pages dans le back-office ou pour tracker des
événements.
Il est recommandé de mettre le moins de paramètres possibles dans l’URL.
On recommande moins de trois paramètres. Ce chiffre semble presque
incompatible pour les sites désirant proposer une recherche interne
performante et de qualité pour l’internaute. Nous parlerons donc plutôt des
points sensibles liés aux paramètres.
• L’emplacement des paramètres dans l’URL : ces éléments doivent se
trouver en fin d’URL et si possible être signalés dans les outils mis à
disposition pour communiquer avec les moteurs de recherche (cf. chap. 3,
« Communiquer avec les moteurs de recherche »).
• La lisibilité des URLs : plus il y a de paramètres, plus les URLs
s’allongent. L’utilisation de caractères spéciaux augmente le risque de
problèmes d’encodage, qui diminueront d’autant plus la lisibilité de l’URL.
La solution est alors de proposer de mettre en place l’URL rewriting (cf.
chap. 3, « Faire de l’URL rewriting, pourquoi et comment ? ») pour offrir
une meilleure expérience utilisateur.
• L’ID de session : les identifiants de session permettent de marquer un
utilisateur pour comprendre sa navigation sur le site et d’adapter le contenu
en fonction de son comportement. En les utilisant, le risque d’avoir
plusieurs URLs pointant vers le même contenu, et donc du duplicate
content, augmente. Il est donc préférable d’utiliser les cookies qui
n’apparaissent pas dans les URLs et fournissent les mêmes informations.
• Le taggage : certains bots arrêtent la lecture d’une URL lorsqu’ils arrivent à
un « ? », augmentant ainsi le nombre d’URL en doublons pour un site et
diminuant la pertinence des pages indexées. En remplaçant le « ? » par un
« # », on dit aux moteurs de recherche de ne pas lire ni indexer les URLs
contenant un tag. Ceci peut être fait grâce au robots.txt (cf. chap. 3, « Le
robots.txt ») et aux Webmasters Tools (cf. chap. 3, « Communiquer avec
les moteurs de recherche »).
Faire de l’URL rewriting, pourquoi et comment ?
La réécriture d’URLs est la possibilité de changer le nom d’URLs déjà
créées. Grâce à la mise en place de règles d’écriture pour les URLs de ces
pages Web dynamiques, on peut changer les termes de l’URL pour la rendre
plus compréhensible pour l’internaute et les robots de moteurs de recherche.
L’URL dynamique est conservée, mais elle n’est plus visible.
La technique de l’URL Rewriting offre plusieurs avantages :
• Une sécurité renforcée : en cachant les URLs réelles, elles seront plus
compliquées à manipuler.
• Une indexation facilitée : en facilitant la compréhension des robots, les
pages seront mieux indexées et positionnées.
• Une présence de mots-clés dans certaines URLs : en insérant les termes
importants (cf. chap. 2, « Définir les bons termes à travailler ») pour les
pages dans les URLs, ces dernières décrivent mieux, aux internautes ainsi
qu’aux bots, la thématique et les contenus de leur page (cf. chap. 1,
« Organiser les contenus »).
• Un travail simplifié : en établissant des règles à grande échelle, les URLs
ne seront pas travaillées individuellement, mais par type d’URL.
Cependant l’URL Rewriting pose quelques inconvénients :
• Un travail rigoureux : ce processus est long et fastidieux et il faut donc
faire attention à penser à tous les cas de figure afin de ne pas faire d’erreur.
Planifier une phase de tests assure la qualité des règles établies.
• Mise en place de configurations techniques adaptées : certaines
configurations techniques ne permettent pas de faire de l’URL rewriting. Il
est important de s’assurer de la faisabilité du projet avant de commencer,
quitte à changer d’hébergeur ou de gestionnaire de contenus.
Différentes publications18 approfondissent plusieurs techniques pour
implémenter l’URL rewriting. Rappelons toutefois que si les URLs réécrites
ont déjà été en ligne, des redirections 301 doivent être mises en place afin de
ne pas perdre le PR déjà acquis.
Un code facilement compréhensible
Un autre élément technique à prendre en compte est la manière d’écrire et de
structurer le code d’un site. Le code correspond à l’ensemble des fichiers
envoyés par le serveur lorsque l’on fait appel au site. Ces derniers sont lus par
les bots de moteurs de recherche, pour comprendre les contenus du site et en
indexer les pages.
La première recommandation est de bien séparer les contenus des
indications de design ainsi que des éléments d’interaction. Concrètement,
cela correspond à avoir un fichier HTML, un (ou plusieurs) fichier CSS et un
(ou plusieurs) fichier Javacript. Toutes ces informations ne doivent pas être
mélangées sur le fichier HTML.
Le SEO concentre ses efforts sur les éléments du fichier HTML. Les
spiders des moteurs de recherche sont avant tout des programmes
informatiques, il faut donc savoir parler leur langage et se faire comprendre.
Nous verrons comment bien structurer les contenus en utilisant les balises
HTML à disposition. Les éléments dont nous allons parler sont des
informations (presque) invisibles pour l’internaute, mais qui permettent aux
bots de mieux comprendre le contenu des pages. On les retrouve sous forme
de balise <meta> ou bien sous forme d’attribut dans le code HTML.
Le code d’une page Web
Avoir des notions des langages qui permettent de créer des pages Web est
important, sinon vital pour toute personne qui désire travailler sur le Web. En
effet, avoir une bonne compréhension de l’aspect technique du Web permet
non seulement de mieux l’appréhender, mais aussi de mieux travailler avec
les équipes techniques.
Toutes ces technologies sont en évolution permanente (cf. chap. 3,
« HTML5, de nouvelles balises pour le référencement »). Il faut donc
s’efforcer de suivre leurs évolutions et réfléchir à leurs impacts potentiels sur
la stratégie d’inbound marketing.
Figure 3.1 – Les bonnes pratiques de la construction du code HTML
■ Le langage HTML
HTML est l’acronyme de HyperText Mark up Language. L’HTML est le
format de données conçu pour écrire et organiser le contenu des pages Web.
C’est un langage de balisage permettant d’écrire de l’hypertexte, d’où son
nom.
L’HTML permet également de structurer sémantiquement et de mettre en
forme le contenu des pages, d’inclure des ressources multimédias dont des
images, des formulaires de saisie et des programmes informatiques. Le
langage HTML repose sur des balises19. Les contenus seront donc structurés
grâce à ces balises HTML. Toutes ces balises ne sont pas importantes pour le
SEO. Nous aborderons les balises qui doivent être travaillées en SEO dans les
parties suivantes.
Le saviez-vous ? ■ Des balises HTML englobantes
Le code HTML a pour objectif d’organiser les contenus d’une page afin de faciliter le
traitement et l’affichage des données par des outils tiers, comme par exemple les
navigateurs. Pour bien structurer le contenu d’un document, le code HTML repose
sur un système de balises qui englobe un élément présent dans le contenu. C’est
pourquoi la plus grande partie des balises HTML fonctionne par paires, on trouve la
balise ouvrante (opening tag) et la balise fermante (closing tag) qui délimite
l’élément impacté. En voici la structure : <balise> texte impacté par la balise
</balise>. Si une des balises est oubliée, le code sera alors illisible pour les
programmes qui voudront le lire.
Une partie de ces données, contenues dans des balises, n’est pas visible par
les internautes et permet de donner des informations sur la page. Ces
informations sont souvent reprises par les moteurs de recherche. Ces données
sont dans la balise <head>. Les données présentes dans la balise <body> sont,
elles, visibles par les internautes.
■ Les feuilles de style CSS
CSS est l’acronyme pour Cascading Style Sheets, elles sont aussi appelées
« feuilles de style » et permettent le formatage des pages Web. Ces feuilles de
style permettent l’externalisation du design en n’impactant que les éléments
visuels du site, comme la taille, la police ou la couleur du texte, ou bien
encore la position et l’espacement entre les éléments de la page.
Depuis plusieurs années, les informations de style ne sont plus fournies
dans le code HTML de la page, ce qui permet d’alléger le téléchargement de
la page (cf. chap. 3, « Le temps de chargement des pages »). Elles permettent
d’avoir un code HTML qui organise et structure le contenu et des CSS20 qui
le mettent en page.
■ JavaScript
JavaScript, aussi abrégé JS21, est un langage de programmation qui permettra,
entre autres, d’animer un site Internet. Ainsi les galeries de photos ou
diaporamas utilisent JavaScript, mais aussi les menus déroulants, les
déplacements d’éléments, etc.
Le langage JS est généralement couplé avec un autre à l’aide de librairies
comme JQuery22. Ces librairies offrent des fonctions préétablies qui
permettent une insertion de code plus rapide dans les fichiers écrits en
JavaScript.
Pour une plus grande clarté de lecture, ce code se trouve dans un fichier à
part, lui-même appelé par le code HTML.
■ Les langages serveur et les bases de données
Les langages serveur permettent d’exécuter une action sur les serveurs. PHP23
et MySQL24 sont respectivement le langage de programmation et le stockage
de bases de données. Ce sont les plus connus et ils sont libres d’utilisation,
mais il existe un grand nombre de langages25 disponibles sur le marché.
Sur les sites ayant beaucoup de contenus, il est incontournable d’effectuer
certaines actions sur les serveurs et d’utiliser des bases de données.
Contrairement aux langages client, qui s’exécutent lorsque le fichier de la
page Web arrive dans le navigateur de l’internaute, les langages serveur
traitent les requêtes en amont, pour envoyer un résultat fini aux navigateurs et
donc aux clients. Le traitement des requêtes implique l’utilisation de bases de
données dans lesquelles sont stockées les informations qui doivent être
envoyées au client. Ces sites sont affichés dynamiquement, c’est pourquoi on
les appelle des sites « dynamiques ».
Les balises de visibilité présentes dans le <head>
■ Title et méta-description
Le Title, titre de la page
La balise <title> correspond au titre du document qu’est la page Web. Ce
Title est visible dans l’onglet de la page dans le navigateur. Ce ne sont pas les
titres des contenus de la page Web, mais celui du document lu par les robots.
Il permettra aux moteurs de comprendre le sujet de cette page.
La description de la page
La balise méta description est ce qui permet de décrire le contenu d’une page.
Cette balise doit être un prolongement du Title. Elle n’a pas ou peu d’impact
sur le référencement dit traditionnel, mais elle permet d’augmenter le trafic
provenant des moteurs de recherche en donnant envie aux internautes de
consulter la page.
L’importance SEO du Title et de la méta-description
Le Title et la description de la page sont importants pour différentes raisons :
• Ils sont pris en compte par les moteurs de recherche pour de l’affichage
dans les SERPs : comme nous l’avons vu, les moteurs de recherche
prennent trois éléments pour afficher le snippet, c’est-à-dire l’annonce du
site dans les résultats de recherche.
• Ces éléments sont la balise Title, la méta-description et l’URL : ces
éléments doivent donc montrer en quoi le site répond à la requête de
l’internaute. C’est à cela qu’il faut réfléchir lors de la rédaction des Titles26
et descriptions. Si la balise méta description n’est pas utilisée ou semble
trop générique au moteur, ce dernier prendra un extrait du texte du site. La
qualité de cet extrait et, par conséquent, le taux de clics des annonces
risquent fortement d’en pâtir.
• Elles sont prises en compte par les algorithmes de classement : le titre
est pris en compte dans les algorithmes des moteurs de recherche, les mots-
clés importants pour la page doivent donc en faire partie. Comme pour les
URLs, plus le mot-clé sera à gauche du texte, plus il aura de poids. Ceci est
une best practice, cependant le titre doit avant tout rester cohérent et
donner envie à l’internaute de visiter le site. La méta-description ne fait pas
partie des facteurs de positionnement, mais les mots correspondant à la
requête de l’internaute sont surlignés en gras dans le snippet des SERPs.
L’insertion de termes importants et potentiellement requêtés par les
internautes donnera donc plus de visibilité à l’annonce.
• Elles font partie de la stratégie de communication : ces informations sont
utilisées par les moteurs de recherche lors de l’affichage de l’annonce d’un
site dans leurs SERPs, les snippets. Ces informations étant présentées dans
les SERPs, elles servent donc d’appât et permettent de montrer à
l’internaute qu’un site correspond à ce qu’il recherche. Elles attisent la
curiosité de l’internaute ou lui montrent la réponse à sa requête. C’est ainsi
qu’elles augmenteront le taux de clic.
Un Title et une description unique
De la même manière que chaque page est unique, chaque page doit avoir une
Title et une méta-description unique. Les métas doivent donc refléter le
travail des différents univers lexicaux sur chaque page.
L’unicité des métas est d’autant plus importante que le contenu risque
d’être considéré comme dupliqué par les bots et les internautes, si ces métas
sont trop similaires. Il est courant pour des raisons logistiques sur les sites
ayant un grand nombre de contenus, d’automatiser la création des métas,
c’est pourquoi il faut veiller à créer des règles qui diversifient bien les métas.
Longueur du Title et de la méta-description
Les moteurs de recherche n’affichent pas un nombre infini de caractères pour
les annonces, c’est pourquoi la longueur des Titles et méta-descriptions est
limitée. Le nombre de caractères affichés pourra être modifié, mais il est
recommandé d’avoir 65 caractères pour un Title et 150 pour une méta-
description.
■ Méta keyword
La balise méta keyword a pour objectif de dire aux moteurs de recherche les
mots-clés importants pour la page.
Cette balise ayant été utilisée à outrance, elle a été délaissée par les
moteurs de recherche et est aujourd’hui obsolète. Il est possible que certains
moteurs de recherche continuent à la prendre en compte, l’utilisation de cette
balise dépendra du moteur de recherche sur lequel le site veut apparaître.
Pour travailler sur un site d’actualité, l’utilisation de la balise
« news_keywords » permet aux bots « actualité » des moteurs de recherche
de mieux comprendre et d’indexer les contenus.
Les balises de notoriété présentes dans le <body>
■ Les titres
À la différence du Title, les titres sont les balises qui structurent le contenu
textuel des pages, ce sont les balises H1, H2,…, H6. Nous nous y référerons
par les balises Hx.
L’intérêt de ces balises semble perdre de l’importance dans les critères de
ranking, mais structurer les contenus des pages Web reste primordial. En
structurant ces dernières de manière compréhensible, la pensée et les
informations présentes dans le contenu deviennent plus accessibles tant pour
les bots que pour les internautes.
Même s’il ne faut pas obligatoirement utiliser ces balises Hx dans l’ordre,
il est nécessaire de respecter certaines règles pour un meilleur impact sur la
visibilité du site dans les résultats des moteurs de recherche :
• Une balise H1 sur toutes les pages : toutes les pages ont un objectif qui
leur est propre, elles doivent donc avoir un titre principal.
• Une balise H1 uniquement pour chaque page : chaque page propose une
thématique spécifique, c’est pourquoi il n’est pas nécessaire d’avoir plus
d’une balise H1 par page.
• Un minimum de 3 niveaux de Hx par page : cette recommandation doit
prendre en compte la quantité de contenus sur la page. Mais la conserver à
l’esprit permet de penser à toujours bien structurer les contenus.
• Des termes clés dans les Hx : les moteurs de recherche utilisent les balises
Hx pour comprendre le sujet d’une page Web, c’est pourquoi les
expressions importantes pour définir l’univers sémantique de la page
doivent apparaître.
• Des Hx au cœur des contenus : les éléments considérés comme récurrents
– comme le header, le footer ou les sidebars – ont moins d’importance lors
de la définition des contenus.
• Une utilisation des Hx pour le SEO : les balises Hx peuvent être utilisées
pour la mise en page. Or, si un conflit d’intérêt surgit, il faut utiliser les Hx
pour le SEO, étant donné que la mise en page peut se faire grâce aux CSS.
■ La balise <strong>
Cette balise permet de mettre un texte en caractères gras. Mais elle n’est plus
réellement utilisée pour le design depuis l’arrivée des CSS. Par contre, les
moteurs de recherche comprennent que les textes au sein de ces balises sont
plus importants que le reste du texte.
Conseil
Attention : tout abus de ces balises pourrait être considéré comme de la sur-
optimisation (cf. chap. 5, « La sur-optimisation et la désoptimisation »).
■ Les images
La balise HTML pour une image est <img>. En SEO, nous travaillerons
principalement les attributs de cette balise ainsi que sa position dans le code
HTML par rapport au contenu. On compare souvent les bots à des internautes
aveugles. L’analyse de ces derniers se base donc sur les informations données
par la marque, ainsi que sur ce qu’ils voient dans la structure du code.
Les informations importantes dans les images, non lues par les moteurs de
recherche, doivent par conséquent se trouver dans le code du site. Grâce au
CSS3, il est possible de construire une image, tout en gardant les
informations importantes en texte dans le code HTML.
Avec la recherche universelle (cf. chap. 7, « Dominer les SERPs avec la
recherche universelle »), les images sont apparues dans les SERPs. Elles
attirent l’œil et facilitent le clic. Il est donc important d’être présent et bien
positionné pour augmenter la visibilité d’un site sur le Web. C’est aussi
pourquoi il ne faut pas travailler toutes les images d’un site, mais uniquement
les images importantes. Une image importante est une image qui fait partie
du corps du site ou encore le logo de la marque. Les images facilitant la
navigation, comme les flèches, les icônes, etc. ne sont pas importantes. Ces
images de navigation doivent être regroupées dans un sprite27.
Le texte alt
Les images importantes doivent avoir un texte alternatif, un « alt ». Ce
dernier est un texte qui décrit l’image.
Historiquement, ce texte a été mis en place pour des raisons
d’accessibilité28. Les personnes handicapées ou malvoyantes peuvent utiliser
des navigateurs vocaux qui lisent ce texte alternatif. Par la suite, il fut utilisé
par les référenceurs pour « caser du mot-clé », ce qui explique pourquoi il est
généralement vu comme une action Black Hat et que beaucoup de gens
l’utilisent encore pour y mettre une suite de mots-clés n’ayant pas forcément
de rapport avec l’image.
Le texte « alt » doit être descriptif, court et synthétique tout en reprenant
des termes clés pour la page. Il est recommandé d’écrire une phrase courte de
50 caractères, soit environ 10 mots et d’y insérer 1 à 3 mots-clés importants
pour le SEO. On respecte ainsi le but original du texte « alt » tout en prenant
en compte les besoins SEO.
La légende
Afin d’encore mieux contextualiser l’image, il est tout à fait possible
d’insérer une légende au visuel.
La légende est alors réfléchie comme le texte alternatif (cf. chap. 3, « Le
texte alt »), une phrase descriptive dans laquelle on insère quelques mots-
clés. La légende doit être différente du « alt ». Inutile d’insérer deux fois le
même texte sous peine de faire de la sur-optimisation (cf. chap. 5, « La sur-
optimisation et la désoptimisation »).
Grâce à l’HTML5, nous disposons à présent d’une balise pour faire cela
(cf. chap. 3, « HTML5, de nouvelles balises pour le référencement »).
La position de l’image sur le site
L’image doit se trouver entourée du texte inséré dans le code HTML, car les
bots ne comprennent pas les images. Plus la balise de l’image sera proche des
autres balises de contenu, plus les bots assimileront l’image à ce contenu. Le
contenu doit donc être en adéquation avec l’image, avec le « alt » et la
légende.
Le titre du fichier
Le nom donné au fichier image doit contenir des mots-clés ou, si possible,
une description de l’image.
Cela permettra non seulement de donner une indication supplémentaire aux
bots des moteurs de recherche, mais aussi de permettre aux internautes, s’ils
téléchargent l’image ou s’ils sont amenés à lire le nom de l’image, pour une
raison ou une autre, de comprendre le contenu de l’image avant de l’ouvrir.
Le Exif data
Les données EXIF29 sont des données incorporées à l’image. Elles donnent
des informations telles que l’heure, le lieu ou encore les réglages de
l’appareil.
Ces informations peuvent être utilisées par les moteurs de recherche et
donc aider à la compréhension du visuel pour une meilleure indexation des
contenus30.
La qualité de l’image
Les moteurs de recherche travaillent à la reconnaissance des images31 afin de
pouvoir mieux les indexer. La qualité et la netteté des images doivent donc
dès à présent être soignées. Ces dernières ont un rôle à jouer dans la
croissance de la notoriété d’un site, car elles sont reprises sur les moteurs de
recherche, mais aussi sur les réseaux sociaux et parfois sur d’autres sites
Web.
■ Les vidéos et les fichiers audio
Les fichiers vidéo et audio ont une importance grandissante dans les sites
Web occidentaux. En effet, la qualité des connexions Internet permet le
téléchargement de plus en plus de données et ce rapidement. Comme pour les
images, les sons mais surtout les vidéos donnent du dynamisme aux pages
Web. Cette interactivité facilite l’accès aux informations et la lecture de la
page.
L’utilisation des vidéos
Les vidéos sont un support de choix pour offrir des contenus de qualité. Voici
quelques pistes sur l’utilisation possible des vidéos :
• Des démonstrations et des exemples d’utilisation des produits.
• Des vidéos de conférences concernant la thématique du site.
• La visite des locaux de l’entreprise.
• Des interviews des acteurs du secteur.
L’utilisation de l’audio
Le son manque d’interactivité. La vidéo a généralement plus d’impact. Il
existe néanmoins de nombreuses utilisations du son qui peuvent apporter de
la valeur ajoutée à une page :
• Des enregistrements des conférences ou autres prises de parole en public.
• Des interviews des acteurs du secteur.
• Des podcasts réguliers sur les insights du secteur.
• Des sons ou de la musique en relation avec l’activité ou la thématique
(bruits d’animaux pour un site sur la nature, musique zen pour un centre de
yoga, etc.).
Des recommandations SEO communes
Comme les images, les moteurs de recherche n’ont pas accès aux contenus
des vidéos et des fichiers audio. C’est pourquoi certaines actions SEO
doivent être mises en place :
• Fournir une transcription écrite : une transcription du contenu média
permettra aux internautes qui n’ont pas la possibilité d’écouter le contenu
d’y avoir accès malgré tout. De plus, cette transcription fournira un
contexte sémantique au média et permettra aux bots de mieux comprendre
ce contenu. Il est donc important de bien travailler la sémantique autour
des vidéos et de l’audio, comme cela a été fait pour les images.
• Insérer des mots-clés dans les noms des fichiers : le nom du fichier doit
contenir des termes clés importants qui correspondent à la thématique du
contenu et de la page.
• Soigner la qualité au fichier : le son comme l’image doivent être nets et de
bonne qualité afin de faciliter l’écoute ainsi que la visualisation. Les vidéos
doivent être enregistrées dans une pièce neutre avec un mur blanc et aucun
son externe ne doit s’inscrire sur la bande-son. Cela donnera aussi une
image plus professionnelle de la marque et de ses contenus et cela facilitera
les partages de ces pages.
• Prévoir un déclenchement actionné par l’utilisateur : que cela soit pour
le son ou pour la vidéo, il est désagréable d’ouvrir une page et d’avoir une
musique ou une vidéo qui se déclenche automatiquement. Il est fréquent
que des internautes agacés quittent la page pour cette raison. Donner à
l’internaute la liberté de mettre le son ou la vidéo en marche permet de le
conserver plus longtemps sur la page et donc sur le site. En améliorant
l’expérience utilisateur de la sorte, les données de navigation seront
meilleures et la visibilité en bénéficiera.
■ HTML5, de nouvelles balises pour le référencement
Le Web est en constante évolution. Suivre ces évolutions et les mettre en
place sur un site, lorsqu’elles sont justifiées, permet de préparer ce site aux
exigences toujours renouvelées des visiteurs.
L’HTML5 est une évolution de l’HTML, elle permet l’utilisation de
nouvelles balises dans le code d’un site. Toutes ces balises ne sont pas toutes
supportées par les navigateurs pour l’instant et encore moins si le navigateur
est ancien. Il faut donc fournir des alternatives lorsqu’elles sont utilisées sur
un site. HTML5 est généralement couplé avec les CSS3 dont l’utilisation est
plus largement répandue à ce jour.
Les nouvelles fonctionnalités apportées par HTML5 constituent des outils
pour améliorer la compréhension des contenus et de la visibilité sur le Web32.
De nouveaux tags et de nouveaux attributs
HTML5 propose de nouvelles balises33 afin d’organiser les contenus de
manière plus compréhensible pour les moteurs de recherche. Les balises
<header>, <footer>, <article>, <nav>, <aside> montrent clairement de quel
type de contenu il s’agit. De même, de nouveaux attributs permettent de
mieux décrire les éléments présents sur la page, comme par exemple les
attributs rel.
Une nouvelle manière de traiter les médias
Grâce aux nouvelles balises <audio> et <videos>, l’insertion des médias est
facilitée, et ce sans avoir besoin de passer par des technologies propriétaires
telles que Flash. Il est également possible de donner plus d’informations sur
ces médias via les attributs.
Facilitation du crawl et de l’indexation
Certaines technologies ne peuvent pas être indexées par les moteurs de
recherche comme par exemple les sites en Flash. Créer un site en HTML5
permet de garder les mêmes fonctionnalités qu’un site flash et les mêmes
animations tout en offrant un code compréhensible aux robots. Le crawl est
ainsi facilité pour les robots des moteurs de recherche qui peuvent mieux
positionner le site dans les SERPs.
Le saviez-vous ? ■ Le SEO Black Hat et le SEO White Hat sont deux
expressions d’une même idée
On définit les actions SEO différemment selon la mentalité avec laquelle ces
dernières sont mises en place et la manière dont les recommandations données par les
moteurs de recherche sont suivies.
Le Black Hat SEO, tout comme le SEO White Hat, a pour objectif d’installer un site
Web en bonne place sur les pages de résultats de recherche, on parle alors d’un bon
positionnement du site ou de bonnes positions pour le site.
White Hat SEO
Le White Hat SEO est fait au travers d’actions qui respectent les recommandations
des moteurs de recherche. Ce sont l’ensemble des actions autorisées car étant
considérées comme favorables à l’amélioration et à la pertinence des pages de
résultats des moteurs de recherche. Ces actions se basent principalement sur l’apport
d’une valeur ajoutée réelle pour l’internaute.
On considère ces actions plus durables dans le temps, principalement car le respect
des règles imposées par les moteurs de recherche permet d’éviter les risques de
pénalités généralement assignées aux sites ayant recours aux pratiques Black Hat.
Elles sont certes plus lentes à porter leurs fruits car elles s’appuient sur une maîtrise
de l’univers concurrentiel, une bonne connaissance du marché, la création de
relations de confiance avec les internautes et la définition de publics cibles pertinents.
Pourtant, en s’intégrant parfaitement aux stratégies de communication et de
marketing, elles viennent renforcer l’intégralité des actions business de l’entreprise,
ce qui assure à cette dernière une plus forte notoriété sur le Web sur la longue durée.
Black Hat SEO
Les méthodes utilisées par le SEO Black Hat s’appuient sur des actions qui déjouent
et contournent les règles des moteurs de recherche. L’objectif est de rapidement
positionner une page Web, même si sa qualité n’est pas optimale pour l’internaute. Il
est en effet fréquent de trouver des programmes informatiques qui automatisent des
actions ou des comportements d’internautes afin de faire bénéficier d’un effet de
masse à un site donné. Faire du SEO Black Hat, c’est comprendre ce qui marche pour
apparaître dans les premières positions et trouver l’astuce pour que les pages Web
que l’on travaille soient identifiées comme options valides pour les premières
positions des SERPs. C’est pourquoi ces techniques sont assimilables au spam, car le
but est d’améliorer les positions et non de donner accès à un contenu de qualité à
l’internaute.
Il ne faut pas pour autant négliger ce qui est fait par les Black Hat SEOs. En effet, le
Black Hat n’est généralement pas éloigné de la réflexion White Hat34. Les techniques
qu’il utilise peuvent être remaniées pour être mises en place dans une stratégie à long
terme. C’est l’utilisation de ces deux extrêmes pour créer une stratégie que l’on
appelle Grey Hat.
Améliorer l’expérience utilisateur
Certains éléments parfois imperceptibles pour les internautes ont un impact
sur le ressenti et la perception qu’ils ont du site. Il est donc important de
travailler des éléments plus intuitifs pour le site Web, ceux que l’on ne
regarde pas, mais qui font toute la différence.
Le fil d’Ariane ou le breadcrumb
Figure 3.2 – Le fil d’Ariane d’une page d’achat Dunod
Le fil d’Ariane35, aussi appelé breadcrumb, est un élément affiché sur une
page Web qui indique le parcours réalisé par l’utilisateur pour arriver à une
page donnée. Ce schéma reflétant la structure du site permet non seulement
au visiteur de savoir à quel endroit du site il se trouve, mais facilite aussi la
navigation sur le site.
■ Les avantages du fil d’Ariane pour la visibilité Web
L’utilisation d’ancres optimisées
Le fil d’Ariane est composé de liens sur des textes qui doivent reprendre le
sujet principal de chaque page ayant permis d’atteindre la page en question. Il
comporte donc de nombreux avantages :
• Des textes d’ancre optimisés avec des termes clés.
• Un maillage interne renforcé.
• L’ajout d’un contexte sémantique à la page.
• Une meilleure compréhension de la structure du site par les bots.
• Des annonces dans les SERPs plus lisibles.
• Un accès facilité aux pages plus génériques et par conséquent une réduction
du taux de rebond.
Figure 3.3 – Un fil d’Ariane dans une annonce naturelle
Les best practices
Voici quelques pratiques à suivre lors de la mise en place d’un breadcrumb
sur un site.
Le fil d’Ariane :
– ne remplace pas la navigation principale ;
– est inutile si les pages du site sont au même niveau ;
– ne doit pas faire de lien avec la page où il est placé ;
– doit être utile pour le visiteur ;
– doit privilégier l’usabilité au SEO ;
– doit utiliser des métadonnées.
Les métadonnées
Les métadonnées sont aussi appelées « données structurées » ou « Structure
Data Markup » en anglais. Les métadonnées sont un système de balisage qui
permet aux robots de savoir à quoi se réfèrent différents éléments d’un site.
L’utilisation des données structurées n’impacte en rien le visuel du site, seul
le contenu est enrichi.
Les métadonnées doivent être insérées au code HTML36. Mettre une
métadonnée sur un élément HTML signifie encadrer cet élément par une
balise ou ajouter un attribut qui contient la nature de l’élément affiché. Il
existe plusieurs syntaxes de métadonnées, les microdata37, les microformats38
et le RDFa39. En 2011, Yahoo, Bing et Google ont présenté Schema.org40
comme un standard à suivre41. Tous les types de métadonnées y sont pris en
compte pour l’instant. Par contre, il est important de ne pas mélanger
plusieurs syntaxes sur un site. Il est aussi possible de passer par l’outil de
Google Webmasters Tools afin de construire et de tester les données
structurées42.
La mise en place des métadonnées améliore donc la visibilité dans les
résultats des moteurs de recherche de plusieurs manières :
• Des contenus plus explicites : elles facilitent la compréhension des
contenus pour les moteurs de recherche en indiquant ce à quoi un terme fait
référence. Grâce à l’utilisation d’une syntaxe de métadonnées, les moteurs
de recherche peuvent comprendre les contenus sans avoir aucun doute sur
son sens.
• Des snippets plus visibles : les rich snippets sont appelés « extraits
enrichis » ou « extension d’annonce » selon les individus. Ce sont des
informations qui s’ajoutent aux annonces dans les SERPs, les snippets.
Elles sont complémentaires à l’annonce, car elles apportent des données
supplémentaires à une annonce classique grâce à des avis clients, des liens
directs vers d’autres pages du site, des prix, etc.
Figure 3.4 – Annonce enrichie sur Google
• Une meilleure compréhension des éléments : grâce aux métadonnées, les
bots accèdent à plus d’informations sur les contenus. En effet, depuis 2013,
Google a décidé d’associer les rich snippets43 à la qualité du site, afin de
proposer des résultats de recherche toujours plus pertinents. Les
métadonnées ne sont donc pas encore prises en compte dans l’algorithme,
mais elles impactent fortement la visibilité grâce aux rich snippets qui
apparaissent.
• Les rich snippets proposent davantage d’informations sur le site avant
même l’arrivée de l’internaute sur la page. Elles augmentent ainsi le CTR
et le taux de rebond.
• Un site mieux préparé au Web sémantique : Google travaille à une
amélioration de sa compréhension du Web. Il désire proposer des résultats
de qualité adaptée à la sémantique des requêtes.
Exemple
Un exemple parlant du travail réalisé sur la sémantique des recherches
est le Knowledge Graph (cf. « Le Knowledge Graph »). Cet encart
affiché dans les résultats de recherche fournit des informations en
rapport à une recherche directement dans les SERPs.
Pour proposer cet encart, Google s’appuie sur les informations récoltées
sur des sites. On peut donc penser que, au fur et à mesure que Google
offrira une recherche sémantisée, les sites ayant mis en place ce balisage
bénéficieront d’un avantage concurrentiel.
Le temps de chargement des pages
Que cela soit pour l’utilisateur ou pour les robots, une page s’affichant
rapidement sera plus satisfaisante et invitera d’autant plus à l’exploration du
site. C’est pourquoi le temps de chargement du site, aussi appelé « site
speed », est pris en compte dans l’algorithme Google44, et ce d’autant plus
depuis l’arrivée de « Mobilegeddon » (cf. chap. 1, « Changements et
évolutions des moteurs de recherche »). Pour autant, le temps de chargement
des pages n’entre en compte que si Google estime que deux pages sont
similaires. Si deux pages proposent la même typologie de réponse à
l’internaute, le site le plus rapide aura alors une meilleure position dans les
SERPs.
Le temps optimal de chargement doit être le plus court possible. En 2014,
on estime ce temps optimal à 3 secondes sur un desktop et à 5 sur un mobile.
Mais ce temps optimal change selon le public. Pour un site international, il
est important de penser à ceux qui n’ont pas de connexion ADSL ou qui ont
des bandes passantes plus lentes que dans certains pays. Un public habitué
aux nouvelles technologies aura de fortes exigences en terme de chargement
de page, tout comme un public ayant besoin d’une information en urgence,
etc.
De manière générale, la tolérance concernant le temps de chargement de
page est amenée à se réduire. Afin de définir le temps optimal de chargement,
deux facteurs entrent en compte :
• L’utilisation du site par les internautes.
• La vitesse des sites concurrents : pour connaître le temps de chargement
d’une page, il existe de nombreux outils d’analyse45 ainsi que des add-ons46
qui donneront des rapports en cascade47 détaillant les étapes et la durée de
chaque action réalisée pour afficher une page.
Le détail des actions à mener se trouve sur la documentation Google48. Les
principaux facteurs à prendre à prendre en compte pour améliorer le temps de
chargement selon Google sont :
– la taille des ressources ;
– le nombre d’images incluses dans les ressources ;
– le serveur Web qui fournit les ressources ;
– l’impact de la connexion réseau sur le chargement des ressources.
Les bonnes pratiques à mettre en place pour répondre à ces problématiques
s’orientent autour des points suivants :
• Réduire le nombre de requêtes.
• Réduire la taille des données envoyées.
• Faciliter l’interprétation pour les navigateurs.
• Optimiser les sites pour les smartphones.
Communiquer avec les moteurs
de recherche
Afin d’améliorer la position des pages d’un site dans les SERPs, il faut en
assurer la présence dans l’index des moteurs de recherche (cf. chap. 1,
« Indexation par les spiders bots »). Après s’être assuré qu’elles sont
considérées comme répondant à une requête et qu’elles sont de qualité, elles
doivent être présentées aux moteurs de recherche afin qu’ils en prennent
connaissance et qu’ils les indexent, on parle alors de soumission de page.
C’est pourquoi l’intégralité des pages importantes (cf. « Définir les pages
importantes pour la notoriété Web ») devront être indexées par les moteurs de
recherche. Les autres pages peuvent ne pas y être.
Cette indexation doit se faire le plus rapidement possible, puis les robots
doivent revenir régulièrement sur le site pour que les actualités et les
changements soient pris en compte.
Conseil
Attention, plus le site contient de pages, plus le contrôle des contenus indexés dans
les moteurs de recherche doit être régulier49. Plusieurs éléments sont disponibles pour
communiquer ces informations aux robots des moteurs de recherche et pour les
vérifier.
Le robots.txt
Un robots.txt est un protocole d’exclusion des robots50. Autrement dit, c’est
un fichier texte s’adressant aux robots, en leur disant de ne pas indexer une
partie ou l’intégralité du site51.
Par convention, un robots.txt est le premier élément consulté par les robots,
c’est pourquoi il doit se trouver à la racine du site, à l’adresse
http://www.mon-domaine.fr/robots.txt. Le nom du fichier doit être en
minuscules et robots doit avoir un « s ». Si le bot ne trouve pas le robots.txt,
ce dernier commence à aspirer le site considérant que rien ne lui est interdit.
Chaque moteur de recherche a ses propres robots d’indexation. Par
exemple, il existe plusieurs robots d’exploration de Google52 qui
correspondent aux différents index : News, Images, Videos, etc. De
nombreux autres robots n’appartenant pas à des moteurs de recherche
crawlent le Web avec différents objectifs : récupérer des informations sur un
site pour les concurrents ou des sites tiers, créer des annuaires, insérer le site
dans des moteurs de recherche spécifiques, etc. Grâce au robots.txt, il est
possible d’interdire l’accès à certains robots et non à d’autres.
■ La structure du robots.txt
Le fichier robots.txt se compose d’une syntaxe simple :
• Le User-Agent : il permet de cibler les robots qui auront le droit d’indexer
ou non les contenus. Pour sélectionner tous les robots on utilise le « * »,
sinon on marque le nom du robot que l’on désire cibler.
• Allow/Disallow : ces deux expressions correspondent aux règles qui
permettent ou interdisent l’accès aux pages. Elles s’appliquent aux robots
préalablement définis. Tous les bots ne tiennent pas compte de la règle
allow, sauf Google, Bing et Yahoo53.
• L’expression régulière d’URL ou d’URI : c’est là que l’on place les
URLs impactées par la règle. Attention à l’écriture de l’URL, le «/» permet
de définir un dossier et tout ce qu’il contient ; s’il est omis, toutes les URLs
commençant par le terme écrit ne seront pas indexées. Il est également
possible de faire référence aux Sitemaps (cf. chap. 3, « Le Sitemap.xml »)
dans le robots.txt.
• # : ce symbole permet de faire des commentaires. Il est inutile d’en abuser,
sous peine de dépasser la taille recommandée du fichier.
■ La taille du robots.txt
Théoriquement, le fichier robots.txt n’a pas de limite de taille. En pratique,
Googlebot54, le robot de Google, suit les règles du robots.txt dans les
500 premiers Kb de texte, soit environ 62 Ko. Il est possible que le contenu
se trouvant au-delà de la taille maximale du fichier soit ignoré55.
Pour pallier cela, il est possible de faire appel à des robots.txt spécifiques
au sein du robots.txt principal.
Le Sitemap.xml
Le protocole Sitemaps permet aux Webmasters d’indiquer de manière simple
et claire les pages d’un site Web qui doivent être explorées par les bots des
moteurs de recherche.
Ce document présente les pages du site et donne des directives aux robots
qui viennent crawler le site. Même si ce Sitemap ne garantit ni l’indexation,
ni de meilleures positions dans les résultats de recherche, il facilite l’accès à
toutes les pages importantes à positionner dans les moteurs de recherche.
Le Sitemap liste donc l’ensemble des URLs que l’on souhaite faire
analyser et crawler, par les bots. C’est un fichier placé à la racine du site, soit
www.monsite.fr/sitemap.xml. Si les robots venant crawler un site ne le
trouvent pas, les informations données ne seront pas prises en compte.
■ Le format du Sitemap
Le Sitemap peut être fourni en plusieurs types de formats lisibles par les
robots. Ces formats vont du format texte, qui permettra seulement de donner
une liste d’URL à crawler, au format XML.
Ce format XML permet de donner plus d’informations sur les URLs,
comme la date de mise à jour de la page, sa fréquence d’actualisation ou
encore la priorité de crawl donnée à cette page.
Nous recommandons l’utilisation du format XML qui est devenu un
standard Web et qui met à disposition des robots davantage d’informations
concernant les pages à crawler.
■ Les métadonnées pouvant être présentes dans un Sitemap
Figure 3.5 – Les balises principales du sitemap
Les informations données aux bots doivent être authentiques, ces derniers
sont capables de comprendre la fréquence réelle des mises à jour. Ils
décideront par eux-mêmes de leur fréquence de crawl ou encore de
l’importance des pages.
■ La taille du Sitemap
Les bots peuvent lire au maximum 50 000 URLs d’un Sitemap. Comme pour
le robots.txt, il est possible de travailler sur plusieurs Sitemaps, chaque
Sitemap regroupant les URLs par univers ou types de pages.
Un index de Sitemaps peut lister 50 000 fichiers Sitemaps dont la taille est
inférieure à 10 Mo (10 485 760 octets).
Les Webmasters Tools
Afin de faciliter l’échange entre Webmasters et moteurs de recherche, ces
derniers ont mis en place des interfaces avec des outils pour les Webmasters.
Il existe donc des Webmasters Tools pour Google, Bing et Yandex. Elles
permettent non seulement de soumettre un site pour indexation ou révision,
mais aussi un suivi du trafic et de la compréhension du site par les robots.
Dans ces interfaces, il est possible de soumettre un – ou plusieurs – sites.
Cela revient à indiquer aux moteurs de recherche l’existence de ce dernier.
Ce n’est pas parce qu’un site est soumis que celui-ci sera indexé, mais cela
lui permettra d’avoir la visite des robots, généralement dans les 24 heures.
En plus de mettre les Sitemap et le robots.txt à la racine du domaine, ces
derniers peuvent aussi être ajoutés dans les Webmasters Tools pour une
indexation encore plus rapide de l’ensemble des contenus.
Cette fonction sert aussi à soumettre une nouvelle version du site, pour
révision56, lors de changements majeurs. Si la structure est optimale (cf.
chap. 1, « La structure du site »), il est inutile de soumettre à nouveau toutes
les URLs du site. Le crawl de la Home Page permettra aux bots de visiter les
autres pages.
Le SEO technique revient donc à adapter un site Web afin qu’il soit
compréhensible pour les bots des moteurs de recherche. Ces derniers ayant
des comportements toujours plus proches des internautes « physiques », le
SEO technique est désormais tributaire d’un nombre grandissant de facteurs.
Tous ces éléments convergent vers un même objectif, comprendre un site
Web de manière toujours plus intuitive.
L’essentiel
►► Les visiteurs sont les principaux bénéficiaires du
site, ceux pour qui la marque a créé le site. Si un doute
surgit, il faut faire ce qu’il y a de mieux pour l’internaute.
►► L’URL est un élément qui perd de l’importance
pour les moteurs de recherche mais qui prend
de l’importance auprès des internautes. Il faut donc
prendre le temps de bien le construire.
►► La rédaction du code et l’utilisation de certaines
balises permettent aux bots des moteurs de recherche
de comprendre ce qui est important pour la marque.
Il faut donc utiliser tous les éléments à disposition pour
que les contenus soient correctement compris.
►► De nombreux outils sont disponibles pour faciliter
les échanges avec les moteurs de recherche et
comprendre leurs attentes. L’apprentissage de ces outils
ne doit pas être optionnel si on veut que le site ait une
présence optimale dans les moteurs de recherche.
Notes
1. http://www.youtube.com/watch?v=wATxftE8ooE
2. https://support.google.com/webmasters/answer/34437?hl=fr et
http://www.bing.com/webmaster/help/how-to-use-the-site-move-tool-bb8f5112
3. http://fr.wikipedia.org/wiki/Internet_Corporation_for_Assigned_Names_and_Numbers
4. http://www.afnic.fr/medias/dossier-thematique11_VF.pdf
5. https://youtu.be/rAWFv43qubI
6. http://moz.com/blog/are-exact-match-domains-in-decline
7. http://www.seroundtable.com/google-cutts-expired-domains-18446.html
8. Andrieu O., Réussir son référencement Web, Eyrolles, 2014.
9. http://www.expertise-en-referencement.com/changement-dans-les-serps-google-un-
nouveau-clustering.html
10. https://fr.wikipedia.org/wiki/Liste_des_domaines_Internet_de_premier_niveau
11. https://www.youtube.com/watch?v=l_A1iRY6XTM
12. http://www.searchenginejournal.com/five-steps-to-seo-friendly-site-url-
structure/59813/
13. http://www.youtube.com/watch?v=AQcSFsQyct8
14. http://www.youtube.com/watch?v=K4TKJwvTu50
15. http://www.seroundtable.com/google-url-characters-18219.html
16. https://www.youtube.com/watch?v=9tz7Eexwp_A
17. Andrieu O., In Réussir son référencement web, Eyrolles, 2014.
18. Andrieu O., Réussir son référencement Web, Eyrolles, 2014.
19. http://www.w3schools.com/tags/
20. http://www.w3schools.com/css/
21. http://fr.wikipedia.org/wiki/JavaScript
22. http://fr.wikipedia.org/wiki/JQuery
23. http://fr.wikipedia.org/wiki/PHP
24. http://fr.wikipedia.org/wiki/MySQL
25. https://fr.wikipedia.org/wiki/Programmation_web
26. http://moz.com/blog/new-title-tag-guidelines-preview-tool
27. https://openclassrooms.com/courses/bien-utiliser-les-sprites-css
28. https://fr.wikipedia.org/wiki/Accessibilit%C3%A9_du_web
29. http://fr.wikipedia.org/wiki/Exchangeable_image_file_format
30. https://www.youtube.com/watch?v=GMf6FmRus2M
31. http://patentscope.wipo.int/search/en/PCTUS2007072578
32. http://searchengineland.com/seo-best-practices-for-html5-truths-half-truths-outright-
lies-99406
33. http://www.vectorskin.com/referentiels-standards-w3c/balises-html5/
34. Fishkin R. & Hogenhaven T., « White Hat SEO, it F@$#ing works », In inbound
marketing and SEO, Wiley, 2013.
35. https://support.google.com/webmasters/answer/185417
36. http://moz.com/ugc/getting-the-most-out-of-schemaorg-microformats
37. http://schema.org/docs/documents.html
38. http://microformats.org/
39. https://support.google.com/webmasters/answer/99170?hl=fr
40. http://schema.org/
41. https://support.google.com/webmasters/answer/1211158?hl=en
42. http://www.arobasenet.com/2013/12/integrer-donnees-structurees-dans-son-site-
445.html#.UtgKZZ55N9U
43. http://www.seonity.com/infographie-interet-des-rich-snippets.php
44. http://www.mattcutts.com/blog/site-speed/ et
http://www.seobythesea.com/2014/02/googles-patent-site-speed-ranking-signal/
45. http://www.seomix.fr/temps-chargement-mesure/
46. https://addons.mozilla.org/fr/firefox/addon/yslow/
47. https://fr.wikipedia.org/wiki/Feuilles_de_style_en_cascade
48. https://developers.google.com/speed/docs/best-practices/rules_intro?hl=fr-FR
49. http://antezeta.com/news/avoid-search-engine-indexing
50. http://moz.com/learn/seo/robotstxt
51. https://support.google.com/webmasters/answer/156449?hl=fr
52. https://support.google.com/webmasters/answer/1061943?hl=fr
53. http://fr.openclassrooms.com/informatique/cours/le-referencement-de-son-site-
web/robots-txt
54. http://robots-txt.com/ressources/robots-txt-google/
55. https://developers.google.com/webmasters/control-crawl-index/docs/robots_txt?hl=fr
56. http://www.youtube.com/watch?v=aaBSHslQ0Ew
Chapitre 4
L’analyse des actions
inbound marketing
on-site
Executive summary
►► Comprendre les indicateurs clés de performance,
c’est pouvoir suivre correctement les actions Web
menées et améliorer leurs impacts.
►► Bien mener une analyse, c’est choisir peu
d’indicateurs mais les suivre sur le long terme pour bien
comprendre les tendances et la visibilité de la marque.
►► On distingue quatre sous-ensembles d’analyses
on-site : l’analyse du type de trafic, l’analyse de
positionnement des pages, l’analyse des comportements
utilisateurs sur ces pages et l’analyse sémantique et
thématique des Landing Pages.
Afin de mener à bien les actions de structure de site, de rédaction de pages et
d’améliorations SEO, il est nécessaire de mesurer les résultats et les
évolutions des KPIs définis.
En fonction des objectifs business, ou de visibilité, différentes données
peuvent être analysées et suivies. L’objectif est de savoir si les pages sur
lesquelles arrivent les internautes sont celles qui correspondent le mieux à
leurs requêtes, et si les pages qui convertissent le mieux sont celles qui sont
travaillées. Cela permettra de savoir quelles sont les thématiques qui doivent
être travaillées en priorité et quels résultats concrets sont attendus.
Nous proposerons dans cette partie les analyses principales que l’on peut
effectuer.
Définir les KPIs
KPI est l’acronyme pour Key Performance Indicators. Un KPI est un
indicateur d’aide décisionnel, soit un indicateur de performance des actions
inbound marketing1. Le KPI est une donnée que l’on va suivre pour analyser
les impacts d’une stratégie et prendre des décisions quant à la marche à
suivre2.
Le saviez-vous ? ■ Un KPI est différent d’un objectif business
Un objectif business est ce que l’entreprise souhaite atteindre, ce pour quoi la marque
va créer une stratégie et mettre en place des actions. Un KPI est un indicateur du
succès des actions menées. Peu importe que les KPIs soient quantitatifs ou qualitatifs,
ce sont des indicateurs relativement génériques qui sont constitués de plusieurs
métrics. Une métric est une donnée concrète qui reflète un aspect précis d’une
situation donnée, elle permet d’approfondir une analyse.
Les objectifs fixés par l’entreprise influencent la mise en place d’actions et les KPIs
permettent de mesurer l’impact de ces actions, et par conséquent leur pertinence pour
la marque. Pour bien définir un KPI, les objectifs business seront traduits en objectifs
mesurables, afin de trouver les métric qui correspondent à cet objectif et seront
regroupées en un KPI. Ces KPIs permettront alors de savoir si la marque s’approche
des objectifs fixés.
Il existe de nombreux KPIs. Tout au long de cet ouvrage, nous
présenterons les KPI les plus usuels pour chaque dimension. Pour chaque
aspect de l’inbound marketing, nous proposerons une question à laquelle un
rapport devra répondre. L’objectif est d’apprendre à trouver les questions
appropriées aux besoins, afin d’établir des rapports aidant les prises de
décisions : à chacun de construire par la suite des reportings pertinents pour
l’entreprise.
Comprendre le secteur
Avant de définir les KPIs, il est important de comprendre l’entreprise
propriétaire du site, les exigences du secteur ainsi que les interlocuteurs et le
poste qu’ils occupent. Sont-ils plus intéressés par le CA généré par le site,
l’engagement sur le site, les performances intrinsèques du site, etc. ?
En effet, il importe de pouvoir inscrire la stratégie et les évolutions d’un
site dans son secteur d’activité.
C’est pourquoi il faut bien connaître la concurrence et comprendre ses
manières d’appréhender la construction d’une stratégie d’inbound marketing.
La meilleure solution est de définir deux à quatre acteurs principaux du
secteur, travaillant de manière approfondie l’inbound marketing et, si
possible, d’autres aspects du webmarketing, et de les suivre avec autant
d’attention que le site travaillé. En comprenant leurs stratégies, il est possible
de :
– mieux positionner l’image de la marque ;
– proposer une meilleure communication avec les internautes ;
– bénéficier d’une meilleure connaissance des actions à mettre en place ou
non, selon l’impact escompté sur leurs rankings : il est d’usage de ne pas
limiter l’analyse aux actions inbound marketing, mais de l’élargir à toutes
les actions de marketing, car ces dernières peuvent avoir un impact sur le
référencement. En insérant les retombées d’autres canaux et en partageant
les analyses avec les personnes concernées au sein de l’entreprise, de
nombreuses synergies peuvent être mises en place.
Les principaux KPIs pour l’inbound marketing
Les KPIs doivent être mis en place par l’ensemble des participants aux
différents projets. En effet, l’idée est de pouvoir suivre l’évolution de la
feuille de route. Tous les aspects du projet doivent donc être pris en compte,
sans perdre de vue la vision globale.
Dans une stratégie d’inbound marketing, les KPI nous permettront
de mieux comprendre :
– l’environnement d’un site ;
– le fonctionnement du site ;
– le trafic du site ;
– l’expérience utilisateur sur le site ;
– la notoriété du site dans les SERPs ;
– la notoriété de la marque sur les acteurs du secteur ;
– la présence de la marque sur les réseaux sociaux ;
–…
La mise en place d’un suivi régulier
L’avantage du Web est que l’on peut tout suivre et observer, et ce avec une
grande précision. Cependant tout n’est pas quantifiable. Certaines actions ont
des retombées multiples sur différents environnements On et Off-line et ces
impacts ne seront visibles qu’à long terme, alors que la rentabilité de
certaines actions apparaîtra plus rapidement. Les KPIs sont donc les seuls
indicateurs stables de l’évolution de la notoriété Web d’un site. Ils doivent
donc être définis avec soin afin que l’intégralité des actions soit prise en
compte lors des analyses.
Pour cela, l’important est d’avoir accès à un grand nombre de données de
tout type sur une longue période. En effet, plus l’analyse est faite sur un
grand nombre de données, plus elle est pertinente et plus elle permettra de
comprendre ce qui se passe sur le site.
La performance de ces outils, l’abondance des métrics et la puissance des
tableurs Excel permettent de mettre en place des reportings réguliers sans
efforts. Cela facilitera le retour et les impacts des actions menées et aidera à
une meilleure prise de décision pour les initiatives à venir.
Analyses de logs
Les logs sont les fichiers qui recensent l’activité sur les serveurs. Ces
activités à disposition sur le server peuvent être les visites, les visiteurs, les
heures de visites, etc. L’analyse de ces logs permet de connaître les
personnes, robots et individus qui sont allés sur le site, et ce sans avoir besoin
de passer par un outil tiers.
Cette analyse répond à la question « Le site est-il bien compris ? », que ce
soit par les internautes ou par les spiders des moteurs de recherche.
Il arrive souvent que l’accès aux logs soit difficile à récupérer, car il
requiert une coordination quotidienne avec les équipes techniques. Les
moteurs de recherche ont donc mis à disposition des interfaces pour une
meilleure communication, les Webmasters Tools.
Sur ces interfaces, de nombreuses données concernant le site Web, telles
les statistiques d’exploration et d’indexation, les informations sur les visites
ou les impressions sont accessibles.
Les logs proposent une vision, non seulement de la structure du site, mais
aussi du temps perdu par les robots sur des pages sans intérêt. Ces analyses
sont généralement faites en amont, lors d’un audit ou d’une refonte de site.
On peut aussi regarder l’activité des bots sur le site une fois par mois, afin de
vérifier que tout se passe bien, mais les optimisations sont généralement
d’ordre structurel. Elles seront donc plus lourdes et plus longues à mettre en
place.
Ces données issues des logs ou des Webmasters Tools permettent des
analyses répondant à plusieurs questions.
Le crawl bugdet est-il bien alloué ?
Il faut savoir que les moteurs de recherche assignent un temps de crawl par
site, le crawl budget. Le crawl budget définit le temps passé par les robots sur
le site ainsi que la fréquence de ces crawls.
Le temps de visite des robots sur le site est limité par les moteurs de
recherche afin de pouvoir crawler le plus de sites possible. Pour Google,
l’attribution de ce crawl budget dépend principalement du Page Rank d’un
site3.
L’objectif est donc d’optimiser le crawl budget alloué au site non
seulement pour faciliter l’indexation des pages importantes, mais aussi pour
en augmenter la fréquence de crawl. En effet, pour qu’une page bénéficie de
trafic, il faut donc qu’elle soit crawlée régulièrement, au maximum tous les
15 jours4.
L’analyse des logs permet de comprendre quelles sont les pages visitées
par les robots, combien de temps faut-il pour les crawler et à quelle fréquence
les robots les visitent-elles. Ces analyses permettront d’optimiser le crawl des
bots en réorientant le trafic vers les pages importantes (cf. chap. 1,
« Organiser les contenus »).
La structure du site est-elle comprise ?
Les logs permettent d’identifier les pages que les moteurs de recherche
considèrent comme importantes, mais aussi de vérifier si les pages présentes
dans les SERPs sont celles qui ont été signalées comme importantes (cf.
chap. 1, « Définir les pages importantes pour la notoriété Web »). On s’assure
ainsi de travailler les bonnes pages pour répondre aux requêtes des
internautes et les inciter à la conversion.
Si ce n’est pas le cas, il faut vérifier l’architecture du site ou le Linking
interne. Il est aussi possible qu’une partie des contenus soit bloquée.
L’objectif est de comprendre comment un site est perçu par les robots afin de
réfléchir à une nouvelle structure plus adaptée aux KPIs de la marque.
Les pages sont-elles correctement délivrées ?
Les réponses serveur (cf. chap. 1, « Les codes de réponse HTTP ») sont un
indicateur de la santé d’un site. Ces réponses http donnent des informations
sur la qualité des pages délivrée. Lors du crawl, les robots accèdent aux pages
comme le feraient les internautes, si une page ne répond pas, le serveur
renverra une erreur.
Or un site de qualité est un site qui délivre toutes les pages appelées et ce
sans erreur, autrement dit avec une réponse 200. Si nécessaire, il faut donc
analyser ou corriger les autres réponses http.
Analyses des positions dans les SERPs
L’analyse des positions répond à la question « Le site est-il visible dans les
résultats des moteurs de recherche ? » et surtout « sur quels termes ? ».
Cette analyse des ranking a longtemps été le nerf de la guerre pour les
responsables SEO. Or, comme les SERPs ont évolué et proposent des
résultats toujours plus personnalisés, la notion de position dans les SERPs
devient très relative5. En effet, la position d’un site dans les résultats naturels
dépend de l’activité de l’internaute sur le Web, de ses recherches, de ses
centres d’intérêt et de sa vie sociale sur le Web. Mais elle dépend aussi de sa
localisation et de sa langue de recherche.
Les positions d’un site dans les moteurs de recherche conservent tout de
même un intérêt, mais elles doivent être observées d’une manière plus
globale. Plutôt que de regarder les positions par mots-clés, on s’intéressera
aux positions moyennes par univers lexicaux ou thématiques du site. La
catégorisation en univers des termes importants dont nous avons parlé plus
haut (cf. chap. 2, « Définir les bons termes à travailler ») prend ici tout son
sens, car elle permet une analyse de la visibilité globale d’un univers
thématique dans les SERPs.
Ces analyses permettent donc de mesurer la visibilité. Une analyse
approfondie par mois est amplement suffisante, elle offre la possibilité de
tirer des conclusions et de pouvoir mettre des actions en place, sans être
perturbé par les fluctuations constantes des positions. Une position peut, en
effet, changer d’un jour à l’autre sans réelle raison.
L’évolution des ranking est, avant tout, un état de la notoriété à un instant
donné, mais elle répond aussi à plusieurs questions.
Le potentiel de trafic acquis est-il optimal ?
Le potentiel de trafic correspond aux visiteurs qu’un site pourrait avoir s’il
avait été mieux positionné dans les SERPs. Des analyses montrent que toutes
les positions ne sont pas cliquées de la même manière. En effet, il est prouvé
que les internautes cliquent plus sur les résultats en haut de page que sur les
résultats au centre de la page. Ainsi la visibilité ou le même taux de clics
seront différents selon que le site est en position 1 ou en position 8. De plus,
les internautes cliquent surtout sur la première page de résultats et très peu
sur les pages suivantes. Ils préfèrent affiner leurs recherches s’ils ne trouvent
pas la réponse à leur question en première page.
Le calcul du potentiel de trafic prend donc en compte les taux de clic par
position dans les résultats de recherche, mais il considère aussi le nombre de
personnes ayant réalisé cette requête. Grâce à ce calcul, on peut donc estimer
le nombre de visiteurs supplémentaires après avoir amélioré la position d’une
annonce.
Figure 4.16 – Taux de clic par position > Page 1 de Google
C’est pourquoi le calcul des trafics potentiels des termes de la liste (cf.
chap. 2, « Créer une liste de mots-clés ») permet de connaître les termes à
travailler en priorité.
Le site est-il positionné sur les bons termes ?
Pour qu’un site soit positionné dans les SERPs, il doit être considéré comme
étant une réponse de qualité à une recherche. Le taux de clic et le taux de
rebond sont des indicateurs de cette qualité.
Le taux de clic, aussi appelé CTR pour Clic Through Rate, est le nombre
de clics sur l’annonce par rapport au nombre de fois où celle-ci a été vue.
Le taux de rebond, Bounce Rate, aussi appelé Pogo-Stick, correspond aux
visiteurs ayant abandonné la page juste après y être entré7. Il peut s’agir
d’internautes n’ayant pas eu accès aux contenus – à cause d’une page
d’erreur ou d’un temps de chargement trop long – ou qui ont rapidement vu
que le site ne répondait pas à leurs besoins.
SI ces indicateurs sont mauvais, le site risque d’être rapidement déclassé
par les moteurs de recherche. C’est pourquoi plusieurs actions doivent être
mises en place :
• Vérifier les pages associées aux univers thématiques : il est possible que
les pages ne soient pas associées aux termes clés adéquats. En reprenant la
liste des termes importants et la liste des pages qui leur sont associés, on
pourra identifier des erreurs dans l’architecture du site ou dans la page elle-
même.
• Améliorer la qualité des snippets : les annonces présentent peut-être mal
le contenu des pages. En retravaillant les Titles et méta-descriptions, on
peut s’assurer que les internautes comprennent mieux les informations de
la page d’entrée.
• Augmenter l’adéquation des contenus aux besoins des internautes : cela
peut se faire soit en créant des contenus plus adaptés, soit en retravaillant
l’ergonomie de la page pour mieux mettre en valeur les éléments de
réponse.
Analyses des données de navigation
Les données de navigation permettent de comprendre l’origine et le
comportement des internautes et leurs interactions avec le site. Les moteurs
de recherche prennent de plus en plus en compte ces comportements dans
leurs algorithmes : c’est pourquoi il est important d’avoir des internautes
satisfaits qui reviennent sur le site et le recommandent.
Ces analyses donnent la possibilité d’adapter les contenus et la structure du
site, mais aussi de savoir comment trouver les bons visiteurs pour le site et
comment entrer en relation avec eux.
Qui sont les visiteurs ?
Pour fournir un site qui répond aux attentes des visiteurs, il faut avant tout les
connaître et comprendre leurs attentes par rapport au site. Les données
compilées dans les outils d’Analytics offrent de nombreuses métrics qui
permettent de répondre à ces questions. En effet, une grande quantité
d’informations est disponible pour connaître les visiteurs, leurs lieux de vie,
leurs systèmes d’exploitation, leur fidélité à la marque etc.
L’objectif de cette analyse est d’identifier les visiteurs afin :
– de confirmer que la marque s’adresse bien à son public cible ;
– d’identifier d’autres visiteurs dignes d’intérêt pour la marque et de mettre
en place les actions pour mieux les atteindre.
Ces analyses faciliteront également la mise en place d’une relation client
sur le long terme, car elles donneront des indications qui permettront
d’adapter le discours et les contenus du site, pour être toujours plus proche
des besoins de l’utilisateur.
Comment les visiteurs naviguent-ils sur mon site ?
S’intéresser à la manière dont l’internaute explore le site – ce que l’on appelle
le parcours utilisateur ou chemin de navigation – permet d’optimiser le site et
de faciliter les conversions. À cette fin, il est nécessaire de connaître :
– les pages parcourues selon la page d’entrée ;
– les pages de sorties ;
– les pages qui convertissent ;
– le comportement de l’internaute sur les pages importantes ;
– le comportement de l’internaute après la réalisation d’un KPI.
Toutes ces informations permettent de retracer le parcours utilisateur et de
constater comment le site est perçu par les visiteurs. Ainsi, il est possible
d’établir un temps optimal de navigation et de recenser les points forts et les
points faibles du site. On pourra alors améliorer la navigation sur le site et les
actions marketing pour créer une relation de confiance sur le long terme et
démarquer la marque de ses concurrents.
Analyses de pages
Analyser les pages permet de répondre à la question « mes pages sont-elles
performantes ? ». Il s’agit donc de savoir si le taux de conversion des pages
du site est optimal. Le taux de conversion est la capacité d’une page à
convertir un utilisateur qui la découvre.
L’idée de cette analyse est de coupler la visibilité dans les SERPs avec la
qualité de la page et sa capacité à transformer un internaute en client ou
membre de la communauté.
L’analyse porte donc ici sur les URLs ayant généré des visites ou des
conversions et sur la Landing Page associée.
Les mots-clés sont-ils en adéquation avec les pages ?
Il est important que la page soit en adéquation avec la requête de l’internaute
pour deux raisons :
• Améliorer la conversion de la page.
• Réduire les taux de rebonds.
Cette analyse permet de mieux connaître les mots-clés utilisés pour arriver
sur une page. Elle informe donc si la bonne page qui apparaît lors d’une
requête sur un moteur de recherche répond aux besoins de l’internaute ou s’il
existe une page plus pertinente. Il est possible que cette page ne soit pas
connue ou n’ait pas été comprise par les moteurs de recherche. Elle rejoint
donc l’analyse citée plus haut (cf. chap. 4, « Le site est-il positionné sur les
bons termes ? ») en ajoutant la visibilité sur des termes n’appartenant pas à la
liste de termes clés. Ces nouveaux termes sont issus des outils d’Analytics,
mais aussi des ancres de liens entrants.
Quelle est la typologie des requêtes ?
En observant ici si une requête est générique, middle ou long tail, on
comprend mieux le positionnement de la page sur les moteurs de recherche.
Ces analyses sont généralement couplées avec d’autres métrics pour :
– mieux connaître les internautes grâce à une connaissance du champ lexical
utilisé ;
– avoir un meilleur aperçu de la compréhension des moteurs de recherche
pour les pages.
Grâce à ces informations, la marque peut améliorer les pages en question et
faire évoluer le site et ses contenus pour augmenter sa visibilité dans les
SERPs et sur le Web.
Les conversions atteignent-elles les objectifs ?
Une page peut répondre aux attentes du visiteur, mais ne pas générer de
conversions.
Associer une page d’entrée aux conversions effectuées sur la page ou lors
d’une visite sur le site permet de définir les Landing Pages fortes et les
Landing Pages faibles en termes d’ergonomie, mais aussi d’architecture du
site. Les analyses, les enquêtes, les sondages ou les A/B testing permettront
d’identifier les faiblesses des pages ou du tunnel d’achat et d’y remédier.
La première étape de la notoriété Web passe donc par un site Web de
qualité. La qualité inbound marketing d’un site se comprend par une structure
claire des informations présentées, grâce à une détermination nette des
thématiques abordées sur le site, ainsi que des termes utilisés pour y faire
référence. Ce n’est qu’une fois ces éléments bien définis que l’on intégrera
les améliorations d’ordre plus technique pour faciliter le passage des robots
des moteurs de recherche sur les pages du site Web et plus particulièrement la
lecture de ces pages.
Une fois que l’on s’est assuré que le site avait la qualité nécessaire pour
répondre aux besoins des internautes, la marque peut alors commencer une
campagne de communication off-site.
L’essentiel
►► Il est important d’avoir des KPIs quantitatifs
et qualitatifs afin d’optimiser tant le fond que la forme et
proposer un parcours et une expérience unique
à l’utilisateur.
►► L’analyse des logs fournit de précieuses
informations sur les visiteurs et leurs comportements. Ces
analyses sont, pour la plupart, également disponibles dans
les outils Analytics.
►► Malgré une augmentation de la recherche
personnalisée, analyser les positions d’un site Web
sur une liste de termes clés permet de comprendre
la visibilité réelle d’un site, et plus spécifiquement
de ses pages, et l’accessibilité d’une marque
dans les moteurs de recherche.
►► Pour analyser les pages et le comportement des
internautes, il ne faut pas hésiter à regarder les chiffres
dans le détail et adapter les persona aux résultats trouvés.
Notes
1. http://www.seotakeaways.com/understanding-key-performance-indicators-kpis-just-like-
that/
2. http://fr.slideshare.net/SEOCamp/seo-campus-next-idea
3. http://www.stateofdigital.com/guide-crawling-indexing-ranking/
4. http://www.blindfiveyearold.com/crawl-optimization
5. https://www.youtube.com/watch?v=950eW6nH_LM
6. http://fr.slideshare.net/Synodiance/synodiance-etude-seo-taux-de-clic-06092013/1
7. http://moz.com/blog/solving-the-pogo-stick-problem-whiteboard-friday
Partie 2
Construire sa
réputation Web
Après avoir défini l’architecture du site, construit chaque page avec un code
clair, rédigé des contenus de qualité et facilité l’accès du site aux moteurs de
recherche, il faut à présent construire une notoriété pour la marque sur le
Web.
Pour cela, nous allons étudier les actions permettant d’améliorer la présence
d’une marque dans les moteurs de recherche. Ces actions s’effectuent dans le
ou les environnements dans lesquels évolue le site Internet, ainsi que tous les
médias appartenant à la marque. Il faut donc s’extraire d’une logique
d’amélioration des supports appartenant à la marque pour instaurer une
communication auprès des publics réceptifs et promouvoir l’utilisation de la
marque comme solution aux problèmes des internautes. On entre ici dans une
dimension marketing de promotion des supports. Cet ouvrage ne traitera que
la communication, autrefois appelée « SEO off-page », dont le but est de
faciliter l’accès à la marque auprès d’internautes en recherche sur les moteurs
génériques mais aussi sur les moteurs spécialisés comme ceux des réseaux
sociaux ou des blogs.
Les dernières évolutions1 des moteurs de recherche nous montrent que
l’univers du SEO off-page connaît de nombreux changements. En ajoutant de
nouveaux facteurs à leurs algorithmes de classement, les moteurs de
recherche donnent une plus grande importance aux contenus et élargissent le
champ d’action pour atteindre une bonne visibilité en ligne. De nombreuses
techniques utilisées pour promouvoir les contenus sur le Web sont devenues
inutiles et font place à de nouvelles stratégies. Le travail se fait alors moins
sur les liens vers un site Internet que sur la construction d’une notoriété
globale sur le Web.
On entre ici dans le cœur des actions inbound marketing, dont l’objectif est
de proposer une réponse à des internautes demandeurs d’informations.
Notes
1. http://searchengineland.com/2013-the-year-seo-changed-forever-178530
Chapitre 5
Des campagnes
de liens naturels
Executive summary
►► Plus que recevoir des liens, un site doit à présent
s’attacher à recevoir des liens de qualité autrement dit,
des liens qui lui apportent des visiteurs qualifiés et à
même de devenir des clients pour la marque.
►► Le content marketing, c’est la capacité à créer
des contenus si intéressants que les internautes se
chargeront de leur promotion.
►► La manipulation des liens a eu pour conséquence
un recadrage des moteurs de recherche sur la manière
dont les liens sont pris en compte. De nombreuses
techniques ne sont donc plus efficaces et les liens doivent
prouver leur validité auprès des internautes.
La principale caractéristique des évolutions d’algorithmes de classement
correspond à un retour aux sources pour les moteurs de recherche. Les liens
doivent retrouver une vraie utilité pour les internautes. Il est donc important
de réfléchir à la qualité des contenus et à l’interaction qu’ils génèrent
naturellement. C’est uniquement de cette manière que l’on pourra améliorer
la notoriété sur le Web et obtenir ainsi de meilleures positions pour site dans
les SERPs et finalement atteindre une audience plus large.
Le linking sous sa forme générique concerne tous les liens pointant vers
une ou plusieurs pages d’un site. Ces liens peuvent être faits de manière
naturelle, mais le travail d’un bon inbound marketeur est d’inciter d’autres
sites à faire des liens sur les pages Internet d’une marque donnée, surtout
celles qui seront mises en avant dans les SERPs.
Linking interne versus linking externe
Le linking peut porter sur deux aspects :
• Les liens au sein du site dont nous avons parlé lors de la présentation du
maillage interne (cf. chap. 1, « Une navigation qui simplifie l’accès
aux informations »).
• Les liens provenant d’autres sites Web, on les appelle linking externe.
Ce linking externe est composé de deux types de liens : les liens entrants et
les liens sortants.
Des liens sortants maîtrisés
Les liens sortants sont tous les liens qui envoient les internautes vers des
pages Web hors du nom de domaine du site travaillé.
Il est important de les connaître et de les actualiser pour les raisons
suivantes :
• La réputation : la mauvaise réputation d’un site déteindra sur les sites qui
lui font des liens. On considère qu’un site a mauvaise réputation dans trois
grands cas de figure : soit ces sites ont une thématique différente des pages
vers lesquelles ils font des liens, soit les sites ne sont plus en ligne, soit les
sites sont des fermes de liens. Une ferme de lien est un site dont l’unique
objectif est de faire des liens pour des raisons SEO. Les contenus sont donc
inexistants ou de faible qualité et l’insertion de lien est généralement
payante.
• Les pages de destination : proposer des liens vers des contenus
complémentaires sur des pages toujours en ligne donne une bonne image
du site. En effet, arriver sur une page 404 ou un contenu sans intérêt
décevra les internautes ainsi que les bots. Les visiteurs auront donc du mal
à faire confiance aux autres contenus consultés et le site ne sera pas jugé
comme de qualité.
• Le nombre de liens : les moteurs de recherche définissent la pertinence
d’une page pour un mot-clé en fonction du nombre de liens qu’elle reçoit
(cf. chap. 1, « Le Page Rank »). Un lien n’a pas la même importance pour
les moteurs de recherche, et par conséquent pour le calcul du PR, qu’il
provienne du header, du footer, d’une barre latérale ou du corps de texte.
Tous les liens internes ou externes, aussi appelés liens entrants ou liens
sortants, ne se valent donc pas.
Des liens entrants pertinents
Les liens entrants sont donc les liens qui envoient des internautes vers des
pages du site travaillé. C’est dans ce contexte que l’on parle de sites référents.
Ces liens entrants sont donc les premiers garants d’une bonne notoriété sur
Internet. Obtenir des liens naturels est donc vital au site et à la marque. Des
contenus vivants et repris par les internautes amélioreront la visibilité sur
Internet, mais aussi les positions d’un site.
Lorsque l’on parle de linking, on comprend généralement les liens
entrants, aussi appelés « backlinks ». Nous parlerons donc exclusivement de
ces liens dans le reste du chapitre.
Les objectifs de linking
Même s’il est impossible de contrôler l’intégralité des liens, il est important
de communiquer les contenus publiés sur un site Web afin de les faire
connaître. C’est dans ce cadre que se travaille la stratégie de linking. La
communication Off-Page met en place plusieurs types d’actions. Certaines
actions auront pour but une amélioration des positions, d’autres se
rapprocheront d’une stratégie de communication similaire à des Relations
Presse. Il est important de bien réfléchir à la stratégie de communication Off-
Page pour qu’elle soit cohérente et c’est pourquoi il faut privilégier, dans la
mesure du possible, la stratégie de long terme la plus naturelle possible, tout
en maîtrisant les liens sortants et les liens entrants. Les stratégies de court
terme pourraient avoir un impact négatif sur l’image de la marque.
Voici une liste non exhaustive de ce qui doit être achevé grâce aux liens
entrants :
• Améliorer le Page Rank : de nombreux liens de qualité permettront
d’augmenter le PR du site et donc de mieux apparaître dans les SERPs.
• Améliorer le Trust Rank : le site doit devenir une référence dans le
domaine, de la même manière que la marque doit devenir une référence
pour les produits. C’est uniquement de cette manière que le site sera jugé
crédible par les internautes, et donc par les bots des moteurs de recherche.
Plus un site aura une forte autorité, meilleur sera le positionnement dans les
SERPs.
• Créer de l’usage : il faut fidéliser les visiteurs grâce à des contenus
attractifs et réguliers. Le site doit devenir un incontournable du secteur. Les
robots des moteurs de recherche viendront alors le crawler régulièrement.
• Développer l’image pour le site : plus l’image sera associée à des adjectifs
positifs, plus le nombre de visites et de liens augmentera, ce qui améliorera
les positions dans les SERPs. Dans un monde où le SEO est intimement lié
à l’image et à la communication, c’est un cercle vertueux dans lequel le site
doit s’inscrire.
• Orienter l’activité sociale : l’Internet 2.0 est un Internet où les internautes
eux-mêmes interagissent avec les produits et les contenus. C’est pourquoi
il faut faciliter et contrôler ces interactions (cf. chap. 6, « Le SMO, une
réputation contrôlée »).
• Créer de la sémantique déportée : les ancres sont la partie la plus
importante du linking externe, car ce sont elles qui décrivent à l’internaute
ainsi qu’aux robots la page sur laquelle ils vont atterrir.
• En travaillant les ancres des liens qui pointent vers une page : on
transfère le poids des mots utilisés dans cette dernière vers la Landing
Page. Les ancres doivent utiliser des termes différents, mais toujours en
lien avec la thématique de la page, on parle alors de liens contextualisés.
• Certaines ancres devront conserver des liens avec le nom de marque
(avec ou sans le.com), afin de ne pas sur-optimiser (cf. chap. 5, « La sur-
optimisation et la désoptimisation ») ces dernières.
L’appui sur les liens existants
Mais avant de se lancer à corps perdu dans la recherche de nouveaux liens,
les liens qui pointent déjà vers le site doivent être analysés et améliorés.
Analyser les liens existants
L’analyse de liens permettra de constituer une liste d’URLs qui sera mise en
relation avec le trafic – et le type de trafic – qu’elles apportent ou d’autres
KPIs (cf. chap. 4, « Définir les KPIs »). Les sites à fort potentiel pour le site
travaillé et la marque seront ainsi mis en valeur. L’objectif ici est d’identifier
si un influenceur du secteur fait déjà des liens. Cela permet de déduire la
pertinence de ces liens pour un site ou la nécessité d’optimiser les pages
émettrices et réceptrices de ces liens. Il peut même s’avérer qu’aucun de ces
liens ne soit retravaillé.
Les améliorations de ces backlinks peuvent se faire en deux temps. Dans
un premier temps, elles passent par celles des Landing Pages, afin de
permettre aux visiteurs de mieux naviguer sur le site, de convertir plus
facilement ou tout simplement de mieux comprendre le message. Dans un
deuxième temps, elles consistent à contacter les sites originaires des liens
identifiés comme potentiellement apporteurs de trafic. Les améliorations de
ces liens sont réalisées de plusieurs manières :
• Bénéficier des mêmes liens que la concurrence : après avoir sélectionné
les sites de meilleure qualité faisant des liens vers la concurrence, il est
possible de les contacter directement pour un partenariat ou de faire valoir
des contenus qui peuvent les intéresser sur leurs réseaux. L’analyse
manuelle du site est incontournable pour mener cette pratique à bien.
• L’amélioration concrète des liens sur le site : ces améliorations passent
par l’utilisation de meilleures ancres pour une sémantique déportée ou
encore par le positionnement des liens sur la page. En fonction de la
relation qui s’établit, il est possible de créer un partenariat pour bénéficier
de plus de liens.
• L’augmentation des liens provenant de ce site : cela ne doit avoir lieu que
pour les sites à très fort potentiel ce qui suppose que la thématique justifie
ce fort apport de liens. En effet, cette pratique risque de s’avérer inefficace,
si elle semble suspecte et peu naturelle aux robots de moteurs de recherche.
Identifier les liens à risque
Ces analyses permettront aussi d’identifier les liens à risque1. Un lien à risque
est un lien provenant d’un site ou d’une page dont le but est de faire des liens,
quitte à tromper les moteurs de recherche. Ces pages sont généralement de
faible qualité avec un PR faible et un contenu inexistant ou peu cohérent avec
la page, ou encore faisant de nombreux liens vers des sites aux thématiques
trop variées.
Ces liens peuvent être dûs :
– à un mauvais travail de linking ;
– à un concurrent tentant de discréditer la marque ;
– à une mauvaise compréhension du message par les acteurs du Web.
Ces liens à risque sont le plus souvent issus de pages et de sites Web
reconnus par les moteurs de recherche comme étant à bannir. Le filtre
Pinguin a signalé ces sites. L’important est de les identifier pour pouvoir les
« désavouer », ce qui revient à demander aux moteurs de recherche de ne plus
les prendre en compte, grâce aux outils de « désaveu » de liens mis à
disposition par les moteurs de recherche2.
Conseil
Attention, certaines erreurs doivent être évitées lors de la soumission de liens à
désavouer3.
Trouver des liens potentiels
Ces analyses mettront aussi en avant les liens potentiels. Les liens potentiels
se trouvent sur les sites qui parlent des produits, de la marque ou du site
travaillés sans faire de liens. Ces sites peuvent être des sites partenaires ou
des sites de clients ou tout simplement des sites du secteur.
On appelle cette technique le link réclamation. Cette dernière permet de
trouver les Web Mentions4, les sites mentionnant la marque sur le Web ainsi
que les liens cassés – qui envoient sur une page du site qui n’existe plus – et
de demander un lien.
Pour demander un lien, il faut contacter les propriétaires de ces sites pour
leur demander d’ajouter un lien vers la page la plus pertinente du site, en
fonction des articles déjà en ligne.
FICHE
PRATIQUE
LES OUTILS POUR ANALYSER LE LINKING
EXISTANT
De nombreux outils permettent de trouver les sites, blogs ou autre
acteurs faisant un lien vers une marque. La lecture de ces outils, le
plus souvent payants, peut sembler assez complexe, voici quelques
points à savoir avant de commencer votre analyse :
• Si plusieurs liens proviennent du même site, l’impact est diminué. Il
est donc important de travailler le ratio de « backlinks » par « site
référent ».
• L’outil de PR n’est plus supporté par Google depuis de nombreuses
années, inutile de perdre du temps à estimer le PR de chaque site
faisant un lien, concentrez-vous sur la qualité de ce dernier, sur la
base de votre jugement.
• L’ancre du lien est un facteur déterminant pour la compréhension de
la thématique de la Landing Page.
• La confiance accordée aux pages, et aux sites en général, est
un marqueur fort de la capacité à gagner plus de liens.
• Même s’il n’y a pas de lien, le fait d’être cité est gage de compétence
pour une marque, et impacte de manière indirecte sur la notoriété.
L’analyse des liens entrants peut aussi se faire grâce à des
commandes proposées par une grande majorité de moteurs de
recherche. Voici à quoi ressemblent certaines des commandes
Google :
• site : permet de restreindre la recherche à certains sites ou domaines.
• related : permet de rechercher des sites similaires à une adresse Web
spécifique.
• allinurl : permet de restreindre la recherche aux pages contenant le
mot (de la requête) dans l’URL seulement.
• inurl : permet de restreindre la recherche aux pages contenant le mot
(de la requête) dans l’URL et n’importe où dans la page.
• allintitle : permet de restreindre la recherche aux pages contenant le
mot (de la requête) dans le titre seulement.
• intitle : permet de restreindre la recherche aux pages contenant le mot
(de la requête) dans le titre et n’importe où dans la page.
• inanchor : permet de restreindre la recherche aux pages contenant un
mot précis dans les textes de leurs backlinks.
• intext : permet de restreindre la recherche à la balise body des pages
HTML.
• cache : permet de montrer la version enregistrée en cache de la page.
Ces commandes peuvent être couplées entre elles afin de faire une
recherche plus approfondie, apprenez à les utiliser pour trouver
rapidement ce que vous cherchez.
Les partenariats de liens
Une fois le linking existant bien travaillé, il faut accroître la notoriété du site
sur Internet en s’alliant à d’autres acteurs de l’écosystème.
Comme nous l’avons vu tout au long de ces pages, la notoriété passe par
une bonne compréhension d’un site, mais surtout par une forte présence sur le
Web via des acteurs qui parlent d’une marque.
Figure 5.1 – La proposition de partenariats de liens
Pour cela, présenter un contenu de qualité est le pilier d’une stratégie de
liens efficace5. En effet, il est plus facile de communiquer et de partager un
contenu que l’on apprécie. Pour ce faire, plusieurs stratégies existent pour
faire connaître un site. Nous détaillerons ci-dessous les stratégies
d’acquisition de liens les plus connues dans l’ordre croissant de qualité et
donc d’impact sur le référencement à long terme.
La notion de qualité de la stratégie de lien est primordiale, car elles n’ont
pas toutes le même impact sur un site Web. Les filtres Penguin nous amènent
à penser que certaines d’entre elles sont amenées à disparaître alors que
d’autres devront évoluer. Nous avons pris le parti de les présenter afin que le
choix de la stratégie de liens soit fait en connaissance de cause.
Achat et échange de liens
Avant toute chose, il me semble important de parler de l’achat et de l’échange
de liens. Ces pratiques sont fortement déconseillées parce que sanctionnées
par les moteurs de recherche ; cependant elles sont encore utilisées par des
acteurs peu soucieux de la notoriété et du référencement de leurs clients sur le
long terme.
L’achat de lien est le fait de donner de l’argent à un propriétaire de site
Web, afin qu’il insère un lien vers les contenus du site travaillé. Ce lien peut
être à un endroit fixe du site ou bien être contextualisé dans le corps d’un
texte.
L’échange de liens est une pratique presque aussi peu recommandée que
l’achat de liens. Cette pratique consiste à insérer un lien vers le site de l’autre.
Deux sites qui s’échangent mutuellement des liens sont facilement repérables
par les moteurs de recherche. Si les bots trouvent trop fréquemment des liens
mutuels entre deux sites, ils comprendront qu’il y a eu entente et
considéreront le lien artificiel et peu pertinent.
Les réseaux de liens
On retrouve l’idée de galaxie de liens sous un grand nombre de termes, link
boosting, tiered link building, pyramide de liens ou encore link wheel.
Tous ces termes désignent en réalité une même approche : faire des liens
vers des pages qui font, elles-mêmes, des liens vers le site dont on veut
booster la notoriété.
Au fil des années, les techniques d’échange de liens ont été améliorées
pour échapper à la surveillance des moteurs de recherche. À la place d’un
échange de liens classique, il est préférable de passer les liens par des sites
tiers – annuaire, réseaux sociaux ou bookmarks. On crée donc des galaxies de
liens ou des univers de liens. Cette stratégie a été mise en place à grande
échelle par des agences surtout. Ces dernières ont créé des univers de sites et
de blogs parlant de différentes thématiques : elles vendent également des
liens sur ces sites. On appelle cela une « ferme de liens » – link farms. Ces
fermes font l’objet de pénalités Google via Pinguin depuis 2013 (cf. chap. 1,
« Les filtres pour l’index de Google »). Passer par ces agences ne sera plus
d’aucune utilité ; c’est en outre prendre le risque de mettre le site en danger.
Cette mise en place est chronophage, rébarbative et ne donne des résultats
que sur le long terme à condition qu’une page bénéficie déjà de nombreux
liens de qualité. Travailler à plein temps sur cette méthode risque donc d’être
très frustrant pour la personne en charge de ce projet, mais aussi pour ses
supérieurs. De plus, pour qu’elle ne soit pas considérée comme abusive par
les moteurs de recherche, la mise en ligne des liens doit être étalée dans le
temps. C’est l’unique chance pour que les liens soient considérés comme
naturels. C’est pourquoi nous déconseillons l’utilisation de cette technique.
Pour une utilisation correcte, les galaxies de liens doivent être proches du
fonctionnement naturel du Web.
Les stratégies d’acquisition de liens naturels
Il existe d’autres manières de bénéficier de liens sans pour autant user de
stratagèmes. C’est ce que l’on appelle les liens naturels. Certaines actions
marketing peuvent faciliter l’apparition de ces liens mais ils restent pertinents
car ils sont déterminés par le responsable du site pour des raisons
d’adéquation avec ces contenus.
■ Les annuaires
Les annuaires en lignes sont comme les annuaires papiers, des espaces
recensant des sites et les catégorisant. Il suffit donc d’inscrire un site pour
recevoir un lien.
Ces sites sont, de par leur nature, de très faible qualité pour les moteurs de
recherche. En effet, étant donné que les informations sont éditées par le
responsable du site et que certains annuaires sont payants, les moteurs de
recherche mettent en doute la qualité et la fiabilité des informations fournies.
Elles peuvent effectivement être aisément manipulées. Les annuaires ne
doivent donc pas être au centre de la stratégie de linking. À terme, ces
derniers ne seront probablement plus pris en compte par les moteurs de
recherche. Le premier annuaire, Dmoz, pourtant un des plus réputé, semble
déjà ne plus être pris en compte par Google6.
Pour bénéficier de liens de meilleure qualité provenant d’annuaires, il faut
inscrire un site sur des annuaires de « niche »7. Les annuaires spécialisés par
secteurs d’activité, villes ou régions, seront de meilleure qualité que les
annuaires génériques. En effet, même s’ils s’avèrent inutiles pour la stratégie
de linking, ils pourront apporter un trafic qualifié, en captant l’attention
d’internautes en quête d’informations, de produits ou de services en rapport
avec l’activité ou les produits du site. De même, en étant mentionné sur
d’autres sites, la marque pourra dominer les SERPs sur certaines requêtes et
bénéficiera de trafic supplémentaire.
Afin de bien réussir une stratégie d’inscription dans des annuaires, tant
pour bénéficier d’un lien de qualité que pour être visibles auprès des
internautes :
– la description doit être unique sur chaque annuaire afin d’éviter le contenu
dupliqué ;
– l’inscription doit être faite sur des annuaires n’imposant pas de lien retour,
l’échange de lien étant pénalisé par Google, mettre un lien retour annulerait
les efforts ;
– les informations concernant la marque doivent être homogènes. Le numéro
de téléphone, l’adresse, les horaires d’ouverture, la thématique de
l’activité, tout doit être rigoureusement identique, afin de montrer un
professionnalisme aux internautes et de ne pas les déconcerter dans leurs
tentatives de prise de contact.
■ Les communiqués de presse
Les communiqués de presse sont des dossiers contenant des informations à
propos d’un sujet. Il en existe soit à propos d’une entreprise, soit d’une
actualité bien précise.
En plus des communiqués de presse traditionnels bien connus des RP
(Relations presse), il est possible de faire des communiqués de presse dont
l’unique objectif est d’obtenir un lien vers le site.
La stratégie la plus commune en SEO est de poster un communiqué de
presse ou un article sur des sites dédiés. On trouve en effet sur le Net de
nombreux sites offrant de mettre en ligne un article qui fait un lien vers un
site grâce à la rédaction de communiqués de presse. Ces communiqués ne
seront pas lus par les journalistes, l’objectif est uniquement de recevoir un
lien.
Comme pour les annuaires, les liens provenant de ces sites seront de très
faible qualité, car la thématique du site ne correspond pas forcément à
l’univers de la marque, mais aussi du fait du faible Trust Rank de ces sites.
Afin que la rédaction de communiqués de presse sur ces sites ait un intérêt
pour booster un site dans les moteurs de recherche, il faut élaborer :
– un site de communiqués de presse de la thématique du site ;
– un contenu unique pour ne pas pénaliser les liens avec du duplicate content
(cf. chap. 2, « Le duplicate content »).
Par contre, l’utilisation de communiqués « traditionnels » pour améliorer la
notoriété sur le Web facilite grandement le partage des informations
concernant une marque sur Internet. Ces communiqués sont rarement utilisés
pour la notoriété Web, on trouve plusieurs avantages à ce qu’ils y soient
disponibles :
• Les contenus seront en ligne pour un temps indéfini : il suffira donc
d’envoyer un lien mail pour les partager.
• Les contenus seront facilement modifiables : si une erreur a été commise,
plus besoin de renvoyer tout le dossier presse.
• Les communiqués de presse seront accessibles à un plus large public.
Au lieu de les envoyer à une liste de contacts, tous les blogueurs ou
journalistes encore inconnus pourront venir les consulter.
• Les liens insérés dans ces contenus bénéficieront de la notoriété de la
marque.
• Les liens contextualisés pour les pages du site seront facilités.
Ainsi, l’idée de faire vivre les communiqués de presse sur le Web n’est pas
à négliger. Ces derniers doivent non seulement être disponibles sur le site
mais aussi être partagés sur les réseaux sociaux ou d’autres espaces lorsque
cela est pertinent. Il faudra alors adapter la rédaction au Web (cf. chap. 5,
« La rédaction de contenus de qualité ») et insérer les balises évitant les
contenus dupliqués (cf. chap. 2, « Le duplicate content »).
■ Le comment seeding
Une autre manière d’obtenir des liens est de commenter des articles de blogs,
on parle alors de comment seeding. Ces liens devront là aussi être
contextualisés, notamment en étant postés sur des articles ayant la thématique
du site travaillé. Faire des commentaires est une manière aisée de créer des
liens naturels, mais surtout de se faire connaître auprès d’une communauté
correspondant aux publics cibles de la marque. C’est pourquoi les
commentaires doivent apporter quelque chose à ce qui a déjà été dit, ils
ajoutent ainsi de la valeur à l’article.
Cependant cette technique est loin d’être fiable, car les modérateurs de ces
blogs peuvent supprimer les commentaires s’ils les jugent trop commerciaux.
De plus, il est fort probable que ces liens soient en « nofollow ».
■ Le guest blogging
Faire du guest blogging8, c’est publier un contenu sur un autre site que le
sien. Autrement dit, rédiger un article en tant qu’invité sur un blog. Cette
technique peut se faire de manière unilatérale ou bilatérale.
Il est conseillé d’utiliser le guest blogging dans une logique de
communication et non uniquement pour accéder à des liens. Les articles
rédigés doivent être pertinents, il n’est pas question ici de faire du publi-
rédactionnel. Les moteurs de recherche sont très vigilants en ce qui concerne
les liens achetés9 et un guest blogging « spammy » risquerait de desservir la
marque. L’idée du guest blogging est de promouvoir les contenus et
l’expertise d’une marque sur d’autres réseaux. Internet regorge
d’emplacements sur lesquels une marque peut s’exprimer et se faire valoir10,
il suffit juste d’être créatif et innovant.
Le guest blogging offre des avantages pour l’invité :
• L’accès à un autre public : en publiant sur le site d’un autre, la notoriété
augmente, tout comme le trafic vers le site travaillé.
• Un lien de qualité : dans l’article, ou grâce au paragraphe présentant la
marque, on insère un lien dont l’ancre (cf. chap. 1, « Les ancres des liens »)
est optimisée pour la marque.
• Une visibilité pour la marque : en signant un article, la marque met son
image en jeu, en même temps qu’elle partage sa vision d’un sujet
spécifique.
Pour autant il apporte aussi de nombreux avantages au partenaire :
• Un point de vue unique et de qualité : la mise en ligne d’un article permet
au propriétaire du site d’asseoir sa position d’influenceur, de donner un
autre point de vue sur son sujet et d’éviter la rédaction d’un contenu.
• L’accès à une audience plus large : en informant de cette participation sur
un autre blog, la communauté d’une marque peut être tentée de visiter le
blog du partenaire.
Afin que ces publications soient efficaces, il faut sélectionner avec soin les
blogs sur lesquels la marque désire communiquer11. Voici quelques critères
importants à prendre en compte :
• La thématique du site/blog ou de la catégorie dans laquelle se trouvera la
publication.
• La qualité de l’audience (nombre de visites sur le site, notoriété et activité
sur les réseaux sociaux).
• La qualité du site (structure, contenu et PR).
Nous aborderons dans la partie sur le link baiting la manière de rédiger des
contenus. Toutefois, il arrive encore que certains partenariats impliquent un
partage de contenus. On propose, dans la mesure du possible, d’écrire un
contenu spécifique pour le blog partenaire. Si le partenaire désire malgré tout
reprendre un contenu présent sur le site, un lien vers la page où se trouve le
contenu original12 devra être mis sur la page reprenant ce contenu. Il est aussi
possible d’utiliser des actions contre les contenus dupliqués (cf. chap. 2, « Le
duplicate content »).
Si le contenu dupliqué est dû à un Webmaster mal intentionné qui aurait
repris un contenu et que la prise de contact pour qu’il supprime la page n’est
pas probante, il est possible de demander à Google de supprimer ce
contenu13.
Content marketing et link baiting, des liens
naturels
Le content marketing consiste à communiquer autour de la marque sans que
la vente soit l’objectif premier. En SEO, cette manière de procéder est
associée au link baiting, la pêche aux liens. En créant un contenu de qualité,
les acteurs du Web désireront faire des liens vers ces contenus14.
Au sein de l’inbound marketing, le content marketing revient à créer un
contenu montrant la compétence et l’autorité d’une marque sur un sujet. En
devenant un expert et une marque à forte notoriété, les produits ou les
services se vendront « naturellement ». C’est pourquoi il faut créer un
contenu original, réfléchi et intéressant, mais aussi instaurer des relations
avec les internautes sur le long terme. En effet, ce sont eux qui deviendront
les porte-parole et les ambassadeurs de la marque. La réflexion ne doit donc
pas porter uniquement sur l’acquisition immédiate de liens, mais s’inscrire
dans une stratégie de communication à long terme.
Cette manière de travailler se rapproche du concept de link earning dont
parle Dany Sullivan15 : il insiste sur l’importance de la création de liens ayant
un intérêt réel pour les internautes. Ces liens sont plus durs à acquérir, mais
mieux valorisés par les moteurs de recherche. On se rapproche ici de l’idée
initiale des liens sur Internet : permettre à l’internaute d’en apprendre plus sur
un sujet en cliquant sur différents liens.
La sélection des contenus à promouvoir
Cette stratégie de link baiting pourra être mise en place sur des contenus du
site mais aussi sur le blog de la marque. Ils seront choisis en fonction de
plusieurs éléments.
■ Recherche de contenus adaptés à l’acquisition de liens
En fonction de la stratégie de communication décidée, il est possible d’avoir
des contenus à forte valeur ajoutée au sein même d’un site Web. Ces
contenus ne se trouvent pourtant pas sur tous les sites Internet ; la structure
d’un site et le secteur d’activité sont décisifs pour distinguer ces contenus.
Les sites informatifs, tout comme les blogs, sont très utiles pour relayer les
actualités d’une marque. C’est pourquoi ils constituent des lieux privilégiés
pour travailler une stratégie de liens. Afin de trouver les pages Web dont les
contenus favorisent les liens, les Landing Pages (cf. chap. 1, « Définir les
pages importantes pour la notoriété Web ») destinées à être positionnées dans
les moteurs de recherche contiennent le plus souvent les contenus à forte
valeur ajoutée. C’est en effet là que les contenus répondant aux besoins des
internautes ont été publiés ; elles sont donc plus à même de bénéficier de
liens ou de signaux favorables sur les réseaux sociaux. Il est par contre
important de promouvoir les bonnes informations sur les bons réseaux. La
page bénéficiant d’un lien doit être adaptée au public ou à la communauté y
ayant accès. De plus, alors que certaines Landing Pages ont pour objectif de
faire découvrir la vision d’une marque, d’autres s’adressent à un public déjà
connaisseur. Il est donc important de relier les données visiteurs disponibles
dans un CRM avec la connaissance de la communauté pour proposer des
contenus adéquats.
FICHE
PRATIQUE
DISTINGUER LES TYPES DE MÉDIAS
WEB POUR CONSTRUIRE DES CONTENUS
EFFICACES
On distingue trois grands types de sites Web :
Les sites informatifs
Aussi appelés sites Corporate, lorsqu’ils concernent une entreprise,
ces sites présentent des informations sans autoriser les internautes à
interagir avec le site que ce soit via des forums, le dépôt de
commentaires ou les réseaux sociaux. Les sites informatifs englobent
aussi tous les sites associatifs, les sites de presse, les blogs et tout
autre site qui ne propose pas de vente en ligne. Ces sites possèdent,
généralement, de nombreuses pages à forte valeur ajoutée dont les
contenus sont facilement partageables sur le Web.
Les sites marchands
Ces sites sont tous les sites proposant des achats de produits ou de
services en ligne. Ce sont, le plus souvent, des sites dynamiques
(cf. chap. 3, « Travailler des URLs dynamiques ») dont la valeur
ajoutée pour un nouvel entrant est faible. En effet, la structure des
pages invite peu à la découverte de la marque et du message de
l’entreprise, l’objectif étant de permettre à l’internaute d’agir
rapidement et en toute fluidité.
Les sites mi-informatifs mi-marchands
Ce sont des sites proposant des contenus de type informatif et des
contenus de type marchand. Ils sont de plus en plus rares, car les
marques préfèrent avoir un site pour chaque type de public. Le cas de
figure le plus commun est l’association site marchand-blog, qui
permet un espace dédié à la vente et un espace dédié à la
communauté avec pour objectif d’améliorer la visibilité de la marque
auprès de son public.
L’objectif est de distinguer les informations et adapter le message à
chaque type de public cible en créant plusieurs sites. Pour cela, il
existe plusieurs options, les plus courantes sont d’avoir un site de
type marchand et un site de type informatif, ou un site marchand et
un blog. En distinguant les médias Web que vous utilisez, vous
pourrez proposer une meilleure réponse aux besoins de vos visiteurs,
selon que ces derniers viennent pour acquérir de l’information sur la
marque, sur le produit ou le service, pour acheter, pour regarder vos
nouveautés…
■ La création d’un blog
Un blog est un outil issu du Web 2.0. Un blog peut être assimilé à une
Newsletter ou une publication papier ; c’est un support sur lequel la marque
parle d’elle et de ses activités. Il peut aussi servir de support pour commenter
les évolutions du secteur. Mais un blog est surtout un lieu où les internautes
peuvent s’exprimer et interagir avec une marque. C’est la différence clé avec
les supports de communication traditionnels. L’objectif d’un blog est par
excellence de mettre en place un échange entre la marque et sa communauté.
Un outil de communication 2.0
Un blog doit donc être l’outil pivot de la communication en ligne. Le site
permet la production de contenus « froids », autrement dit de contenus
descriptifs et généralement institutionnels. Le blog quant à lui, permet
d’approcher le ou les publics cibles de la marque de manière plus
« émotionnelle » en proposant des contenus réguliers et d’actualité, des
contenus qui les touchent, on parle alors de contenus « chauds ». Ces
contenus permettent aux internautes de s’identifier à la marque et d’adhérer à
ses valeurs tout en ayant accès à des informations qui les intéresse. Ces
informations sont issues :
– du champ d’expertise de la marque : Les contenus permettent à la
marque de montrer son autorité sur son secteur d’activité tout en
redirigeant les internautes sur les Landing Pages du site. Il ne faut pourtant
pas abuser de ces liens sous peine d’être pénalisé ;
– des partenaires : Il n’est pas toujours facile ou logique de mettre les
partenaires en avant sur un site. Le blog permettra d’exposer plus librement
leurs contenus.
En donnant un ton aux contenus du blog, en les inscrivant dans des
problématiques actuelles, on facilite la réaction des internautes via les
commentaires et le partage sur les réseaux sociaux. On fait parler d’une
marque de manière « naturelle ».
Un outil SEO
Le choix d’avoir un blog sur le nom de domaine sur le site ou sur un autre
nom de domaine dépend de la stratégie d’acquisition de trafic et de liens.
Un blog ayant le même nom de domaine que le site est destiné à
communiquer avec une communauté créée par une marque. En installant le
blog sur un autre Nom de Domaine, la marque montre une volonté de
s’adresser à un public plus large que les visiteurs de son site. Un blog externe
peut aussi être utilisé dans une stratégie de link wheel (cf. chap. 5, « Les
réseaux de liens »).
La création d’une communauté durable16 et active améliore la notoriété
d’une marque et ce peu importe le nom de domaine du blog.
Les limites du blog
Attention, créer et animer un blog est chronophage et requiert de réelles
capacités d’écriture. Une marque ne doit pas se lancer dans cette aventure
sans y être préparée et sans s’être assurée d’avoir les ressources nécessaires.
Pour les marques ayant peu de temps ou d’argent à consacrer au blog, les
réseaux sociaux peuvent être une alternative tout à fait satisfaisante (cf.
chap. 6, « Le SMO, une réputation contrôlée »).
■ La rédaction de contenus de qualité
Pour recevoir des liens naturellement, il faut dire des choses intéressantes,
répondre aux besoins des internautes et positionner la marque comme experte
sur son sujet. Dans cette perspective les contenus doivent être d’une qualité
exceptionnelle et être mis en ligne au bon moment et au bon endroit.
Voici quelques points à prendre en compte pour rédiger des contenus de
grande qualité.
Partager des informations inédites
Une marque connaît son secteur comme personne et dispose de données qui
ne sont pas encore utilisées. Il faut donc en profiter.
Il existe pour cela de nombreux contenus possibles comme les « case
study », les sondages, les études de marchés, l’élaboration de tests sur des
outils, l’accès à des ressources favorites sous forme de classement, les
tutoriels sur l’utilisation d’un produit ou d’un outil. Ces éléments techniques
inhérents au fonctionnement de l’entreprise doivent être adaptés afin de
toucher un public le plus large possible. Pour cela, il est recommandé de
s’appuyer sur les équipes au sein de l’entreprise et d’indiquer des tendances
quant à l’évolution du secteur, d’analyser des changements ou tout
simplement de partager des informations de qualité. Ces informations ne
seront peut-être que peu consultées ou peu linkées, mais elles permettront
d’asseoir le savoir-faire d’une marque et de lui créer un nom sur un sujet
qu’elle seule maîtrise complètement.
Présenter des outils révolutionnaires
Que les compétences concernent un outil ou un service, une partie de celles-
ci doit être à disposition des clients gratuitement.
En effet, proposer des mini-outils utiles ou un outil en version freemium
permet de donner un avant-goût du savoir-faire de la marque et de capturer
des prospects – ou au moins leurs données – pour mieux les convertir en
clients par la suite. Et même si les utilisateurs n’achètent pas de licences, ils
seront reconnaissants de pouvoir utiliser une partie des outils et les
partageront avec leurs contacts.
Il faut donc faire confiance aux produits et aux équipes. Une expérience
utilisateur réussie est la meilleure manière de faire parler d’une marque en
ligne et hors ligne, tout en affirmant son champ de compétence.
Avoir une voix unique
Il est important de tout faire pour que l’on se souvienne de la marque. Il faut
que les prises de paroles sur le Net ne passent pas inaperçues et qu’elles
positionnent la marque comme un influenceur du secteur, autrement dit
comme un expert que l’on écoute. Pour cela, on peut avoir recours à
l’humour ou à la controverse. Attention pourtant à la controverse excessive
qui a tendance à fatiguer les lecteurs, ou à la prise de parole inutile. Il est
important d’offrir une nouveauté à l’internaute de manière argumentée. Afin
de mettre en valeur l’esprit de la marque, les membres des équipes peuvent
eux aussi intervenir sur les espaces de communication.
Bénéficier de la reconnaissance des pairs
Une marque n’est jamais la seule détentrice des informations, c’est pourquoi
il est important de citer les sources des publications, qu’il s’agisse de pairs ou
de concurrents. L’honnêteté et la transparence sont des qualités très
appréciées : en citant un concurrent, la marque montre son « fairplay », ce
qui augmentera sa crédibilité auprès des internautes. De plus, mettre en avant
un auteur permet de créer et d’entretenir une relation avec cette personne.
Créer des partenariats de qualité
Dans la lignée du point précédent, les relations avec les acteurs du secteur
sont riches en surprises. Plusieurs types de relations se mettent en place :
• Les relations de bon voisinage avec des sites dont la thématique est trop
éloignée de celle de la marque. Ces sites pourront relayer une partie des
contenus ou des informations concernant la marque. Des interventions
entre les communautés pourront aussi s’organiser.
• Les relations d’amitié avec des sites travaillant sur les mêmes
problématiques que celles de la marque. Il sera alors possible d’échanger
de manière plus approfondie grâce à des interviews mutuelles ou en
rebondissant sur les activités de chacun ou encore en mettant en place des
stratégies de guest blogging17 (cf. chap. 5, « Le guest blogging »).
• Les relations amoureuses avec des sites complémentaires à l’activité. Il
s’agit de tous les sites dont les services, produits ou contenus sont
directement liés à l’activité du site travaillé. La complémentarité de ces
18
sites permet la construction de partenariats durables et la réunion
d’audiences sans conflit d’intérêt.
Toutes ces relations doivent être authentiques et s’inscrire dans la durée,
afin de ne pas être perçues comme émanant d’un « profiteur » : il faut être
généreux en temps, en information et en charge de travail pour bénéficier
d’un résultat bénéfique.
Élaborer une réputation sur la durée
Avec le link baiting, on travaille une notoriété Web sur le long terme.
L’objectif est de créer des relations solides avec tous les acteurs du secteur,
mais aussi d’interagir avec les internautes. La marque, en se montrant ouverte
aux critiques et fiable dans sa propagation d’informations, établit son nom sur
le long terme et gagne la confiance des acteurs de son secteur. Les liens vers
ses contenus se feront donc d’eux-mêmes, ou presque, car elle sera devenue
une référence.
Donner la parole aux ambassadeurs de la marque
La qualité des produits, des services et des publications, parle d’elle-même.
Grâce aux outils de l’Internet 2.0, il est facile de s’exprimer, et les internautes
le font. Il faut donc leur donner un espace d’expression pour partager leurs
expériences et leurs opinions sur ce que fait la marque. On incitera donc les
visiteurs à s’exprimer sur la marque et ses produits grâce à des retours
d’expérience provenant des clients, des partenaires et des collaborateurs. Le
partage des produits, des publications ou de tout autre contenu sera aussi
facilité en insérant les boutons sociaux (cf. chap. 6, « Le SMO, une réputation
contrôlée ») sur le site. Ce sera non seulement une bonne source de contenu,
mais aussi un signe de transparence, ce qui est très positif sur le net.
Remercier la communauté
Pour donner envie aux visiteurs de parler de la marque et pour les remercier
de leur fidélité, la mise en place de quiz, de challenges, de jeux concours ou
de citations s’avère très efficace.
Il est important de bien faire correspondre les cadeaux à l’activité de la
marque. Dans ce but, l’utilisation des produits de la marque ou incitant à
leurs utilisations permet de gagner un trafic qualifié constitué de visiteurs qui
continueront d’interagir une fois le concours terminé. De même, une bonne
répartition des gains augmentera le nombre de gagnants satisfaits qui
parleront de la marque. C’est pourquoi il faut faciliter le partage d’actions de
ce genre sur les espaces de communication.
Être actif off et on-line
Une marque peut s’exprimer sur différents supports et formats et au travers
de différentes actions sur le Web pour communiquer sur les temps forts de
son secteur ou de ses actualités. Ces moments particuliers peuvent être des
événements physiques que la marque ou un partenaire organise. Mais il peut
aussi s’agir de rendez-vous Web autour d’une de ses thématiques.
Afin de montrer le dynamisme du message de la marque et de bien le
véhiculer, les sujets abordés ainsi que la participation ou le sponsoring
d’événements doivent correspondre à son activité. Mais surtout, ces sujets
doivent se refléter sur tous les espaces de communications utilisés par la
marque. Des liens sur les sites partenaires doivent aussi être visibles pour
acquérir du trafic.
S’appuyer sur les autres canaux
Tout ce qui contribue à l’élaboration d’une image de marque et à sa notoriété
en ligne peut rapporter des liens ou constituer le début d’un partenariat. Une
stratégie de link baiting est donc une réflexion à part entière19 qui requiert un
vrai investissement, tant en terme de ressources que de temps.
En effet, l’objectif n’est pas juste de ramener des liens vers un site, mais de
rendre une marque omniprésente sur des thématiques définies, grâce à une
image et à des avis positifs. C’est pourquoi il faut donc bien travailler les
leviers traditionnels du SEO – architecture de site, propreté du code,
rédaction des contenus et liens entrants – car ce sont eux qui permettent de
rendre une marque visible et compréhensible par l’ensemble des acteurs Web.
Mais il ne faut pas, pour autant négliger d’autres leviers qui véhiculent son
message. Les autres canaux d’acquisition de trafic ou de clients (cf. chap. 9,
« Analyses du trafic ») importants sont les campagnes de liens sponsorisés et
l’influence et la notoriété sur les réseaux sociaux. Le SEO n’est donc plus le
seul garant d’une bonne visibilité sur le Web mais vient s’intégrer à des
actions d’inbound marketing, qui s’intègrent elles-mêmes à une stratégie de
communication sur le long terme.
Au-delà de ces aspects, il est important de contrôler l’image de la marque
sur les autres supports, que ce soit les actions publicitaires, les retombées des
e-mailing, les campagnes remarketing, ainsi que les campagnes de relations
presse et relations publiques. Prendre en compte tous les canaux qui amènent
des visiteurs permet de comprendre le comportement de ces derniers et
d’améliorer les actions de notoriété.
Netlinking, demander des liens
Nous ne le répéterons jamais assez, obtenir des liens doit se faire de manière
naturelle. Les contenus promus doivent être intéressants pour l’internaute, et
c’est pour cette raison que d’autres sites créeront un lien. La qualité des
contenus doit donc être irréprochable, alors le Web en parlera.
Ceci dit, il est possible d’aider des contenus à être connus. Pour ce faire, on
demande à des acteurs compétents sur un sujet de faire des liens vers ces
contenus. On peut établir ces liens sur d’autres sites Web, sur des blogs, sur
des réseaux sociaux, grâce à des bookmarks et ainsi de suite. On parle alors
de campagnes de liens. Une campagne de liens permet donc de promouvoir le
site Internet.
Pour cela, il faut découvrir les acteurs dont la thématique s’approche de
celle des contenus. Pour bien connaître les acteurs du Web, il
faut comprendre à qui et à quoi ils s’intéressent, autrement dit le public cible.
Il est aussi possible de connaître les acteurs d’un secteur d’autres manières :
• Une recherche dans les moteurs de recherche sur les mots-clés à fort
potentiel (cf. chap. 2, « Définir les bons termes à travailler »).
• Repérer, grâce à un outil tiers, les sites qui font des liens vers la
concurrence, mais pas vers le site de la marque travaillée.
• Identifier les sites qui font des liens vers un site qui parle de la marque.
Cette analyse de l’environnement d’un site permet d’avoir une liste de sites
partenaires potentiels. Tous ces sites ne feront pourtant pas des liens de
qualité vers les contenus. C’est pourquoi cette liste doit être affinée selon
plusieurs critères :
• La qualité globale du site et l’actualité de ses contenus.
• Le travail fait sur l’architecture et le SEO technique.
• La thématique des pages par rapport aux contenus promus par la marque.
• L’audience du site et l’activité sur les différents canaux d’acquisition.
Lors de ce travail, certaines pages Web seront identifiées comme étant de
qualité pour émettre des liens vers les contenus à promouvoir. Les Landing
Pages (cf. chap. 1, « Avoir de bonnes Landing Pages… ») les plus pertinentes
du site y seront associées. Il est important de bien prioriser les sites contactés.
Seules les URLs à fort potentiel seront travaillées dans un premier temps,
quitte à élargir par la suite. Ce travail est chronophage et peu valorisant, il est
donc primordial de ne pas s’épuiser dans des combats qui n’en valent pas la
peine. De plus, l’historique des liens est important, si un site reçoit
soudainement de nombreux liens puis plus rien, les moteurs de recherche
jugeraient cela anormal. Il faut donc privilégier la création de liens sur la
durée.
Fort de ce travail, la personne responsable peut contacter les propriétaires
des sites en adaptant leur discours à ce qu’ils ont compris de la marque et en
proposant des contenus adaptés au site, mais surtout à certaines pages du site.
Cette étape est très importante et pourtant souvent bâclée. Un mail générique
n’obtient que peu de réponses et ne privilégie pas la mise en place d’une
relation gagnant-gagnant. Il est donc important de personnaliser les mails
envoyés, en expliquant pourquoi et comment ce partenariat serait bénéfique
aux deux parties. Il est important de créer une relation de confiance, non
seulement pour obtenir un bon placement de liens, mais aussi pour pouvoir
recontacter le propriétaire du site partenaire à un autre moment.
Les dernières évolutions du linking
Il existe de nombreuses manières de faire du link building20. Il n’y a pas de
bonne ou de mauvaise technique, il y a juste une bonne vision du link
building et une mauvaise. En s’efforçant de produire un contenu de qualité et
en créant de bonnes relations avec les acteurs d’un secteur, un site bénéficiera
de liens naturels qui conserveront leurs valeurs sur la durée. Un bon link
building est donc avant tout un état d’esprit.
Certains éléments doivent pourtant être pris en compte pour construire une
bonne stratégie de link building.
La sur-optimisation et la désoptimisation
De nombreuses techniques de linking sont très controversées. La vraie
question à poser est : « Ces techniques de linking sont-elles utilisées de la
bonne manière ? ». Cyrus Shepard nous donne plusieurs pistes de réflexion21
sur la manière d’aborder les techniques de link building. Nous retiendrons
que les liens naturels22 sont ceux qui seront valables dans l’avenir.
L’importance est donc la rédaction d’un contenu de qualité et non le travail
fait sur les liens.
Avec la sortie de Penguin, on a pu observer un changement dans la
manière dont Google traite les ancres. À présent, si les bots remarquent un
très grand nombre d’ancres bien optimisées, Google peut pénaliser la page
qui reçoit ces liens. La raison invoquée est la sur-optimisation. La sur-
optimisation signifie qu’un moteur de recherche comprend que l’on essaie de
manipuler ses résultats de recherche. Ainsi, on désoptimise un site pour qu’il
ne soit pas pénalisé. Pour ce faire, on s’assure qu’un mot-clé important
n’apparaît pas trop de fois dans le contenu, que les ancres, les alt, les
légendes, les Titles et d’autres aspects utilisent un univers lexical large. La
désoptimisation n’est généralement que très peu travaillée lorsque l’on
construit une stratégie sur différents leviers Webmarketing autres que le SEO,
car l’obtention de liens avec des ancres de mauvaise qualité se fait
naturellement. Il est plus facile de recevoir un lien de mauvaise qualité qu’un
lien de bonne qualité.
Ces notions de sur-optimisation et de désoptimisation sont aussi valables
sur la partie On-Site, bien que dans une moindre mesure.
La perte d’importance des liens
Depuis quelque temps maintenant, les liens perdent de la valeur23 au profit
d’autres facteurs largement utilisés par les internautes et jugés moins
manipulables par les moteurs de recherche.
Les moteurs de recherche se sont aperçus de la fragilité des liens comme
critère de classification, à cause de la facilité avec laquelle ils sont
aujourd’hui manipulés par les professionnels du SEO. Il est clair que certains
manipulent les liens pour améliorer leur linking, sans pour autant fournir un
contenu de qualité aux internautes.
Depuis l’annonce de Yandex de ne plus inclure les liens dans son
algorithme, beaucoup se demandent si les autres moteurs de recherche ne
vont pas suivre cette voie24. Google a fait des tests et n’a pas été convaincu
par les résultats25. Mais nous assistons à une augmentation des facteurs visant
à définir la qualité et la notoriété d’un site pour les internautes autres que par
les liens. Si l’on observe de plus près la stratégie de Google, on remarque
qu’il récupère de plus en plus de données de navigation (cf. chap. 1,
« Changements et évolutions des moteurs de recherche »). Et ce, d’ailleurs,
que ce soit par la plate-forme Analytics, Adwords et Adsense, les sessions
d’internautes connectés ou encore les mobiles et les applications géolocalisés.
On peut donc penser que Google comprend de mieux en mieux le parcours
des utilisateurs, le temps qu’ils restent sur la page et leurs interactions avec
celle-ci. Ces données sont déjà utilisées pour définir les sites et les pages de
qualité et les faire remonter dans les moteurs de recherche.
Il n’est pas pour autant question de supprimer le facteur lien de
l’algorithme. Mais il faut dorénavant se concentrer sur les liens qui sont
vraiment importants :
• Les liens qui proviennent de sites avec un bon Trust Rank et des pages ayant
un bon PR, autrement dit des emplacements de qualité sur le Web.
• Les liens qui sont en relation avec les contenus cibles, soit par leur
thématique, soit parce qu’ils prolongent la réponse à un besoin utilisateur.
Seuls ces liens auront un réel impact sur la notoriété d’une marque. Plus un
site grossit, plus il doit recevoir des liens de qualité, sinon cela signifie que la
stratégie de liens n’assure pas la notoriété du site26.
Vers des relations publiques digitales ?
Comme nous pouvons le voir, toutes ces techniques de Link building se
rapprochent fortement des stratégies mises en place par les relations
publiques. Elles découlent du lancement d’actions de communication, de
marketing et de relation presse.
La stratégie de communication Off-Page doit donc être travaillée en
collaboration avec les autres acteurs de l’entreprise. En s’appuyant sur
l’expertise et les idées du service communication ou RP, l’objectif est de
combiner les événements en cross média, autrement dit sur tous les médias à
disposition. Ce travail doit être fait de manière intelligente et en adéquation
avec les attentes du public cible sur chaque support. On touche ici à ce que
l’on appelle le digital RP27, l’expertise SEO est requise, mais il faut employer
les stratégies de relation presse et publiques connues. Une bonne stratégie RP
permettra ainsi de bénéficier de liens naturels. En effet, les journalistes ou
autres partenaires ne connaissant pas toujours bien le monde du Web, les
liens qu’ils feront ne seront peut-être pas optimaux en terme de SEO, mais ils
seront naturels et sur des univers parfois inattendus.
De plus, dans un monde où les liens sont manipulés, les moteurs de
recherche cherchent des solutions pour baser leurs classements sur d’autres
facteurs. Plus une marque sera connue et appréciée par de vraies entités, plus
la marque aura de chances de ne pas être impactée par des changements
d’algorithme.
Avec l’arrivée du Web sémantique début 2013, on voit apparaître de
nouvelles notions, la co-citation et la co-occurence.
La co-citation est le fait de bénéficier de la notoriété d’un site sans en
recevoir le lien. Lorsqu’un ou plusieurs sites font des liens vers deux sites et
que ces sites sont identifiés comme étant de la même thématique, alors un
lien s’établit entre ces sites. Avec la co-citation, on pourrait bénéficier de la
notoriété d’autres sites sans avoir de lien et donc se positionner, ou améliorer
sa position, sur des requêtes.
Figure 5.2 – Schéma explicatif de la co-citation
La co-occurence est l’association de termes au sein d’un document. Si le
nom de la marque est cité à côté de certains mots-clés, et ce à grande échelle
et par différentes sources, il devient alors logique de penser qu’ils sont
associés, et ce, même si ces mots ne sont pas sur une ancre faisant un lien
vers une page du site.
Figure 5.3 – Schéma explicatif de la co-occurrence
Ces deux facteurs sont issus d’une même logique : associer des termes et
des informations entre elles sans la possibilité de manipulation humaine. En
effet, ces deux facteurs, pour être judicieux, s’appuient sur de larges bases de
contenus.
L’impact de ces facteurs n’est pas confirmé pour le moment, mais Google
a déposé des brevets qui nous permettent de penser qu’il travaille intensément
sur la sémantique du Web.
Les moteurs de recherche comprennent donc mieux la sémantique des
textes. Ils sont dorénavant capables de comprendre la logique des contenus et
donc de repérer les mots importants et la relation entre ces mots. Ces
nouvelles manières de travailler les contenus pourraient s’ajouter aux ancres28
voire, à terme, les remplacer.
L’essentiel
►► Les liens sont donc encore au cœur des
algorithmes des moteurs de recherche, mais c’est parce
qu’ils sont surtout au cœur de la navigation sur le Web.
La recommandation d’un site par un autre a plus
de valeur que d’apparaître dans les pages de résultats
des moteurs de recherche. Il est donc important pour
une marque de bénéficier de liens vers son site Web et
plus particulièrement vers les pages Web importantes.
►► De nouveaux éléments comme la co-occurence et
la co-citation viennent s’ajouter à l’analyse sémantique
des pages, réduisant ainsi l’impact des liens dans
les algorithmes de classements.
►► Même si les liens doivent encore être inclus
dans les stratégies de partenariats de liens, la visibilité
d’un site sur le Web dépend aujourd’hui de la capacité
des contenus à se différencier. Un contenu pertinent
et innovant aura plus de chance d’être relayé et de faire
le « buzz » et par conséquent de gagner des liens.
Notes
1. http://blog.majesticseo.com/general/negative-domain-research-anchor-text-
segmentation-part-1/
2. Bing http://www.bing.com/webmaster/help/how-to-disavow-links-0c56a26f, Google
https://support.google.com/webmasters/answer/2648487?hl=fr
3. https://www.youtube.com/watch?v=CX5K741AlWg
4. http://searchenginewatch.com/article/2299968/Link-Building-101-Finding-Web-
Mentions
5. http://moz.com/blog/seos-dilemma-link-building-vs-content-marketing-whiteboard-
friday
6. http://www.youtube.com/watch?v=KCY5pbAuYpk
7. http://searchenginewatch.com/article/2067456/Link-Building-on-a-Budget
8. http://searchenginewatch.com/article/2324561/Matt-Cutts-Says-Stop-Guest-Blogging-
for-SEO-Heres-Everything-You-Need-to-Know
9. http://www.mattcutts.com/blog/guest-blogging/
10. Fishkin R. & Hogenhaven T., « Beyond blog posts: a guide to innovative content », In
Inbound marketing and SEO, Wiley, 2013.
11. http://www.semrush.com/blog/publications/find-host-blogs/
12. https://www.youtube.com/watch?v=ZLLyIwUIXcc
13. https://support.google.com/legal/troubleshooter/1114905?rd=2
14. https://www.youtube.com/watch?v=MkLFlaWxgJA
15. http://searchengineland.com/link-building-means-earning-hard-links-not-easy-links-
123767
16. http://moz.com/blog/10-tactics-to-improve-blog-readership-whiteboard-friday
17. http://moz.com/blog/guest-blogging-strategies-whiteboard-friday et
http://moz.com/blog/guest-posting-blogging-slippery-slope-whiteboard-friday
18. http://moz.com/blog/the-partnership-trap-whiteboard-friday
19. https://www.distilled.net/linkbait-guide/
20. http://pointblankseo.com/link-building-strategies
21. http://moz.com/blog/high-value-tactics-futureproof-link-building-whiteboard-friday
22. https://www.youtube.com/watch?v=7Y74Op_k6UY
23. http://moz.com/blog/are-links-losing-value-in-googles-algorithm-whiteboard-friday
24. http://www.wordstream.com/blog/ws/2014/02/25/pagerank
25. http://www.seroundtable.com/google-backlinks-algorithm-worse-18142.html
26. http://moz.com/blog/building-a-marketing-flywheel-whiteboard-friday
27. http://socialmediatoday.com/carriemorgan/1399891/what-digital-pr
28. http://moz.com/blog/prediction-anchor-text-is-dying-and-will-be-replaced-by-
cocitation-whiteboard-friday
Chapitre 6
Le SMO, une
réputation contrôlée
Executive summary
►► Au-delà de l’acquisition de liens, l’optimisation
des réseaux sociaux permet d’augmenter la visibilité
de la marque et le trafic sur son site ou ses « earned
media ». Il est donc important de réfléchir sa stratégie
social media pour s’adresser correctement à son public
cible.
►► Il existe plusieurs types de réseaux sociaux,
les généralistes qui s’adressent à de larges communautés
et les spécialistes qui regroupent les individus dans un
objectif bien précis. Pourtant, chaque réseau social a été
créé pour une cible bien précise. Il est alors nécessaire,
non seulement de connaître, mais surtout de comprendre
afin de décider s’il est pertinent pour la marque de s’y
implanter.
►► Les modes d’expression diffèrent selon les
réseaux sociaux. On ne communique pas de la même
manière sur Facebook, Twitter, G+ ou encore YouTube,
il faut donc bien comprendre les codes de chaque réseau
social pour donner plus de chances aux contenus d’être
partagés.
Depuis quelques années, les réseaux sociaux ont pris de l’importance sur le
Web. Les réseaux sociaux forment une partie des outils du Web 2.0 qui ont
permis son utilisation par des non-techniciens.
Grâce à ces outils, tout le monde a la possibilité de communiquer sur
Internet afin de donner son avis sur un produit, un service ou un événement,
de partager ses centres d’intérêt ou encore de raconter une expérience. Ce qui
se passe sur les réseaux sociaux impacte donc fortement la notoriété Web
d’une marque. En effet, plus on parle de la marque, plus la « brand
awareness » de cette dernière s’améliore. Et c’est cette connaissance de la
marque qui est au cœur des objectifs d’inbound marketing.
Certains pensent que le SMO, Social Media Optimization, aussi appelé le
Social SEO ou Social Media marketing, ne fait pas partie du SEO, mais c’est
une erreur. Comme nous l’avons vu (cf. chap. 2, « La stratégie éditoriale, le
content marketing »), il est du devoir du SEO de réfléchir à une stratégie de
contenus sur le site. La diffusion des contenus est, elle aussi, à prendre en
compte, et ce, même si elle n’a qu’un impact indirect pour le référencement
par les moteurs de recherche.
L’objectif de cette partie n’est donc pas de former aux réseaux sociaux,
mais de souligner l’importance de l’intégration des communautés à la
stratégie d’inbound marketing et de montrer les impacts du Social SEO sur la
notoriété Web d’une marque.
Les principaux réseaux sociaux
Il est aujourd’hui rare de trouver un site sans bulle communautaire, ne serait-
ce que Facebook. C’est pourquoi Google prend en compte les signaux
sociaux dans ses SERP1.
Les interactions des internautes sur les réseaux sociaux, aussi appelées
signaux sociaux, jouent un rôle grandissant dans les classements des résultats
de recherche. En traitant les réseaux sociaux comme n’importe quel site2,
Google prend en compte le nombre de contenus publiés par jour sur ces sites,
la fraîcheur de ces contenus et les interactions qu’ils génèrent, autant de
critères qui impactent les SERPs. Les réseaux sociaux contribuent donc
fortement à l’amélioration de la présence d’une marque sur le Web pour
plusieurs raisons :
• Les pages de ces réseaux sont indexées par les moteurs de recherche et
« rankent » plutôt bien. Cela permet de conforter une stratégie de
domination des SERPs (cf. chap. 7, « Dominer les SERPs avec la
recherche universelle »).
• De nombreux internautes ont pris l’habitude d’utiliser le moteur de
recherche interne disponible sur les réseaux sociaux. La présence d’une
marque permettra non seulement à la marque de s’exprimer, mais aussi de
rediriger du trafic vers son site.
• Une présence bien travaillée dans les réseaux sociaux améliore la notoriété
d’une marque auprès des internautes. Ces derniers pourront donc parler sur
d’autres canaux neutres et augmenter la visibilité d’une marque auprès des
moteurs de recherche comme des internautes.
Mais leur importance doit être nuancée : d’une part, certains réseaux
sociaux sont fermés et ne peuvent donc pas être crawlés par les moteurs de
recherche. D’autre part, ces réseaux possèdent un grand nombre de contenus,
la rapidité d’indexation dépend donc des politiques des moteurs de recherche.
Mais la question de l’impact des signaux sociaux dans le classement des
annonces sur les pages de résultats Google n’est que secondaire pour la
réflexion inbound marketing. En effet, ce sont sur les réseaux sociaux que les
internautes s’expriment. La réputation des marques se joue sur ces plates-
formes. C’est pourquoi il est vital pour la notoriété Web de travailler cette
dimension sociale.
Chaque plate-forme est utilisée de manière différente par les internautes,
selon les attentes de ces derniers. Chaque marque doit adapter sa
communication à un public cible. Il est donc important de savoir quels
réseaux sociaux sont visés et utilisés selon les différents publics cibles pour
adapter les communications avec les communautés et administrer les
ressources en fonction des résultats de chaque plate-forme.
Figure 6.1 – Le marketeur moderne doit savoir jongler avec les réseaux sociaux
J’ai pris le parti ici de donner des recommandations sur les usages pour les
plateformes des réseaux les plus connus. Mais de nombreux réseaux sociaux
parfois plus spécialisés, comme Instagram, peuvent aussi être pris en compte
lorsque l’on monte une campagne SMO. L’important est de choisir les
réseaux sociaux où le public cible de la marque est présent et actif et de
s’adresser à eux de manière adéquate.
La rédaction sur Facebook
Pour fournir un contenu plus adapté à ses utilisateurs, Facebook se base lui
aussi sur un algorithme appelé Edge Rank3. Il existe de nombreux articles sur
Internet permettant de mieux comprendre le fonctionnement de cet
algorithme et ses interactions, autrement dit l’activité générée par une page.
La logique de cet algorithme reprend celle des internautes et des relations
humaines en général. Les personnes et entités populaires sont celles qui
fédèrent, celles qui sont écoutées et qui savent être à l’origine d’actions
auprès de leur public. Voici donc quelques conseils pour inciter les
internautes à interagir avec une page Facebook :
• Des « posts » réguliers : une page FB doit être vivante, cela ne signifie pas
nécessairement « post » tous les jours, mais une publication faite de
manière régulière. Des outils de statistiques permettront aussi de mesurer
l’impact de chacune de ces publications ainsi que les moments de
publication.
• Une grande réactivité : un « post » entraînera des réactions auxquelles il
faudra réagir. Il en va de même si un internaute critique la marque, la
publication ne doit pas être supprimée, mais on doit y répondre.
• Des contenus adaptés au public-cible : les « posts » doivent proposer un
contenu pertinent et un vocabulaire adapté au public en fonction des
attentes de la page Facebook, autrement les sanctions des internautes
pourraient aller du désintéressement de la page par les internautes jusqu’à
son désabonnement.
• Une participation massive de la communauté : afin de rendre la marque
plus réelle aux yeux des fans et de leur donner envie de partager les
« posts », il faut demander l’avis des visiteurs, partager celui de la marque,
mais aussi lancer des défis. L’important est de créer une relation avec les
fans et de la construire dans la durée.
• Des images véhiculant un message : les photos ont un plus fort taux
d’interaction que les textes, car elles ne demandent aucun effort à
l’internaute. Avec une photo, on peut faire passer un message plus
rapidement. De plus, l’incapacité des robots à lire les images n’est pas un
critère pénalisant sur les réseaux sociaux, car l’objectif est d’interagir avec
les internautes.
• Un discours fédérant une communauté : encore plus que pour un site
Web, les mots clés ne sont pas le cœur de la stratégie SMO. L’important
est de donner envie aux internautes de s’identifier à ce que dit la marque, à
ce qu’elle poste.
La communication sur Twitter
Les liens Twitter sont en nofollow. Cela pourrait faire penser que ces liens
n’ont aucun intérêt pour le SEO, or comme nous l’avons vu (cf. chap. 1, « Le
PR sculpting »), ces liens sont tout de même suivis par les bots. Rappelons
aussi qu’il s’agit de faire connaître la marque aux internautes, et non
uniquement aux robots des moteurs de recherche. En créant une communauté
forte convaincue de la qualité d’une marque, on améliore naturellement la
visibilité sur le Web mais surtout la conversion.
■ Les standards Twitter
Afin de faciliter l’écriture des tweets, des standards se sont mis en place pour
pouvoir donner le plus d’informations possible en 140 caractères :
• #, le hashtag : la hashtag permet de Twitter sur un sujet précis. En
l’insérant avant un mot, on informe de la thématique d’un Tweet. Grâce
aux hashtags, on donne plus de visibilité aux contenus tweetés en
s’adressant à la communauté de ceux qui s’intéressent à un sujet précis et
donc suivent le hashtag.
• @, la mention : la mention permet de s’adresser directement à une
personne, ou de citer la source d’un contenu. L’intégralité du fil Twitter
peut voir ce qui est écrit, il ne faut donc pas en abuser. On peut mettre
plusieurs mentions dans un Tweet.
• Les URLs Shorteners : il existe plusieurs sites pour obtenir des URLs
courtes à partir d’URLs. On les appelle aussi « raccourcisseurs » d’URL.
Les plus connus sont Bitly4, qui permet d’avoir des statistiques, et Google5.
■ Les bonnes pratiques sur Twitter
Voici quelques conseils pour optimiser les campagnes Twitter et développer
une communication de qualité sur Twitter :
• Choisir un bon pseudo : le pseudonyme choisi sera celui qui apparaîtra
dans l’URL. C’est une adresse statique, qui ne pourra pas être changée. Il
servira pour la communication tout comme le Nom de Domaine. C’est
pourquoi il est important de choisir le nom de la marque (cf. chap. 3,
« Choisir le nom de domaine »).
• Choisir une bonne dénomination : le nom de compte est ce qui apparaît à
côté du profil et qui peut être différent du pseudo. Il est là aussi
recommandé d’utiliser la marque pour une plus grande cohérence pour
l’utilisateur et pour simplifier la communication.
• Travailler la biographie : Twitter donne 160 caractères pour se présenter.
Cette partie permet de mettre en avant les qualités d’une marque – ou
d’une personne – il faut donc être clair et précis afin que l’internaute
comprenne rapidement ce pour quoi le compte sera utilisé. La biographie
joue un rôle important dans la conversion, ici pour l’inscription au fil
Twitter. Cette biographie est utilisée lors de l’indexation d’une page, son
contenu doit donc être optimisé.
• Insérer l’URL du site dans le profil : le lien n’a pas un grand intérêt en
terme SEO technique, car il est en nofollow ; par contre il apportera un
trafic qui pourra être converti.
• Bien choisir les premiers caractères : lors de l’indexation des Tweets, les
SERPs utiliseront l’intégralité des caractères. Mais le titre de la page, repris
par les moteurs de recherche, prend environ 46 caractères, dont le nom du
compte. Il faut donc essayer, autant que faire se peut, de mettre les mots
importants en début de Tweet pour augmenter le CTR.
• Insérer des mots-clés : les moteurs de recherche s’améliorent en
permanence sur la compréhension sémantique d’un texte, et cela même
pour un Tweet. Le travail sur la sémantique abordé lors de la rédaction de
contenu doit donc s’étendre à la rédaction des Tweets.
• Tweetter de manière régulière et diluée : la fréquence de Tweets se
définit en fonction du public, du marché et de la ligne éditoriale. En plus de
cette fréquence, il faut définir les heures de tweet. En analysant les
indicateurs d’interactions des Tweets, on peut estimer des créneaux
horaires et des jours où les Tweets ont plus d’impact.
• Utiliser des URLs courtes : les URLs courtes seront utiles pour deux
raisons. La première est que l’on pourra écrire plus de texte et donc mieux
faire passer un message et des mots-clés. La deuxième est qu’elles
permettront d’avoir des URLs propres. L’URL Rewriting (cf. chap. 3,
« Faire de l’URL rewriting, pourquoi et comment ? ») n’est pas suffisant
pour les réseaux sociaux, car on y insère des trackers afin de récupérer des
données sur les internautes. C’est pourquoi l’utilisation d’URLs Shortener
est conseillée pour proposer une URL très courte sans inconvénient.
• Vérifier les landing pages : tous les liens doivent pointer vers la bonne
page. Il est inadmissible, sur un Tweet, d’avoir une 404 ou de demander à
l’utilisateur de naviguer sur le site pour trouver le contenu annoncé. Cela
montre un manque de sérieux et la notoriété en pâtirait.
• Obtenir des retweets : un retweet est un Transfert d’un tweet vers le réseau
de la personne effectuant ce retweet. Il équivaut à un nouveau Tweet et
donc à un nouveau lien. Comme nous l’avons dit en introduction, si de
nombreux liens indiquent une même page dans Twitter, cette page sera
prise en compte par les moteurs de recherche et par conséquent plus visible
pour les utilisateurs de Twitter. La meilleure manière d’obtenir des retweet
consiste à retweeter ce que disent les autres, tout en proposant des contenus
intéressants.
• Interagir avec les personnes envoyant des mentions : il est bon de le
faire, mais sans exagérer. Tout ce qui est écrit est visible pour l’intégralité
des followers, les conversations ou blagues privées ne doivent donc pas
avoir lieu sur Twitter, sauf si elle relève de la stratégie de communication.
• Communiquer sur l’objectif du compte Twitter : il est maintenant
nécessaire de faire connaître le compte Twitter et de lui donner un objectif
précis. Afin que cela ne soit pas un réseau social parmi d’autre, il est
important de savoir quelles informations ce compte Twitter véhiculera et
quel sera son intérêt pour les visiteurs.
• Bien utiliser les standards Twitter : la communauté Twitter utilise des
outils pour faciliter l’échange d’informations. Les utiliser permet de
s’intégrer à des groupes d’intérêt et d’augmenter la propagation du
message de la marque.
L’utilité pratique de Google+
Google+ est le réseau social de Google. Il a été créé par Google, non
seulement pour prendre des parts de trafic aux autres réseaux sociaux qui
bloquent ses crawls, mais surtout pour intégrer la dimension sociale à son
algorithme6. Le bouton G+ fait à présent partie des facteurs permettant de
déterminer le TR d’un site, car il permet à Google de connaître les sites de
confiance selon les critères des internautes.
Grâce à G+, Google peut avoir une meilleure vision d’ensemble sur les
contenus appréciés des internautes, il ne dépend alors plus de sites tiers. C’est
pourquoi G+ est le réseau social le plus utile en SEO. Sa connaissance des
contenus partagés lui permet de prendre en compte ces données pour
améliorer ses SERPs.
■ L’impact de G+ dans les résultats Google
Google+ a donc un impact sur la position d’un site dans les résultats de
recherche. Cet impact est visible à plusieurs niveaux :
• La personnalisation des résultats : nous avons parlé précédemment de la
manière dont Google personnalise les résultats en fonction de sa
connaissance des internautes (cf. chap. 1, « Les moteurs de recherche »).
Or si un contenu est partagé par une personne faisant partie des cercles de
la marque dans G+ ou du cercle d’une personne, ce contenu aura de plus
fortes chances d’apparaître lorsqu’un internaute fera une recherche dans
Google. Par conséquent, plus un site est recommandé par un internaute
ayant un réseau important, plus il aura de visibilité dans les SERPs7.
• Google est de plus en plus entreprenant à ce sujet : cette propagation est
lisible dans le graphique appelé Echo ou Ripple Rank8 en anglais. Cette
personnalisation des résultats a aussi lieu lors d’échanges de mails via
Gmail9.
• L’amélioration des positions pour les contenus + 1 : les + 1 sont une
marque de confiance de la part des internautes vers un contenu. L’étude
réalisée par Moz10 sur la corrélation entre le nombre de + 1 et la position a
soulevé une grande controverse11. Mais elle présente de nombreux
éléments liés à G+ qui permettent d’améliorer le référencement d’un site
Internet. Il semble donc se confirmer que le + 1 sur un contenu, s’il est
combiné à d’autres signaux, impacterait la position d’une page dans les
résultats Google.
• Une forte présence dans la recherche universelle : en liant une page G+ à
un site Web, on associe les services Google à ce dernier. Les éléments de la
page Google+ – comme les avis clients ou encore le logo – seront associés
à l’annonce du site. Cette annonce ressortira d’avantage par rapport aux
autres annonces. Le CTR sera alors amélioré, car l’annonce deviendra plus
attirante ou fournira plus d’informations aux internautes, elle leur donnera
confiance dans le site.
• Une passation du PR : G+ traite les profils et les pages G+ comme des
sites Web. Ces pages ont un Page Rank (cf. chap. 1, « Le Page Rank ») qui
sera transmis via les liens. La majorité des liens G+ sont en dofollow : les
liens partagés dans un « post » et les liens de la « bio » permettent la
diffusion de PR, le Link Equity. Par contre, les liens sur les images et les
liens dans le corps du « post » ne laissent pas passer le PR. Une page
G+ peut donc être intégrée à la stratégie de Linking (cf. chap. 5, « Des
campagnes de liens naturels »).
■ L’importance de l’authorship
Le marquage de l’authorship permet de lier, et par conséquent d’authentifier,
des contenus ou des sites à des individus12. Cela peut concerner un individu et
un site mais aussi plusieurs individus pour un site13.
L’authorship a été utilisé par Google pour construire un Author Rank14
dans la lignée du Page Rank (cf. chap. 1, « Le Page Rank »). Ce dernier
prend en compte :
– la vitesse à laquelle un site gagne des +1 ;
– le volume moyen généré par l’article et/ou le site ;
– l’impact des « posts » d’auteurs similaires ;
– l’activité de la page G+ et est utilisé dans l’algorithme de classement de
Google.
De plus, la mise en place de ce marquage permet d’acquérir un trafic plus
qualifié. Avec la mise en place de l’authorship, on observe une augmentation
du CTR qui a, lui, un impact sur le ranking. Certaines études montrent que le
CTR peut augmenter de 150 %. En mettant un visage sur un nom, les
internautes cliqueront plus facilement sur le lien, car le contenu de l’annonce
est rédigé par une personne de confiance ou tout simplement rendue plus
« humaine ».
Dans la lignée de l’attribut rel = « author », Google propose la balise rel
= « publisher », un marquage issu de schema.org (cf. chap. 3, « Les
métadonnées »). L’attribut rel = « author » donne l’auteur de l’article, la
personne qui a rédigé le contenu, alors que l’attribut rel = « publisher »15
indique le propriétaire d’un site. C’est cette dernière que les marques doivent
utiliser pour lier leur site Web à leur profil G+.
■ Que faire pour améliorer son référencement avec G+
Les recommandations faites pour Twitter et Facebook (cf. chap. 6, « La
rédaction sur Facebook » et chap. 6, « Les bonnes pratiques sur Twitter »)
sont applicables à G+, nous donnerons donc ci-dessous des recommandations
plus techniques et plus proches du SEO « classique ». Ces recommandations
ont pour objectif d’offrir un contenu complet et optimisé, afin de donner de
l’importance au site et de le faire connaître.
• Les liens de la biographie : dans la biographie du profil, il est possible
d’insérer des liens sur les ancres (cf. chap. 1, « Les ancres des liens ») de
votre choix. Ces liens étant en dofollow – soit le contraire du Nofollow –,
ils transmettent le Page Rank en plus d’apporter du trafic à la page voulu.
• Les liens dans les « posts » : il suffit d’insérer une URL dans un lien pour
que G+ la formate. Ce lien sera lui aussi en dofollow. Les « posts »
G+ font donc partie inhérente de la stratégie de linking (cf. chap. 5, « Des
campagnes de liens naturels »).
• Un titre optimisé : la première ligne d’un « post » est intégrée au titre de la
page (cf. chap. 3, « Les balises de visibilité présentes dans le <head> »).
Les mots-clés adéquats doivent donc y être inclus dans une phrase
accrocheuse qui favorise le clic.
• Une photo représentative : la photo de profil est la photo qui sera affichée
dans les résultats Google une fois la balise authorship ou publisher insérée
sur le site. Elle doit donc être professionnelle et représentative du message.
• Une possibilité permanente d’édition du « post » : Google donne un
contrôle du contenu inédit sur les réseaux sociaux, il est possible de mettre
les « posts » à jour sans perdre l’interaction existante.
• Un contact avec les influenceurs du secteur : même sans avoir une grande
activité sur G+, il suffit d’avoir un +1 d’un influenceur pour booster les
positions et la visibilité d’une page. Il existe de nombreuses manières pour
contacter des personnes qui ne connaissent pas la marque16, l’objectif est
d’avoir l’air naturel, pour ne pas donner l’impression d’être intrusif ou de
paraître « spammy ».
• Des « posts » publics : la lecture des « posts » doit être accessible à tous,
car ils sont les ambassadeurs du message et de l’image d’une marque.
• La participation à des communautés : il existe aussi de nombreuses
communautés sur G+17 ; le fait de s’y inscrire, pour partager les contenus
de la marque et d’autres informations intéressantes, montrera le savoir-faire
de la marque. Cette pratique amènera les participants à s’intéresser aux
produits naturellement, inutile donc d’en faire la promotion.
L’émotion sur YouTube
Commençons par rappeler que YouTube appartient à Google depuis 2006.
Les contenus YouTube sont donc régulièrement crawlés et bien mis en avant
dans les SERPs Google.
Comme nous l’avons expliqué auparavant (cf. chap. 3, « Les vidéos et les
fichiers audio »), il est impossible pour les robots de comprendre les vidéos,
mais le contenu entourant une vidéo peut lui être travaillé. Ceci est d’autant
plus recommandé si l’on veut donner une bonne visibilité à un compte
YouTube.
De plus, les vidéos YouTube sont un bon levier à travailler au sein d’une
stratégie de domination de SERPs (cf. chap. 7, « Dominer les SERPs avec la
recherche universelle ») et d’Inbound marketing.
■ Une thématique bien définie
Nous avons précédemment abordé les points à travailler pour améliorer la
compréhension des vidéos lors du crawl des moteurs de recherche. Nous nous
attarderons ici sur les pratiques à mettre en place sur YouTube pour améliorer
le référencement des vidéos dans les SERPs de YouTube et par conséquent
de Google :
• Un nom de fichier optimisé : le nom de fichier doit contenir des mots-clés
en rapport avec la thématique de la vidéo. L’utilisateur ne prend pas garde
à cela, mais YouTube prend en compte la pertinence du titre du fichier.
• Un titre clair : il faut effectuer une recherche de mots-clés, afin de définir
les termes clés à travailler au sein de la page contenant la vidéo.
• Des tags parlants : les tags de la vidéo doivent faciliter la recherche, tout
en décrivant le contenu de manière appropriée. Il est inutile de surcharger
la vidéo de mots-clés, cela pourrait entraîner une pénalité pour sur-
optimisation ou spamming.
• Une description vendeuse : prendre le temps de rédiger une description de
3 à 500 mots reprenant l’univers lexical de la vidéo facilite le
référencement de cette dernière. L’insertion de liens dans cette description
favorise le trafic sur le site – tout comme les conversions qui peuvent en
découler –, elle améliore également le Page Rank (cf. chap. 1, « Le Page
Rank »).
• Une transcription écrite de la vidéo : grâce à un fichier de Transcript18, le
contenu intégral de la vidéo en texte est associé à cette dernière. YouTube
associera ce fichier avec les données récupérées par sa technologie de
reconnaissance vocale19 pour les insérer à la vidéo. Ce fichier permettra
donc aux utilisateurs de suivre la vidéo facilement, tout en donnant aux
bots accès au contenu de la vidéo.
■ Une communication adaptée
La mise en ligne d’une vidéo doit s’inscrire dans la stratégie globale
d’Inbound marketing. C’est pourquoi les messages textes et vidéos doivent
non seulement être homogénéisés, mais ils doivent aussi inciter les
internautes à mieux connaître la marque et à convertir sur son site.
• Les calls to action dans la vidéo : afin d’attirer du trafic vers un site, il faut
interagir avec les internautes. Pour cela, deux éléments efficaces sont mis à
disposition. Ce sont en premier lieu les annotations qui permettent de
commenter certaines parties de la vidéo. Elles doivent être utilisées avec
parcimonie et à des endroits discrets comme les bords20, trop d’annotations
pouvant dévier l’attention de l’internaute. En second lieu, il est aussi
possible d’insérer des call-to-action à la fin de la vidéo. Ces derniers
peuvent être par exemple verbaux en parlant d’un lien sous la vidéo ou en
annotation. L’objectif est de ne pas perdre l’utilisateur une fois la vidéo
terminée.
• Une vidéo adaptée au public cible : tout comme pour les contenus textes
ou images, connaître l’audience permet de proposer des contenus dont le
format, le temps ou encore le ton, apporteront plus de succès à la marque.
• La qualité de la vidéo : une vidéo de bonne qualité sera plus engageante
pour l’internaute qu’une vidéo pixelisée. La HD est donc une obligation
pour proposer un contenu de qualité que l’on aura envie de regarder
jusqu’au bout.
■ Une promotion efficace
Une fois la partie technique de la vidéo optimisée et le message adapté au
public, il faut promouvoir ces vidéos, faire en sorte qu’elles soient vues par le
plus grand nombre d’internautes.
• Partager la vidéo : plus une vidéo comptabilise de vues, plus elle semble
de qualité aux internautes ainsi qu’aux bots des moteurs de recherche. Il
faut donc inciter les internautes à la regarder en la partageant sur des
réseaux sociaux ou en l’intégrant au site de la marque ou à d’autres sites.
• Insérer la vidéo à des playlists : l’avantage de mettre une vidéo dans une
playlist est que, lorsqu’un utilisateur a fini de la visionner, YouTube lance
automatiquement la vidéo suivante. Cela permet d’augmenter le nombre de
vues sur des vidéos ayant peut-être moins de trafic tout en conservant
l’internaute dans l’univers de la marque.
• Créer une bonne autorité pour la chaîne YouTube : de la même manière
que Google veut s’assurer de la qualité des auteurs et des sites Web sur le
Search, YouTube veut mettre en avant les personnes fournissant un
contenu de qualité sur la plate-forme. Une vidéo aura donc plus d’impact si
elle se trouve parmi d’autres bonnes vidéos, plutôt qu’isolée. C’est
pourquoi, la chaîne YouTube d’une marque doit être travaillée comme un
mini-site dédié à la vidéo. Créer une chaîne offre aussi la possibilité
d’établir un socle de visiteurs fidèles qui regarderont les contenus dès
qu’ils seront postés.
Le réseau professionnel de LinkedIn
LinkedIn est l’un des réseaux professionnel de grande ampleur. Il en existe de
nombreux autres que l’on peut travailler de manière similaire.
L’avantage de ces réseaux est que, parce qu’ils veulent promouvoir leurs
membres, ils sont ouverts aux bots des moteurs de recherche. Toutes les
recommandations données pour les réseaux précédents s’appliquent aux
réseaux professionnels. Mais le point fort de ces communautés est double :
• Un facilitateur de notoriété pour les entreprises BtoB : certaines
entreprises n’ont pas leur place sur les réseaux sociaux de divertissement,
car elles cherchent à atteindre des clients professionnels. Les réseaux
sociaux comme LinkedIn permettent une communication centrée autour de
la marque et l’accès à des profils de clients adaptés.
• Un discours orienté sur la marque : il est plus facile pour une marque de
créer des relations à des fins uniquement professionnelles sur des réseaux
qui présente l’employeur et le parcours de ses membres en entreprise. En
effet, la présence des membres – marque ou individu – sur ces réseaux est
signe de l’ouverture à un partenariat commercial.
Les stratégies génératrices de liens
Même si elles sont parfois difficiles à crawler pour les moteurs de recherche,
ces plates-formes de réseaux sociaux apportent du trafic au site tout en
participant à la notoriété digitale de la marque. Pour cela un cercle vertueux
doit se mettre en place. Les pages Web doivent faciliter l’acquisition de
membres sur les réseaux sociaux et les réseaux sociaux doivent augmenter le
trafic qualifié vers la marque.
Insertion d’une couche sociale au site Web
L’insertion des réseaux sociaux sur les sites Web est une pratique aujourd’hui
courante. Rappelons néanmoins les objectifs de cette dimension sociale pour
une marque :
• Faciliter le partage des contenus et, par conséquent, augmenter la notoriété
Web d’une marque.
• Recruter des membres pour les réseaux sociaux afin d’établir une relation
sur la durée.
• Prolonger l’expérience vécue sur le site Web et faire rentrer un membre au
sein de la communauté de la marque.
On trouve différents types d’intégration qui ont pour objectif différents
usages.
■ Les boutons sociaux
Le bouton social est un élément, le plus souvent de type bouton, que l’on peut
mettre à n’importe quel endroit d’un site Web. C’est la couche sociale la plus
facile à intégrer.
Figure 6.2 – Insertion de boutons sociaux sur une page Web
Les boutons sociaux ne doivent pas apparaître sur toutes les pages d’un
site. Il est important d’identifier les pages que l’utilisateur est susceptible de
vouloir partager ou sur lesquels la dimension sociale semble être en
continuité avec son expérience sur le site. Par exemple, si un visiteur trouve
l’un des produits révolutionnaire, il pourrait avoir envie de le soumettre à ses
amis. C’est à ce moment-là qu’un simple bouton de partage de son réseau
social favori prend toute sa valeur.
L’insertion de boutons sociaux montre le désir de promouvoir une page
Web. On retrouve deux types de boutons sociaux :
• Les boutons de promotion : ces boutons redirigent l’internaute sur une
page du réseau social, généralement le profil de la marque. Ils permettent à
l’internaute de connaître son activité sur le réseau social en question et de
devenir membre de sa communauté. Ils sont le plus souvent destinés à de
nouveaux visiteurs.
• Les boutons d’action : ces boutons facilitent le partage des contenus sur le
profil social choisi par l’internaute. Ils facilitent le partage d’un contenu
avec leur réseau, sans pour autant avoir besoin de faire partie de la
communauté de la marque.
FICHE
PRATIQUE
TROUVER LE BON EMPLACEMENT
POUR SES BOUTONS SOCIAUX
Ces boutons liant la marque aux réseaux sociaux viennent s’ajouter
aux call-to-actions habituels, ils doivent donc être pertinents et ne
pas alourdir la page. Afin de conserver l’efficacité de chacun de ces
éléments, il est important de définir quels boutons sont adaptés pour
chaque page, ainsi que le meilleur emplacement pour chaque type de
bouton. Le tableau ci-dessous donne des indications sur ces points.
Tableau 6.1
Les boutons de promotion Les boutons d’action
Choix de la On les retrouve généralement sur Ils sont le plus souvent mis en place
page les pages génériques comme par sur des pages « produits » ou sur des
exemple la Home Page ou toutes articles. Ils permettent de promouvoir
les Landing Pages. Ils permettent un contenu bien spécifique.
d’en apprendre plus sur la
marque et d’intégrer
une communauté.
Emplacement Ces boutons ayant un objectif de Afin de favoriser le taux de clics
de boutons communication globale, sur ces boutons, il est recommandé de
sur la page l’insertion doit se faire à des les mettre au plus proche des contenus.
endroits génériques de la page Si le contenu est particulièrement long,
comme le header ou le footer, ces boutons pourront être repris en
à moins de leur consacrer un début et en fin de page et parfois au
encart particulier sur la page. sein du contenu.
La meilleure manière pour répondre à ces questions est de bien
connaître les visiteurs, leurs utilisations des réseaux sociaux et de
comprendre la valeur ajoutée des boutons sociaux, davantage en se
positionnant comme l’internaute que comme la marque.
■ La connexion via les réseaux
Les sites proposant à leurs membres un accès dédié à une partie de leurs
contenus doivent mettre en place un processus d’inscription. L’inscription sur
un site peut à présent se faire grâce aux réseaux sociaux. En effet, ces
derniers ayant déjà de nombreuses informations sur les internautes, elles
facilitent le processus d’inscription. Nous recommandons tout de même de
conserver une possibilité de connexion classique sur le site, pour être sûr de
ne perdre aucun utilisateur.
Figure 6.3 – Exemple de Facebook Connect
Cette pratique a été initiée par Facebook au travers de son Open Graph21.
■ Les Rich Snippets sociaux
Pour bénéficier de visuels plus attractifs que les concurrents, il faut faciliter
l’accès aux informations des contenus.
L’insertion de métadonnées permet d’expliciter les éléments d’un contenu.
Chaque réseau social utilise son propre système de balisage. Comme nous
l’avons vu, Google recommande l’utilisation de schema.org. L’Open Graph
permet aussi la mise en place de balises, similaire à celles des données
enrichies (cf. chap. 3, « Les métadonnées ») qui permettent de donner plus de
visibilité aux contenus partagés sur Facebook22. Et Twitter proposer de
formater les Tweets grâce à un système de cartes aussi appelées Twitter
Cards23.
Cette structuration des éléments d’un contenu permet d’obtenir des
annonces ou des visuels enrichis. Cela signifie donc une plus grande visibilité
pour la marque et un meilleur taux de clics.
L’acquisition de liens via les médias sociaux
L’objectif d’une bonne stratégie sur les réseaux sociaux est de bénéficier de
liens naturels vers les contenus du site. En plus de l’insertion d’une couche
sociale aux pages Internet, les liens s’acquièrent grâce à une bonne mise en
avant des contenus sur les différents supports de communication24.
Pour cela, la mise en place d’une stratégie d’acquisition de liens doit être
réfléchie avec plusieurs acteurs de l’entreprise et doit englober l’intégralité
des supports et des méthodes de communication utilisée par l’entreprise.
Cette réflexion sur l’utilisation des réseaux sociaux est partie intégrante du
content marketing, lui-même se situant au centre d’une stratégie d’inbound
marketing. Voici quelques points à bien travailler pour acquérir des liens de
qualité issus de réseaux sociaux.
Le saviez-vous ? ■ Des liens pour vous faire connaître
par les internautes avant tout !
La notoriété digitale est l’ensemble des facteurs qui font qu’un site est connu et
visible sur Internet. Cette notoriété comprend la visibilité sur les moteurs de
recherche, mais aussi la visibilité sur d’autres sites Internet et sur les réseaux sociaux,
bref sur l’ensemble du Web. L’important est que les internautes « entendent » parler
de la marque et comprennent ce qu’elle propose. Cette visibilité est donc construite
grâce à l’ensemble des sites qui parlent de la marque. Ces sites peuvent se présenter
sous plusieurs formes et relayer les informations de manières différentes. On
distingue trois types de médias Web pouvant générer des liens :
• Les sites partenaires : on parle de sites partenaires pour tous les sites avec lesquels
un site donné est en relation. Ces sites peuvent être des partenaires commerciaux,
mais aussi des sites de fournisseurs ou de clients, rarement de concurrents, ou tout
site partageant la thématique du site donné.
• Les blogs : un blog est un espace dédié à la compilation, l’analyse et le partage
d’information à propos d’un sujet précis, il peut être privé, semi-professionnel ou
appartenir à un média connu. Peu importe le blog, ce qui compte c’est que la
marque soit représentée sur les blogs de sa thématique et qu’elle bénéficie de liens
vers son site Web, son blog ou des réseaux sociaux lui appartenant.
• Les réseaux sociaux : les réseaux sociaux sont tous les sites qui créent des
communautés d’individus qui partagent. Les contenus partagés peuvent être
d’ordre privé, professionnel ou porter sur les envies et les hobbies des internautes.
C’est la version Web du bouche-à-oreille, un internaute recommande quelque
chose qu’il apprécie, et les personnes de son entourage se fient à l’avis d’une
personne qu’ils connaissent et qu’il estime. L’internaute joue alors un rôle
d’ambassadeur pour la marque auprès de ses amis.
■ Les bonnes pratiques pour l’acquisition de membres
Des commentaires constructifs
Comme pour le comment seeding (cf. chap. 5, « Le comment seeding »), lors
d’un commentaire, il faut enrichir la discussion. Un commentaire félicitant
l’auteur est valorisant, mais ne montre pas l’expertise de la marque. En aidant
l’auteur ou les internautes, grâce à une participation active à la discussion, ces
derniers chercheront à mieux connaître la marque, et, s’ils trouvent des
contenus qu’ils aiment, ils feront des liens. Une relation de partenariat peut
même en découler.
Une attitude bienveillante
En publiant un contenu positif citant un auteur ou une autre marque, la
marque montre son ouverture et son respect des qualités d’autrui. Elle
augmente ainsi la probabilité que ses contenus soient partagés et, par là,
bénéficient de liens. La marque n’est plus seulement dans la promotion de
son image, mais elle se positionne comme experte sur un sujet. De plus, en
mettant en avant la qualité ou les compétences d’un acteur du secteur, celui-ci
pourra lui aussi vouloir la mettre en avant.
Un contact avec les influenceurs
La communauté est une source d’information. En effet, les membres ne se
limitent pas à une seule source d’information. En s’intéressant aux sites et
aux acteurs qui leur semblent compétents sur le sujet, on découvrira peut-être
de nouveaux sites de qualité.
La découverte de liens latents
En partageant les publications sur les réseaux, celles-ci seront reprises par de
nombreux acteurs via des retweets, likes, agrégateurs de news etc. La marque
accédera ainsi à un plus large public que sa communauté uniquement. Cette
visibilité donne donc la possibilité d’avoir des liens non prévus, car les
contenus peuvent être repris par un acteur dont on ignore l’existence. On
appelle ces liens potentiels des liens latents.
■ Le recrutement de membres
Grâce à ces comportements, la marque recrute des membres de manière
naturelle. Il est aussi possible d’adopter une attitude plus active pour obtenir
de nouveaux membres.
La première idée qui vient à l’esprit est d’acheter des membres. C’est une
pratique courante, surtout sur Facebook, mais peu recommandée. En effet, en
plus de prendre le risque d’être pénalisé, l’achat de membres a pour
conséquence une communauté peu active et probablement moins
ressemblante à l’image de la marque. Voici quelques pratiques plus
efficaces :
La réciprocité
Une marque doit montrer son implication sur les réseaux sociaux afin d’être
crédible. En devenant un participant actif du réseau, en likant des articles, en
suivant des individus ou des pages, elle montre une démarche différente.
L’internaute sera informé de cette prise de contact et pourra choisir d’adhérer
à la vision proposée par la marque sans craindre une trop grande publicité.
Cette notion de réciprocité est particulièrement efficace sur Twitter.
La visibilité des réseaux sociaux
De manière globale, informer les contacts de la présence d’une marque sur
les réseaux sociaux peut avoir un effet boule de neige. Chaque
communication – événement, communiqué de presse, interview – doit
mentionner l’existence de cette présence afin de toucher un public toujours
plus grand.
L’essentiel
►► Pour que la visibilité de la marque sur le Web
soit réelle, il est important d’adapter les contenus créés
sur les réseaux sociaux au (x) profil(s) du public présent
sur chaque réseau. La pertinence des contenus permet de
montrer la valeur ajoutée de la marque ainsi que
de convertir ou fidéliser les acteurs de son écosystème.
La création de relations de confiance sur d’autres
supports que ceux mis à disposition par la marque,
favorise la création d’une communauté de membres
impliqués, et par conséquent permet à la marque
d’obtenir une visibilité durable.
►► Le recrutement de membres se fait via la qualité
des contenus mais surtout par l’interconnexion des
réseaux sociaux avec les autres supports de
communication utilisés par la marque. Ils doivent être
intégrés à l’écosystème de l’entreprise.
►► La méthodologie pour être visible sur les réseaux
sociaux et attirer des membres est sensiblement
différente selon les réseaux sociaux mais aussi pour les
communautés au sein de ses réseaux. Être présent sur un
réseau social demande donc une veille poussée et
quotidienne pour connaître les dernières tendances et
utilisations du réseau par le public cible de la marque.
►► Les stratégies mises en place sur les réseaux
sociaux choisis doivent être cohérentes avec la stratégie
marketing globale. Les réseaux sociaux ne sont pas des
écosystèmes séparés de celui de la marque, ils doivent
venir s’entremêler à toutes les actions réfléchies ou
spontanées mises en place. En plus de leurs objectifs
premiers, ils doivent aussi relayer toutes les
communications qui seront faites, sous couvert que ces
communications s’adressent au public cible de chaque
réseau social.
Notes
1. http://www.youtube.com/watch?v=ofhwPC-5Ub4
2. http://www.youtube.com/watch?v=udqtSM-6QbQ
3. http://sproutsocial.com/insights/facebook-news-feed-algorithm-guide/
4. https://bitly.com/
5. http://goo.gl/
6. http://moz.com/blog/google-plus-seo
7. http://searchenginewatch.com/article/2307518/Google-SEO-How-Google-Impacts-
Search-Results
8. https://support.google.com/plus/answer/1713320?hl=fr-FR
9. http://moz.com/blog/using-google-plus-to-appear-in-the-top-results-every-time-
whiteboard-friday
10. http://moz.com/blog/google-plus-correlations
11. https://news.ycombinator.com/item?id=6243451
12. http://www.youtube.com/watch?v=FgFb6Y-UJUI
13. https://support.google.com/webmasters/answer/1229920
14. http://www.blindfiveyearold.com/authorship-is-dead-long-live-authorship
15. https://support.google.com/partners/answer/3198388?hl=fr
16. http://moz.com/blog/tips-to-use-google-for-seo
17. https://support.google.com/plus/answer/2888328?hl=fr-fr&ref_topic=2888488
18. http://www.youtube.com/watch?v=ULNrcqdjAt0
19. https://support.google.com/youtube/answer/3038280?hl=fr
20. http://searchenginewatch.com/article/2307785/5-YouTube-Video-Optimization-Tips
21. http://www.journaldunet.com/ebusiness/le-net/open-graph/les-origines-de-l-open-
graph.shtml
22. http://www.slideshare.net/slideshow/view/8313682?login=up2social&title=open-
graphfacebookup2-social
23. https://dev.twitter.com/cards
24. http://moz.com/blog/the-top-4-ways-to-use-social-media-to-earn-links-whiteboard-
friday
Chapitre 7
Dominer les SERPs
avec la recherche
universelle
Executive summary
►► Savoir trouver les synergies entre les différents
outils mis à disposition par les moteurs de recherche,
c’est être capable de s’insérer dans la logique Web et
de s’adapter aux modes de pensée numériques.
►► Les avis clients ainsi que tous les outils ajoutés aux
pages de résultats de recherche peuvent devenir,
lorsqu’ils sont bien travaillés, des renforcements positifs
pour l’image de marque.
On appelle recherche universelle ou universal search, les résultats de
recherche qui intègrent des résultats provenant des différents moteurs de
recherche verticaux1. Ces derniers sont des index spécifiques, comme par
exemple images, news ou encore maps. On y trouve, en plus des annonces
textes, des médias enrichis ou rich medias comme des images, des vidéos,
des cartes ou bien des produits.
Dominer les SERPs signifie que chacune des positions des résultats de
recherche est occupée par un site qui renvoie l’internaute vers une marque,
d’une manière ou d’une autre. Autrement dit, toutes les annonces, ou la
majorité d’entre elles, parlent de la marque. Les pages images, vidéos,
annuaires, d’un site partenaire ou d’un site Web étant indépendantes les unes
des autres, elles sont considérées comme des sites différents par les moteurs
de recherche. Une marque peut donc occuper toutes les, ou du moins une
partie, des positions au-dessus de la ligne de flottaison, et ce en première
page. Le plus simple sera de mettre ceci en place sur les termes « marque »,
mais il n’est pas exclu de pouvoir le faire sur d’autres termes. Il est plus
compliqué de dominer les SERPs sur des requêtes très génériques, mais c’est
plus facilement réalisable sur des termes middle et long tail.
La recherche universelle étant présente sur tous les moteurs de recherche, il
semble donc évident que, dans ce but, tous les leviers doivent être travaillés
en profondeur.
Tous les leviers dont nous avons parlé dans cette partie ont un autre
avantage ; en plus d’établir et de promouvoir une image de marque, ils
permettent de dominer les pages de résultats.
Figure 7.1 – Les règles d’or pour un site « recherche universelle friendly ! »
LE SAVIEZ-VOUS ? ■ Le SEA et le SEO, deux outils
complémentaires de la notoriété Web
Le SEM, Search Engine Marketing, autrement dit le marketing sur les moteurs de
recherche, est composé de plusieurs éléments permettant de construire et de travailler
une notoriété Web. Ces éléments sont distingués en trois catégories : le Search
Engine Advertising, les liens publicitaires et le Search Engine Optimization, les liens
naturels et des « box » d’informations qui apportent des résultats plus concrets aux
internautes.
Le SEO
Les liens naturels sont les liens proposés par le moteur de recherche comme réponse à
la requête de l’internaute. Leur apparition n’est pas rémunérée. Ces liens ne sont pas
uniquement textuels, ils peuvent aussi être sur des images ou des vidéos, on parle
alors de box. Le travail du SEO est d’améliorer les positions d’un site dans cette
partie-ci.
Apparu dans les années quatre-vingt-dix, le SEO a plusieurs noms : référencement
naturel, référencement organique ou Search Engine Optimization. Le SEO
correspond aussi à une industrie2 qui a pour objectif d’adapter un site aux critères des
moteurs de recherche. Il permet ainsi d’obtenir de meilleures positions dans les
résultats de recherche afin de donner une meilleure visibilité à une marque et par
conséquent plus de trafic à son site Internet.
Le SEA
En 2000, Google trouve une manière de monétiser son activité de moteur de
recherche en proposant de donner plus de visibilité à certaines annonces. La publicité
fait alors son apparition dans les moteurs de recherche. Généralement différenciées
des autres annonces par une couleur ou un tag, ces annonces publicitaires
apparaissent à des endroits privilégiés sur les pages de résultats de recherche, comme
le haut de la page. Sur Google, ces annonces sont signalées par un fond jaune ou un
tag, « Ads » ou « Annonces ».
Les liens sponsorisés sont donc des emplacements publicitaires où apparaissent des
annonces en rapport avec la requête de l’internaute. L’avantage de ces liens achetés
est le contrôle de l’intégralité des textes présents dans l’annonce ainsi que de l’URL
affichée dans les SERPs.
L’achat de ces emplacements publicitaires se fait par un système d’enchère. On
propose d’acheter en mot-clé à un prix et celui qui propose le prix le plus haut arrive
en première position et ainsi de suite. On ne paye que lorsqu’un utilisateur clique sur
l’annonce, on appelle cela le Cost per Clic, le CPC. Cette enchère prend aussi en
compte la qualité de l’annonce à l’aide du Quality Score, le QS. Ce score de qualité
est une note sur 10 attribuée par Google. Plus ce dernier sera élevé, plus le coût
d’achat des mots-clés sera réduit. Il est pris en compte lors de l’enchère. Un grand
nombre de critères sont observés pour attribuer la note de Quality Score 3. Cet achat
d’espace publicitaire peut se faire sur d’autres moteurs de recherche que Google.
Les box
Les « box » sont des encarts gratuits ajoutés par les moteurs de recherche pour
répondre directement à la requête de l’internaute, sans devoir passer par un site
Internet. Ces box n’apparaissent pas sur toutes les requêtes faites dans les moteurs de
recherche
Ces encarts dédiés sont en évolution constante au gré des besoins des internautes et
de la capacité des moteurs de recherche à y répondre. Les plus connues sont le
Knowledge Graph qui permet d’avoir des indications sur une personne ou un lieu
recherché directement dans la page de résultat d’un moteur de recherche, mais on
connaît aussi la box image ou la box vidéo qui proposent des images et des vidéos
liées à la requête de l’internaute. Ces encarts, très similaires aux annonces naturelles,
sont contrôlés par Google et ne peuvent être manipulés.
Figure 7.2 – Les types d’encarts sur une page de recherche
Le Knowledge Graph
Depuis 2012, Google a intégré un nouvel encart dans ses SERPs : le
Knowledge Graph. Le Knowledge Graph est une base de connaissances
construite pour permettre aux internautes d’avoir des réponses à leurs
requêtes directement dans les SERPs sans naviguer sur les sites Web. Ce
système comprend des faits sur des individus, des lieux et des choses et sur
leurs relations réciproques4.
Ces informations sont, selon Google, tirées de plusieurs sources, mais en
réalité, la source principale est Wikipédia. Cela pourrait changer avec une
meilleure utilisation des métadonnées (cf. chap. 3, « Les métadonnées ») ; les
moteurs de recherche publieraient alors les données leur étant fournies par les
sites5. Cet encart n’apparaît pas sur toutes les recherches, mais il tend à se
répandre sur de nombreux termes génériques, fréquemment recherchés par les
internautes.
Figure 7.3 – Un exemple de Knowledge Graph
Cet ajout marque clairement une évolution de Google vers une recherche
sémantique6 (cf. chap. 1, « Les facteurs sémantiques »), un modèle qui est
capable de comprendre les relations entre les différents termes d’une requête.
Cette évolution change le paysage des moteurs de recherche. En effet, elle
montre une volonté de la part de Google de répondre plus rapidement aux
requêtes des internautes, quitte à ne plus envoyer de trafic vers les sites
Internet. C’est pourquoi les sites Web doivent évoluer et proposer des
contenus de haute qualité pour capter du trafic.
Les synergies SEO et SEA
Le SEA est l’acronyme pour Search Engine Advertising et correspond à
l’achat d’espace publicitaire dans les résultats de recherche, on parle alors de
résultats payants.
Les annonces SEA et le SEO apparaissent donc lorsqu’un internaute entre
une requête dans un moteur de recherche. On pourrait croire qu’elles se
cannibalisent et s’excluent mutuellement. Il serait alors inutile de payer si la
marque apparaît déjà en bonne position dans les résultats naturels, de même il
serait inutile de travailler le SEO si les positions SEA sont bonnes. Il existe
pourtant plusieurs raisons pour travailler ces deux leviers en parallèle.
Une présence plus forte
Ajoutée à de bonnes positions dans les résultats naturels, une présence dans
les résultats payants donnera plusieurs avantages :
• Rassurer l’internaute sur la légitimité de la marque.
• Montrer la pertinence de la marque sur la requête formulée par l’internaute.
• Contrôler le titre et la description des annonces et faire passer un message
plus adapté.
• Profiter des extensions d’annonces plus diversifiées7 sur Adwords.
• Augmenter sa présence dans les SERPs.
Chaque internaute lit les résultats de recherche de manière différente. En
achetant des mots-clés sur lesquels la marque a une bonne présence naturelle
et en la positionnant dans les emplacements sponsorisés, sa visibilité sera
accrue.
Un positionnement rapide dans les SERPs
Les annonces SEA se positionnent rapidement dans les pages de résultats. En
effet, il suffit d’un budget adapté et de Landing Page de qualité pour gagner
une enchère, apparaître dans les SERPs et convertir des internautes. Les
campagnes d’inbound marketing s’avèrent être plus lentes en termes de
rendement. Construire une notoriété durable prend du temps.
Il existe donc plusieurs circonstances dans lesquelles on utilise les
campagnes Adwords pour pallier les manques SEO :
• Pour le lancement d’un site.
• Pour apparaître sur des termes qui n’ont pas encore été travaillés, par
manque de temps ou parce qu’ils ne sont pas prioritaires.
• Pour faire des tests afin de connaître le potentiel de conversion sur des
mots-clés avant de les travailler en profondeur.
• Pour proposer une Landing Page plus adaptée à la recherche de l’internaute,
si la Landing Page qui remonte dans les SERPs ne convient pas.
Un apport de trafic qui booste le SEO
Comme nous l’avons dit, le trafic entrant sur un site impacte son
référencement naturel (cf. chap. 1, « Les facteurs de navigation ») et ce, quel
que soit le levier ayant apporté ce trafic. Un autre levier amenant du trafic
aidera donc à améliorer ses positions8.
Dans le cas du SEA, l’arrêt d’une campagne augmentant le trafic peut faire
perdre des positions à un site. Avant d’arrêter des campagnes SEA, il faut
donc s’assurer de la provenance du trafic et planifier un arrêt progressif des
campagnes SEA apportant un fort trafic.
Une meilleure allocation du budget
En fonction des résultats SEO, on pourra décider de réallouer une partie du
budget SEA sur des mots-clés plus concurrentiels, sur des thématiques encore
peu travaillées ou encore sur d’autres leviers d’acquisition9. L’achat de
termes publicitaires correspond à un réel investissement pour la marque,
surtout sur les secteurs ayant une très forte concurrence. Une stratégie
d’inbound marketing efficace, qui améliore les positions d’un site Internet
dans les SERPs, permet à une marque de se concentrer sur les campagnes
SEA les plus rentables tout en conservant une bonne notoriété sur des termes
plus accessibles. Une analyse prenant en compte le SEO et le SEA permet
d’identifier les mots-clés sur lesquels ces leviers se cannibalisent et de
prendre les mesures nécessaires pour réduire les coûts et conserver un trafic
de qualité.
De plus, les coûts des campagnes SEA ne sont pas garantis, aucune marque
n’étant à l’abri d’un nouvel entrant sur son secteur ou d’un concurrent plus
agressif et donc de coût par clic dont le tarif va croissant.
Une amélioration du QS
Le Quality Score, ou QS, est l’indicateur de qualité des campagnes SEA pour
Google. Il favorise les sites considérés comme étant de qualité lors de
l’enchère permettant l’ordre d’apparition des annonces SEA pour chaque
terme. L’optimisation SEO d’un site contribue à l’obtention de meilleurs QS.
En effet, la qualité des Landing Pages est prise en compte dans le calcul du
QS. Les optimisations SEO structurelles et techniques (cf. chap. 3, « Le SEO
technique ») ainsi que la stratégie de content marketing adoptée améliorent la
qualité des Landing Pages. Ces dernières proposent un site mieux adapté aux
mots-clés achetés et rendent l’annonce payante plus pertinente pour les
internautes. Grâce à un meilleur Quality Score, on obtient une meilleure
visibilité pour des annonces moins chères.
Des tests plus faciles
Le SEA, grâce à un contrôle complet de l’annonce et à une rapidité
d’apparition dans les SERPs, facilite la mise en place de tests et permet un
retour d’informations rapide. On peut rapidement savoir ce qui fonctionne
auprès d’un public.
Voici les deux grandes catégories de tests qui peuvent être mis en place
grâce au SEA :
• 1. Sur les Landing Pages : pour plusieurs annonces identiques, on propose
des Landing Pages différentes. Cela permet de voir quelles pages
convertissent mieux ou celles qui répondent aux attentes des internautes.
Ces conclusions pourront être appliquées à l’ensemble des pages similaires
sur un site.
• 2. Sur les requêtes : lors d’une hésitation quant aux termes à travailler, la
mise en place d’une campagne SEA montre les termes les plus recherchés,
ceux qui obtiennent les meilleurs taux de clics et convertissent le mieux.
Une rapide analyse met en valeur les termes les plus rentables pour la
marque.
Ces deux leviers SEA et SEO sont donc complémentaires puisqu’ils
répondent à un même besoin : améliorer la visibilité d’un site dans les
SERPs. Il faut donc réfléchir à une stratégie qui englobe ces deux leviers au
sein de la stratégie globale d’acquisition et de visibilité.
Le Google Shopping
Google Shopping10 est le comparateur de produits de Google dont l’objectif
est de présenter des produits de différentes marques aux internautes. Il
s’appuie pour cela sur la technologie du moteur de recherche Google. Un site
e-commerce peut donc proposer ses produits sur Google Shopping11 pour
augmenter ses conversions.
Figure 7.4 – Box Google Shopping
L’avantage de cet outil est :
– qu’il est disponible en extension d’annonce (cf. chap. 1, « Les
métadonnées ») ;
– qu’il est intégré aux SERPs comme d’autres moteurs verticaux.
Ces listings de produits apparaîtront dans les résultats organiques sous les
annonces de la marque ou dans un encart produit de la page de résultats. Ils
pourront être reliés au compte Adwords avec le Product Listing Ads12 et
améliorer ainsi la visibilité des annonces SEA13.
La visibilité de la marque et de ses produits sera donc considérablement
augmentée dans les SERPs (cf. chap. 1, « Les pages de résultats, les
SERPs »).
Les avis clients
Grâce au Web 2.0, les internautes peuvent, à présent, facilement laisser des
commentaires et des avis sur des produits, des services ou les contenus d’une
marque14.
L’avantage des commentaires et des avis clients est de démontrer la
capacité d’une marque à accepter la critique. En laissant les internautes libres
de s’exprimer à propos des contenus (produits, services ou articles de blog),
la marque démontre qu’elle n’a rien à cacher. C’est pourquoi les avis négatifs
doivent être conservés, ils sont les garants de son honnêteté. Personne n’est
parfait, l’internaute accordera d’autant plus sa confiance s’il voit des avis
négatifs et s’il constate que la marque a su gérer cette situation de crise.
Il existe plusieurs manières de mettre en place les avis clients sur un site.
Les commentaires en fin d’articles de blogs ou de fiches produits ou les
étoiles en sont des exemples. Il est aussi possible d’externaliser la collecte
d’avis via des sites tiers15. Cette dernière technique est celle qui donnera la
plus grande sensation de transparence.
L’essentiel
►► Avec la recherche universelle, les moteurs de
recherche désirent fournir aux internautes une réponse
rapide à leurs besoins sans que ces derniers aient besoin
de naviguer sur des sites Web. Les entreprises doivent
donc profiter de ces outils pour y positionner leurs
marques tout en donnant envie de venir visiter leurs
pages.
►► La recherche universelle permet donc à
l’utilisateur de visualiser tous les types de résultats
concernant la marque, et ce d’un coup d’œil. Or elle
représente un vrai challenge pour les marques en mal de
visibilité. En effet, cette recherche universelle force les
marques à diversifier les contenus disponibles créés, pour
être visibles dans plusieurs types d’encarts des moteurs
de recherche et se démarquer de la concurrence, grâce
à tous les outils possibles mis à disposition. Mais ces
tâches requièrent du temps, une certaine technicité et
doivent s’intégrer à la communication choisie par la
marque, car le plus important reste de conserver la
pertinence et l’homogénéité du parcours utilisateur
proposé aux visiteurs.
Notes
1. http://googleblog.blogspot.fr/2007/05/universal-search-best-answer-is-still.html
2. http://moz.com/industry-survey
3. https://support.google.com/adwords/answer/2454010?hl=fr
4. http://searchengineland.com/google-launches-knowledge-graph-121585
5. http://www.graphemeride.com/blog/google-trends-leve-voile-sur-puissance-de-google-
knowledge-graph
6. http://www.informationweek.com/software/information-management/breakthrough-
analysis-two-+-nine-types-of-semantic-search/d/d-id/1086310
7. http://lemusclereferencement.com/2012/01/05/la-complementarite-seosea/
8. http://www.pullseo.com/sea-et-seo-interactions-et-influences/
9. http://blog.performics.com/achieving-seosem-integration/
10. http://fr.wikipedia.org/wiki/Google_Shopping
11. http://www.journaldunet.com/ebusiness/commerce/google-merchant-center/ et
http://www.ecommerce-webmarketing.com/2012/04/12/google-shopping-pour-un-site-
ecommerce-10282053 et http://www.seomix.fr/google-shopping/
12. http://www.google.com/ads/shopping/getstarted.html
13. https://support.google.com/merchants/answer/188493?hl=fr
14. http://www.journaldunet.com/ebusiness/expert/55980/les-avis-clients---un-outil-
incontournable-du-e-commerce.shtml
15. http://www.journaldunet.com/ebusiness/expert/56273/a-qui-appartiennent-les-avis-
clients-collectes-via-un-tiers-de-confiance.shtml
Chapitre 8
Les autres leviers de
réputation sur le Web
Executive summary
►► La visibilité Web, ce n’est pas uniquement le site
Web de la marque et les moteurs de recherche, c’est aussi
tous les emplacements où la marque peut faire parler
d’elle on ou off-line, en restant cohérente avec son
message, ses valeurs mais surtout son public.
►► Les applications mobiles sont, de plus en plus,
des alternatives aux sites Web. Les enjeux de visibilité
dans les pages de résultats des moteurs de recherche des
places de marché sont donc réels et bien trop peu pris
en compte par les marques.
►► La publicité peut être utilisée pour améliorer la
visibilité de la marque, mais seulement si elle utilise les
big data pour segmenter et cibler un public en recherche
d’informations sur les thématiques traitées par la marque.
Dans le cas contraire, il ne s’agit plus d’inbound
marketing, mais de publicité de masse.
Il existe d’autres manières d’améliorer la visibilité d’une marque dans les
SERPs et sur d’autres plateformes. Ces leviers ne sont pas tous pris en
compte par les algorithmes des moteurs de recherche, mais ils offrent encore
plus de visibilité aux produits et à la marque.
Nous listerons ces leviers sans entrer dans les détails techniques de leur
mise en place ou de leur fonctionnement, mais en fournissant les ressources
pour mieux les comprendre.
AppStore Optimization
et Google Play Optimisation
Les applications smartphones sont aussi des vecteurs de l’image de marque et
peuvent contribuer à améliorer sa notoriété. Pour cela, elles doivent non
seulement être de qualité mais surtout bénéficier d’une bonne visibilité. Lors
du lancement d’une application, quelques optimisations peuvent améliorer sa
visibilité dans les moteurs de recherche des places de marché. Une place de
marché pour application, aussi appelée marketplace, est l’endroit où elles se
vendent. Les deux principales places de marché sont Google Play pour
Android et Apple Store pour IOS. Chacune d’entre elles classe les
applications selon différents critères.
FICHE
PRATIQUE
APP STORE OPTIMISATION (ASO),
UNE VISIBILITÉ SUR LES MOTEURS
DE RECHERCHE APPLICATIFS
Les plateformes recensant les applications sont, elles aussi, régies par
un algorithme de classement qui fournit une liste de résultats classés
par pertinence selon la requête. Il est donc possible d’optimiser une
visibilité sur ces places de marché et d’augmenter le trafic vers des
applications. Voici donc les principaux facteurs à prendre en compte
lors de l’optimisation des applications.
Apple Store
• Le nombre de téléchargements.
• Le choix des mots-clés.
• Le titre de l’app et le nom du publisher.
• Le nombre de téléchargements durant une période donnée.
• Le nombre d’avis/notes.
• La dernière update.
L’Appstore privilégie donc la fraîcheur de l’application et sa qualité.
pour + de livres gratuits ---> www.bookys-gratuit.com
Google Play
• Facteur de popularité.
• Nombre de votes.
• Note globale.
• Taux d’installation des applications.
• Taux de désinstallation des applications.
• Taux de croissance des téléchargements.
• Continuité de croissance des téléchargements.
• Statistique sur l’usage de l’app.
Google Play veut proposer à ses membres des applications de qualité,
mais surtout dont la valeur ajoutée a été prouvée. Si l’application est
régulièrement utilisée, elle sera mieux référencée. Les internautes
doivent donc utiliser régulièrement l’application pour que celle-ci
soit considérée comme utile et bénéficie d’une meilleure visibilité.
La réputation par la publicité
Le remarketing
Le remarketing est l’affichage de publicités auprès d’internautes n’ayant pas
réalisé un objectif de conversion sur un site. Grâce à un système de tracking,
la marque – et souvent un outil tiers – identifie les visiteurs n’ayant pas
converti et leur propose d’achever cette conversion lors de leur navigation sur
d’autres sites Web. L’internaute peut donc se souvenir qu’il est allé sur ce site
Internet et aller terminer son action ; tel est l’objectif de l’entreprise.
Le remarketing est donc de la publicité pour des internautes ayant été sur
un site mais n’ayant pas terminé le parcours utilisateur prévu par la marque.
C’est donc un élément à la limite de l’inbound et de l’outbound marketing ;
une action push après une demande explicite de l’internaute. Mais, bien
utilisé, il permet de renforcer la « brand awareness » d’une marque et
d’augmenter sa notoriété sur le Web.
Le real time bidding
Ce nouveau concept concerne la publicité sur un réseau de sites, c’est donc
de l’outbound marketing. Or, comme pour le retargeting, les publicités ne
sont pas affichées à l’aveugle. Elles apparaissent sur des sites dont les
visiteurs ont été ciblés comme appartenant au public cible de la marque.
L’affichage des annonces se fait sur un mode d’enchères, d’où son nom RTB
pour Real Time Bidding, soit enchères en temps réel.
Le RTB permet donc d’atteindre un public qualifié ou de se rappeler à son
souvenir. Il fait donc partie d’une stratégie d’acquisition de trafic et de
promotion de l’image d’une marque et de ses produits.
L’utilisation des données CRM
Dans la logique des avis client, le CRM ou Customer Relationship
Management1 est une méthodologie qui permet la gestion d’un portefeuille
clients ou prospects. Ses utilisations sont nombreuses2, mais il est
principalement utilisé en inbound marketing pour connaître et comprendre les
visiteurs, afin d’apporter une solution à leurs besoins tout en établissant une
relation de confiance.
En effet, les données des clients peuvent être utilisées pour mieux
comprendre le public cible et pour apprendre à capter au mieux les nouveaux
entrants : ce sont les actions pour améliorer le « pull marketing ». Mais, grâce
au CRM, on peut aussi recontacter, en toute intelligence, les personnes ayant
laissé leurs coordonnées, autrement dit réaliser des actions de « push
marketing ». Il est difficile de séparer ces deux types de marketing, car la
plupart des actions induites par le CRM peuvent être mises en place dans des
stratégies de « pull » comme de « push marketing ». Nous ne travaillerons ici
que sur la partie compréhension du parcours utilisateur et la fidélisation de la
base client, car elles constituent le cœur de l’inbound marketing.
Le saviez-vous ? ■ Le CRM, un prémice des Big Datas
Le CRM est l’acronyme de Customer Relationship Management, soit la gestion de la
relation client (GRC en français). Dans un contexte plus large, on entend le CRM
comme tous les éléments (données et actions) permettant la compréhension des
utilisateurs d’un site Web, afin d’améliorer la relation entretenue avec la marque.
Cette analyse se base sur deux aspects de la relation client, la compréhension des
visiteurs pour les convertir et la fidélisation des clients.
La connaissance utilisateur
Il existe de nombreux outils qui rassemblent ces données et permettent de les croiser
pour fournir des analyses complexes qui permettent de comprendre au mieux les
utilisateurs et de les classer selon leurs comportements. Il est aussi possible de
s’appuyer sur certains services de l’entreprise pour collecter des informations,
généralement plus qualitatives, concernant les utilisateurs. Le service client est
généralement un des services ayant une meilleure connaissance client, mais les
services commerciaux ou marketing peuvent eux aussi apporter des données
précieuses pour la compréhension des visiteurs. Il est possible de récupérer ces
données sous plusieurs formats, entretiens, sondages et enquêtes mais aussi dans les
outils d’Analytics.
La fidélité client
On comprend souvent la fidélité client par l’action de revenir acheter un produit
auprès de la même entité. En inbound marketing, nous le comprendrons comme
toutes les actions positives d’un internaute envers la marque, toute marque de
confiance. Un internaute fidèle est un internaute qui peut contribuer à la notoriété de
la marque sur le Web, et ce de manière positive. Voici une liste non exhaustive
d’actions qui ont un impact positif pour une marque :
• L’internaute n’est pas client, il a visité le site et il revient pour acheter un produit.
• L’internaute revient régulièrement lire le blog et partage certains articles avec ses
amis.
• L’internaute recommande les produits ou services d’une marque.
• L’internaute a confié des informations personnelles à la marque afin de recevoir des
informations ou des offres commerciales qui lui correspondent mieux.
•…
L’analyse et la compréhension de ces données permettent de mieux segmenter la
cible client afin de proposer un message adapté aux besoins de chacun, créant ainsi
une relation plus intime avec chaque membre. Cette sensation de « one-to-one »
apportée par la personnalisation du message mais aussi des supports de
communication permet une plus grande identification du client à la marque ainsi
qu’un plus grand investissement émotionnel envers cette marque qui le comprend.
C’est l’efficacité des systèmes de CRM ainsi que la quantité de données mise à
disposition grâce au Web qui a ouvert la route à l’analyse et à la mise en relation de
toutes les informations à notre disposition, c’est ce que l’on appelle aujourd’hui Big
Data. Attention pourtant à ce terme très récent et encore mal utilisé qui n’implique
pas la même chose pour tous les acteurs du Web.
La récupération des données provenant des visiteurs
Le CRM offre la possibilité de compiler de nombreuses informations
concernant les visiteurs du site, les prospects et les clients. Ces informations
généralement fournies par le visiteur lui-même, lors d’une interaction avec la
marque, permettent non seulement d’établir une relation personnalisée avec
ce dernier, mais aussi de mettre à jour des schémas de comportements et
d’interactions avec la marque. Ces données aident à mieux cibler les
internautes et à apprendre à mieux communiquer autour de la marque.
Ainsi, en créant des typologies d’utilisateurs, la marque peut adresser un
message adapté au type de visite. Ce message favorisera la réputation de la
marque et les retombées seront directement visibles sur la notoriété en ligne.
Prise de contact par mail
À première vue, l’e-mailing ne semble pas être un outil d’inbound marketing,
car on l’associe généralement aux courriers publicitaires que nous recevons
dans notre boîte aux lettres. Pourtant, les mails ne doivent être envoyés qu’à
la demande de l’internaute, ils sont donc des vecteurs de la promotion
d’informations à un visiteur désireux de cette information. Or une stratégie
inbound marketing a aussi pour but de profiter de cette prise de contact de
l’internaute pour convertir ce client à plus ou moins long terme. L’e-mail est
donc un complément à la stratégie sur les réseaux sociaux (cf. chap. 6, « Le
SMO, une réputation contrôlée ») ; en entrant dans la boîte mail d’un
internaute, on crée une relation plus personnalisée et donc une sensation de
proximité plus forte.
Afin de rester dans le domaine du marketing entrant, on ne contactera que
les membres pour leur envoyer les informations demandées et les laisser
libres de leur réponse. De cette façon, une marque évite aussi un fort taux de
désinscription à ses e-mails. En effet, si les mails deviennent trop fréquents,
trop intrusifs ou trop insistants, les internautes se désabonnent plus facilement
du mail. Ils assimilent ces pratiques à du marketing promotionnel.
Création d’une relation sur le long terme
L’inbound marketing a pour objectif de mettre en place une relation de
qualité sur le long terme. Contrairement aux campagnes publicitaires
traditionnelles, les personnes réceptrices des messages envoyés par la marque
doivent se sentir comme des interlocuteurs privilégiés de cette dernière. C’est
uniquement ainsi que les actions d’inbound marketing prennent tout leur
sens. Grâce aux données et à la gestion des clients permise par un outil de
CRM, une marque peut adapter sa communication à ses interlocuteurs.
Voici quelques aspects qui peuvent être définis grâce au CRM :
• La fréquence des contacts.
• Un message adapté aux besoins de l’internaute en fonction de son
investissement auprès de la marque.
• Une communication directe avec la marque (possibilité de réponse par mail
ou téléphone).
• Le ton des messages (intimiste ou formel selon le visiteur).
Tout cela permettra de créer une relation la plus proche possible avec les
visiteurs et de donner une image positive de la marque. Cette notoriété très
indirecte aura donc comme répercussion des avis positifs sur le Web ou des
partages d’informations facilités.
L’essentiel
►► L’inbound marketing est la création d’une relation
durable de qualité entre une marque et un visiteur.
Tous les éléments permettant la rencontre et la mise
en place de cette relation sur le long terme doivent donc
être utilisés pour obtenir une stratégie de notoriété Web
efficace.
►► Construire une visibilité SEO ou inbound
marketing c’est avant tout mettre l’internaute et ses
besoins au cœur des enjeux de l’entreprise.
Notes
1. http://www.commentcamarche.net/faq/18787-choisir-un-logiciel-de-gestion-de-la-
relation-client-crm
2. http://crm.comprendrechoisir.com/chapitre/395
Chapitre 9
Analyses des actions
inbound marketing
off-site
Executive summary
►► Tout comme pour les actions On-Page, les KPIs
définis pour les actions Off-Page seront déterminants
pour mesurer l’impact des actions qui ont été mises en
œuvre sur Internet.
►► Pour cela, il faut, dans un premier temps,
comprendre la répartition du trafic. Ce n’est qu’une fois
que les canaux d’acquisition de trafic seront compris et
que les typologies de visiteurs seront définies que l’on
pourra se pencher sur la manière dont le site est perçu par
les internautes sur l’ensemble des leviers Web travaillés.
Analyses du trafic
Dans cette partie, nous chercherons à répondre à la question « Par quels
canaux mes visiteurs arrivent-ils sur mon site ? », autrement dit à savoir
comment les visiteurs découvrent ou reviennent sur un site Internet.
On distingue plusieurs types de trafic, le trafic provenant des publicités,
des moteurs de recherche, des sites partenaires, des réseaux sociaux et celui
provenant de la marque. L’idée de cette analyse est de comprendre par où
arrivent les internautes, afin d’identifier les canaux d’acquisition de visiteurs
qui doivent être travaillés. En recoupant l’intégralité des canaux
d’acquisition, on peut définir un public cible ou encore identifier des schémas
comportementaux. Il ne faut donc pas oublier de faire des analyses macro
pour transférer les réussites sur d’autres canaux.
En travaillant les actions d’inbound marketing, le trafic provenant de la
marque, des réseaux sociaux ainsi que du trafic organique doit augmenter
avec le temps.
Le trafic de marque
Le trafic de marque est le trafic de notoriété pure. Il s’agit des internautes qui
recherchent spécifiquement la marque. Le trafic de marque permet
d’identifier les personnes connaissant la marque et celles ne la connaissant
pas. On découvre ainsi la notoriété sur le nom de marque1.
Ce trafic se divise en deux parties :
1. Les internautes qui inscrivent le nom de domaine de la marque dans la
barre de leur navigateur. On parle alors d’accès direct.
2. Les internautes qui font une recherche sur le nom de marque – bien ou mal
orthographié – sur un moteur de recherche.
Le trafic organique
Le trafic organique correspond lui au trafic naturel. Les internautes
recherchent une information et découvrent ou redécouvrent le site. Ces
informations peuvent être trouvées via des requêtes dans les moteurs de
recherche ou lors de navigations sur des sites Web.
Bien analyser ce trafic organique permet de savoir où les internautes
découvrent la marque et si cela correspond à l’image que la marque veut
véhiculer. Mais l’analyse de ce trafic permet aussi de déterminer le potentiel
du trafic SEO ou des apporteurs de trafic, informations importantes pour
définir objectifs.
■ Le trafic des moteurs de recherche
Le trafic en provenance des moteurs de recherche est celui qui est le plus
regardé en SEO. Mais il est nécessaire de bien comprendre ce qu’il signifie.
On parle ici de tous les internautes qui ont visité le site, après avoir fait une
recherche sur un moteur de recherche, générique ou spécifique.
Par exemple, lors des analyses, on comprend que le trafic provenant de
Google peut venir de son index principal ou de ses index verticaux du type
images, vidéos ou autre.
■ Le trafic référent
On parle de trafic Referall ou référent pour l’ensemble des internautes qui
accèdent à un site via des liens trouvés sur d’autres sites Web ou des blogs.
Ces liens peuvent être de qualité ou non, issus de sites partenaires ou
d’annuaires etc. La marque doit donc bien différencier ces liens pour
comprendre comment les internautes accèdent au site.
Les liens provenant de la publicité sont exclus de cette analyse. Le trafic
qui en découle peut être analysé grâce à des tags de tracking.
Le trafic provenant des réseaux sociaux
Comme son nom l’indique, c’est le trafic qui provient des réseaux sociaux.
Lors des analyses, il est important de bien différencier les différents
réseaux sociaux les uns des autres. De cette manière, on peut identifier ceux
qui apportent le plus de trafic et vérifier, grâce à des analyses ultérieures, si
ce trafic convertit bien. On comprend ainsi quels sont les réseaux sociaux à
fort potentiel, sur lesquels la marque ne se positionne pas encore et on
élabore une stratégie pour mieux atteindre ce public latent.
Le trafic publicitaire
Ce terme regroupe toutes les autres entrées de visiteurs. La majeure partie
d’entre elles n’a donc rien à voir avec l’inbound marketing. Certaines, par
contre, s’avèrent être à la limite de l’inbound et de l’outbound marketing.
Nous les considérerons ici comme des actions publicitaires, car elles sont
plus facilement manipulables et donc contrôlables pour l’entreprise.
Il me semble important de rappeler que les canaux doivent être différenciés
lors des analyses. En effet, les outils de tracking disponibles insèrent un code
dans les URLs, code qui remontera plusieurs types d’information dont la
source des visiteurs.
Voici une liste non exhaustive de ce que nous comprenons comme des
sources de trafic publicitaire :
• Le SEA.
• Le remarketing.
• Le display.
• L’affiliation.
• Le mailing.
• Les codes promotionnels.
•…
Analyse de la notoriété
Nous répondrons ici à la question : « Le site est-il connu et apprécié des
internautes ? ». Il est primordial que les visiteurs apprécient la navigation, les
contenus et la réalisation d’objectifs sur le site pour le recommander. Ces
recommandations feront croître la notoriété et l’acquisition de visiteurs et/ou
de clients. C’est pourquoi il est important de comprendre ce que les
internautes aiment et quelles en sont les raisons.
Analyse des mots-clés
L’analyse des mots-clés consiste à regarder les mots que les internautes
entrent dans les moteurs de recherche et les mots qui les amènent vers un site.
Ces données sont disponibles dans les outils Analytics ou Webmaster
Tools, même si elles sont de plus en plus difficiles d’accès à cause de
l’augmentation des « not provided »2.
Une fois ces termes et leurs statistiques collectés, on comprend mieux les
besoins des internautes et les annonces qui y répondent le mieux. Ces
analyses permettent d’identifier les Top mots-clés ou expressions et d’en faire
des « case studies » pour les futures optimisations. De manière globale, la
marque acquiert ainsi une bonne vision de ce que ses visiteurs cherchent et
veulent trouver sur le site.
Analyses de liens
Comme vous l’aurez à présent compris, les liens provenant d’autres acteurs
du Web occupent une place très importante pour le SEO, comme pour la
notoriété Web. Il faut donc s’assurer que les liens reçus sont de bonne qualité
et cohérents avec la thématique du site.
Pour analyser ces liens, on utilise les données fournies par un outil,
Analytics, l’outil Webmaster Tools ou un outil tiers. On peut, par la suite,
coupler ces analyses de liens à une analyse de comportement des visiteurs
provenant du trafic Referral, et obtenir ainsi le comportement des utilisateurs
par typologie de site.
■ Mes liens m’apportent-ils une notoriété de qualité ?
La première chose est de savoir si les sites qui envoient du trafic ont une
bonne notoriété et s’ils sont considérés comme étant de qualité par les
internautes et par les robots. Tout au long des analyses, nous regarderons
donc deux aspects de la notoriété : la notoriété pour les bots et la notoriété
pour les internautes.
Cette analyse sera utile pour savoir si un site est bien compris par les
internautes et si la structure est adaptée à la stratégie d’inbound marketing.
Mais elle sera surtout utilisée lors de la mise en place de campagnes de liens
(cf. chap. 5, « Des campagnes de liens naturels »). En couplant ces
informations avec les données de navigations, les optimisations proposées
s’avéreront encore plus efficaces.
Les analyses doivent porter sur les points suivants :
• Le PR des pages émettrices de liens : le PR permet de connaître la
notoriété attribuée par les bots et, par conséquent, la qualité de ces pages
pour ces derniers. Comme nous l’avons vu (cf. chap. 1, « Connaître la
réputation d’un site, son PR »), le PR mis à disposition par Google est de
faible qualité, mais il se révèle tout de même un indicateur à ne pas
négliger pour l’analyse de liens.
• La proportion de liens provenant de pages de faible qualité et de celle
de liens provenant de pages de grande qualité : l’idéal est donc d’avoir
beaucoup de liens provenant de sites de bonne qualité, avec un bon PR.
Mais il est aussi important d’avoir de nombreux sites de qualité envoyant
des liens. Plus le réseau de liens sera grand, meilleure sera la notoriété de la
marque.
• La typologie des pages émettrices de liens : connaître la typologie de ces
pages (Home page, page catégorie, page produit…) permet de comprendre
à quel niveau de profondeur elles se trouvent dans l’architecture du site. On
peut ainsi améliorer le partenariat si nécessaire (cf. chap. 5, « Les stratégies
d’acquisition de liens naturels »).
■ Le code de mes pages partenaires est-il optimisé ?
Le réseau de lien doit être bien compris par les moteurs pour être bénéfique.
Pour cela, une analyse du code et des éléments du SEO techniques donne des
informations sur les compétences SEO et inbound marketing du propriétaire
du site.
Ces informations aiguilleront sur la possibilité de partenariat avec chacun
des sites émetteurs de liens.
■ Mes pages de destination sont-elles optimales ?
Nous devons à présent comprendre quelles pages du site reçoivent des liens
et déterminer la qualité de leurs contenus et leurs capacités à convertir
l’internaute. Autrement dit, quelles sont les pages qui intéressent les
internautes et pourquoi sont-elles mises en avant par les acteurs Web du
secteur d’activité ? On peut ainsi confirmer la sélection de Landing Pages (cf.
chap. 1, « Avoir de bonnes Landing Pages… ») et améliorer la promotion de
pages importantes qui ne bénéficient pas de la visibilité voulue.
Ces analyses de liens peuvent aussi être utiles pour analyser le maillage
interne du site (cf. chap. 1, « Analyse du maillage interne existant »). Elles
peuvent aussi reprendre les données des analyses de logs (cf. chap. 4,
« Analyses de log ») qui permettent de comprendre ce que voient les bots en
crawlant le site.
Comme nous l’avons vu, une grande quantité de données sur le profil et
l’engagement des internautes sur les profils sociaux d’une marque sont à
disposition. Travailler avec SMO manager ou un rédacteur Web permettra
des analyses régulières pour connaître la typologie des internautes, leurs
centres d’intérêt et leurs préoccupations du moment. Il en découlera la
construction d’une stratégie adaptable et réactive à la communauté de la
marque.
Le saviez-vous ? ■ Des plateformes dédiées à l’analyse des signaux
sociaux
Il existe maintenant des outils d’Analytics pour toutes les plates-formes, Facebook3,
Twitter4, YouTube5. Elles sont accessibles en mode connecté en tant d’administrateur
ou bien en utilisant des outils tiers. Attention, ces outils donnent principalement des
métrics, qui doivent être transformés en KPIs à la lumière des objectifs business.
Comme pour toutes les plateformes d’Analytics, les données fournies doivent être
utilisées avec précaution afin de s’assurer de la fiabilité des informations. Plus vous
aurez de données à analyser, plus vos déductions seront justes.
L’essentiel
►► De nombreux leviers sont donc disponibles
pour une marque qui veut promouvoir son message, et
de nouveaux leviers apparaissent régulièrement. Il est
donc important de savoir faire la part des choses en ne
communiquant que sur des réseaux, des zones
géographiques ou d’autres espaces adéquats pour la
marque et où un public cible a été clairement identifié.
►► L’analyse des canaux d’acquisition donne de
nombreuses informations sur la visibilité de la marque
sur le Web mais elle devient redoutable si on la couple
avec le comportement des internautes sur le site. On peut
donc estimer la provenance du trafic le plus qualifié et en
déduire les meilleures actions marketing et surtout
business.
►► Bien savoir utiliser les leviers de l’inbound
marketing et connaître les ressources disponibles au sein
de la marque est un gage de réussite.
Notes
1. http://searchenginewatch.com/sew/how-to/2405547/brand-vs-non-brand-measurement-
is-key
2. http://searchengineland.com/google-not-provided-review-186356
3. https://developers.facebook.com/docs/platforminsights/domains
4. https://analytics.twitter.com
5. http://www.youtube.com/yt/playbook/yt-analytics.html
Partie 3
Réorganiser
le SEO
en inbound
marketing
Chapitre 10
Une stratégie
inbound adaptée
au marché
Executive summary
►► L’inbound marketing c’est donc s’adapter
aux besoins de l’utilisateur pour booster sa visibilité. Il
est donc important que la marque prépare une stratégie
en cohérence avec la taille et la typologie de son marché,
mais surtout avec son public cible.
►► Être présent sur un marché, c’est aussi devenir
un autochtone. Les modes d’interaction avec
les internautes, les styles rédactionnels ainsi que tous
les éléments présentant la marque doivent être au plus
proche des besoins utilisateurs sur chaque marché.
►► Le SEO et plus largement l’inbound marketing
doivent donc prendre en compte les différences de
comportement et d’usage Internet selon les pays ou les
régions.
La marque doit réfléchir à des stratégies de marketing digital différenciées
pour le Web selon les utilisateurs et les manières de naviguer qui diffèrent
selon les pays, mais aussi au sein d’une même communauté en fonction de
l’expérience de chacun. L’inbound marketing doit donc intégrer ces disparités
pour augmenter son impact sur chaque marché. On ne communique pas de la
même manière selon que l’entité a une dimension régionale ou internationale.
Certaines marques positionnées sur plusieurs marchés et à destination d’un
public local doivent travailler leur notoriété locale et internationale. Ces
marques sont, entre autres, toutes les enseignes ayant des points de vente
physiques comme par exemple Dior ou Mac Donalds.
FICHE
PRATIQUE
CONSTRUIRE DES PERSONA POUR PLUS
DE PERSONNALISATION
Un persona est la représentation fictive d’un des segments de votre
cible. Il ne s’agit donc pas d’une personne réelle mais d’un
personnage créé de toutes pièces, après avoir analysé les données
compilées via vos outils. Un persona doit être très détaillé et complet,
ce n’est qu’ainsi que vous pourrez vous projetez et comprendre les
attentes de votre segment cible.
Pour créer ce persona, il est important de lister de nombreuses
informations, même si certaines semblent être éloignées de vos
problématiques, afin de travailler avec un personnage au plus proche
de la réalité. Votre objectif est de « profiler » votre segment afin de
pouvoir anticiper leurs besoins. Vos persona doivent aussi se trouver
à différents stades du parcours client. Il peut s’agir de visiteurs que
vous désirez capter, de prospects qu’il faut convertir, de clients qui
doivent être fidélisés, ou de clients fidèles que vous souhaitez voir
devenir ambassadeurs.
Libre à vous de plus ou moins segmenter votre cible et par
conséquent créer plus ou moins de persona. Il est aussi envisageable
d’avoir plusieurs persona pour un même segment et affiner ainsi
encore mieux la réponse aux besoins des utilisateurs.
Il existe plusieurs méthodologies pour créer des persona, je vous
laisse choisir celle qui correspond le mieux à votre organisation.
L’objectif ici est de comprendre à qui la marque s’adresse et dans
quel objectif afin de proposer le meilleur parcours de navigation
possible et par conséquent la relation la plus efficace sur le long
terme pour la marque.
Une notoriété locale
Le SEO local, aussi appelé référencement local, est destiné aux marques
ayant besoin d’avoir une présence sur des lieux précis. Les moteurs de
recherche sont aujourd’hui capables d’adapter leurs résultats à la position
géographique de l’utilisateur. Comme nous pouvons le voir avec
« Hummingbird » (cf. chap. 1, « Les updates de l’algorithme Google ») ou
son algorithme particulier1 pour le local, il est désormais possible pour une
marque d’indiquer qu’elle cible un public situé à un endroit précis.
Mais pour cela, certains points doivent être travaillés en priorité,
notamment :
• Avoir une page Google+ Local.
• Travailler une page Google Adresse.
• Inscrire la marque dans les listings et annuaires dédiés à sa thématique.
• Utiliser des micros données.
• Avoir des mentions et des avis pour chaque localisation.
• Avoir un site pour le mobile.
• Travailler une bonne stratégie de linking.
Une présence à l’internationale
Dans le cas d’une présence internationale de la marque, le site doit être
optimisé pour plusieurs typologies d’utilisateurs et de moteurs de recherche.
Il faut donc adapter la stratégie SEO et, de manière plus globale, la stratégie
d’inbound marketing à une visibilité internationale2.
La problématique des moteurs de recherche
Dans ce cas de figure, il est important de connaître et de savoir travailler les
moteurs de recherche prédominants sur chacun des marchés. Par exemple, il
est fortement probable d’avoir besoin de travailler sur Yandex pour la Russie
ou Naver pour la Corée.
Il est aussi possible de cibler deux moteurs de recherche dans certaines
zones géographiques, ce qui obligera la marque à faire des choix différents en
fonction de la zone ciblée. C’est pourquoi il faut avant tout chercher la part
de marché des moteurs de recherche3 sur les zones visées.
La problématique des langues
■ Structure du site
Lorsque l’on travaille sur plusieurs marchés, dont certains utilisent la même
langue, une attention particulière doit être portée à la structure du site, et plus
particulièrement à la Home Page4, page vitrine de ce dernier.
Pour comprendre comment structurer un site disponible en plusieurs
langues, différentes options s’offrent à la marque5 :
• Une structure par répertoire.
• Une structure par sous-domaine.
• Une structure par extension.
Avoir une extension de nom de domaine adaptée au pays ciblé est le choix
le plus judicieux, car il rapproche une marque de ses utilisateurs en leur
montrant une vraie présence sur le territoire. Elle leur indique qu’elle saisit
leurs problématiques et instaure ainsi une relation de confiance entre la
marque et ses utilisateurs. De plus, Google a pour objectif d’offrir des
résultats de recherche toujours plus pertinents et proches des besoins des
internautes. Un site avec un nom de domaine ayant l’extension du pays est
donc la solution la plus adaptée.
■ Communication des langues utilisées
Peu importe la solution choisie, les moteurs de recherche doivent être
informés du public auquel le site est destiné. Cela permet par ailleurs d’éviter
des problèmes de contenus dupliqués.
L’utilisation de la balise href = « lang »6 permet donc d’indiquer aux
moteurs de recherche la zone et la langue d’un site. L’indexation de ce
dernier dans le bon moteur de recherche local (google.fr, google.za etc.) en
sera aussi facilitée. Il est également possible d’informer les moteurs de
recherche via le Sitemap7.
■ Qualité de traduction et de navigation
Lorsqu’un site est lancé dans une nouvelle zone géographique, l’intégralité
des contenus doit être traduite, des URLs aux titres des produits jusqu’au
nom des images.
De plus, lors de l’utilisation du bouton langue, chaque page doit être liée à
sa page traduite. Il est primordial de ne pas envoyer un internaute vers la
Home Page du site traduit, sous peine de complexifier sa navigation ainsi que
l’indexation des pages par les bots.
La problématique des utilisateurs
En fonction des pays, les internautes ne cherchent pas de la même façon ni
les mêmes choses. Il est donc important de :
– travailler des listes de mots-clés par zone : Selon le pays cible, les
internautes n’utiliseront pas les mêmes termes de recherche pour trouver
une marque. Un site doit donc être adapté à un pays et non à une langue ;
– créer des contenus adaptés à chaque zone : La création des contenus sur
un site Web ou sur un blog doit correspondre aux attentes des internautes
sur une zone donnée et à la stratégie pour le pays choisi.
Ces éléments permettront d’adapter la traduction des contenus et des call-
to-action aux marchés et également aux recherches spécifiques des
internautes.
FICHE
PRATIQUE
QUAND ET COMMENT METTRE EN PLACE
LES ACTIONS INBOUND MARKETING ?
Mettre en place une stratégie d’inbound marketing peut se faire à tout
moment. Les actions seront différentes en fonction des nombreux
facteurs relatifs au secteur dans lequel évolue l’entreprise, aux
objectifs business et Web, aux moyens dont dispose l’entreprise mais
surtout le choix des actions à travailler et l’ordre des priorités seront
corrélés aux actions déjà mises en places et à leurs impacts.
La première chose à faire lorsque l’on commence à travailler sur un
site est un audit8. Il existe plusieurs types d’audits, les audits
techniques, les audits de contenus et les audits de notoriété qui
permettent d’analyser les liens et la présence sur les réseaux sociaux.
Pour mener à bien ces audits, on se base sur des données issues d’un
outil d’Analytics, du Webmasters Tools, des logs server ainsi que
d’autres outils mis en place par les propriétaires du site.
Une fois la roadmap des actions définie, il est préférable d’opérer les
changements par étapes, afin de pouvoir réagir pertinemment si un
problème se présente. C’est pourquoi les changements sur le site
doivent être espacés d’au minimum trois semaines et, si possible,
plusieurs actions de communication ne doivent pas avoir lieu la
même semaine.
En isolant ainsi les changements sur le site ou les actions mises en
place sur le Web, on procédera à une analyse détaillée des actions
pour comprendre les erreurs commises ou pour savoir à quel
événement attribuer un succès.
En parallèle, il est conseillé de communiquer avec le reste de
l’équipe marketing ou des autres équipes pouvant être impactées par
les actions inbound marketing travaillées, afin de vérifier l’impact
provoqué sur les autres leviers webmarketing. Au-delà des données
quantitatives apportées par les outils à disposition, le retour des
clients et des collaborateurs apportent une analyse qualitative
précieuse pour toute entreprise désireuse de construire une image sur
le long terme.
L’essentiel
►► Il est important de bien comprendre ses
utilisateurs et leurs comportements de navigation afin
de proposer une expérience la plus adaptée à leurs
besoins. La méthodologie la plus adaptée est de
segmenter son public cible et de créer des personna.
►► Certains éléments permettent d’informer les
moteurs de recherche de la langue utilisée sur un site
ou bien du pays pour lequel ce dernier est destiné.
L’objectif ici est double : les moteurs de recherche
proposent des résultats plus pertinents et la marque
améliore sa visibilité sur les moteurs de recherche locaux.
►► Les éléments du SEO technique, du content
marketing, mais aussi une partie des autres actions
inbound marketing doivent être retravaillées pour chaque
marché afin d’affiner le plus possible la réponse au
besoin utilisateurs. Il est donc recommandé de travailler
avec des acteurs locaux pour booster la visibilité de la
marque sur les pays principaux.
Notes
1. http://moz.com/blog/evolution-of-the-local-algorithm-whiteboard-friday
2. http://moz.com/blog/the-international-seo-checklist
3. http://returnonnow.com/Internet-marketing-resources/2013-search-engine-market-share-
by-country/
4. http://googlewebmastercentral.blogspot.fr/2014/05/creating-right-homepage-for-
your.html
5. http://www.webseoanalytics.com/blog/multiple-domains-vs-subdomains-vs-folders-in-
seo/
6. http://www.branded3.com/blogs/implementing-hreflang-tag/
7. https://www.youtube.com/watch?v=EcSsMbFSGyc
8. http://searchenginewatch.com/article/2334400/SEO-Website-Audits-Everything-You-
Need-to-Know
Chapitre 11
Travailler avec le reste
de l’entreprise
Executive summary
►► L’inbound marketing impacte de nombreux
projets au sein de l’entreprise. La personne en charge
de l’inbound marketing doit donc être capable de gérer
des projets transversaux avec les différents services
concernés. Pour que les différents projets réussissent
et qu’une réelle collaboration s’instaure, il est important
de connaître ses collègues et de prendre le temps de
savoir ce qui pourrait les intéresser en rapport
avec la notoriété Web.
►► J’ai choisi de proposer des portraits types
des différents profils. L’objectif est de donner une idée
générale des métiers susceptibles d’influencer les actions
inbound marketing et leurs objectifs, afin d’avoir les clés
lors d’un premier contact.
L’analyse des actions inbound marketing, et le fait de savoir si elles
concernent le SEO On-page ou le SEO Off-Page, nous permet de comprendre
le nombre d’expertises nécessaires pour créer une stratégie efficace. Il est rare
q’une seule personne possède toutes ces compétences, et même si cela était
possible, le temps nécessaire pour tout mettre en place lui manquerait. C’est
pourquoi il est primordial de constituer des équipes composées de talents
complémentaires.
■ Le Community Manager
Aussi appelé le CM, il est souvent artiste, il a toutes sortes d’idées pour
développer les axes de communication. Participer avec lui à l’agenda des
publications permet de comprendre les directives et les enjeux de marketing
et de communication auquel il doit faire face. Une fois qu’il a toutes les clés
en main, il faut lui laisser sa liberté. Ce métier est généralement choisi par des
personnes créatives et autonomes, c’est grâce à ces qualités que les
communautés prennent vie.
■ L’intégrateur
Aussi appelé Webmaster, c’est la personne responsable de la mise en place
des exigences techniques, design et SEO sur le site Web. Il est au point sur
toutes les nouveautés et les exigences d’Internet, ses connaissances et son
expertise sont un appui de taille lors de la mise en place d’actions inbound
marketing.
■ Le designer
C’est le vrai créatif de l’équipe, on peut lui parler d’ergonomie ou de
parcours utilisateur, il peut aussi faire des propositions révolutionnaires. Les
designers se sentent souvent bridés par des chartes graphiques lourdes et ils
seront heureux de pouvoir avancer des propositions plus « artistiques » ou
surfant sur les tendances.
■ Le marketeur
C’est un profil compliqué à décrire, car il existe de nombreux types de
marketeur ; les statisticiens à la recherche de l’analyse parfaite, le vendeur
orienté « produit », le communiquant qui veut promouvoir la marque etc.
Dans les grandes lignes, ce sont des personnes convaincues de l’importance
l’inbound marketing, mais qui n’ont pas forcément suivi les évolutions du
métier. Il est donc probable qu’ils aient besoin de rafraîchir leurs bases de
connaissances et donc de les former. Les marketeurs ont généralement une
grande expérience du métier et du secteur, leur expertise apportera une vision
approfondie des besoins utilisateurs et cela vaut de l’or, car c’est grâce à ces
informations que seront élaborées des stratégies brillantes.
■ Communication et RP
Les services marketing et communication traditionnels sont, le plus souvent,
encore peu habitués au Web. Il sera donc nécessaire de les former aux
exigences de l’inbound marketing tout en valorisant leurs compétences et
leurs réseaux. Grâce à eux, de bons partenariats se mettent en place,
fournissant au site des liens de qualité. Tout leur savoir-faire est applicable au
Web, ils ont juste besoin d’être familiarisés au concept de liens et à la
rédaction Web ; pour le reste, on peut leur faire confiance.
■ Le développeur
Une grande partie des développeurs ne voit pas d’un bon œil le SEO
technique, comme le marketing en général. Afin de mettre en place une
bonne collaboration, il est important de connaître leur charge de travail et de
mettre en place une roadmap. Les développeurs sont très demandés par les
différents services de l’entreprise, c’est pourquoi il faut proposer des actions
claires et bien expliquer les enjeux de chacune des actions demandées.
■ La direction
Ici l’objectif est clair, c’est être visible partout. Que vous ayez une direction
qui aime regarder les chiffres et pour laquelle il faut soigner les analyses ou
une direction plus créative, auprès de laquelle il faudra expliquer le détail des
actions, soyez prêt à convaincre. Ces dirigeants savent que leur notoriété Web
est vitale pour leur activité, mais ils doivent prendre conscience de ce que
cela implique pour leurs équipes. Il faut donc évangéliser sur les actions
à mettre en place ainsi que les délais, mais de manière concise.
pour + de livres gratuits ---> www.bookys-gratuit.com
FICHE
PRATIQUE
L’INTÉGRATION DE L’INBOUND MARKETING
À LA STRATÉGIE D’ENTREPRISE
Pour élaborer une stratégie efficace, il faut donc :
– une bonne vision du public cible et une compréhension approfondie
des besoins des utilisateurs ;
– une bonne connaissance du site sur lequel on veut travailler ;
– une bonne compréhension de l’environnement concurrentiel de la
marque ;
– une bonne évaluation des capacités de l’entreprise pour implémenter
les actions proposées ;
– une bonne estimation de la charge de travail des collaborateurs pour
fixer des objectifs atteignables.
Grâce à ces éléments, on peut faire une liste des actions à mettre en place
et les planifier à l’aide d’une roadmap. Il arrive que les propositions fassent
peur, par la charge de travail requise ou parce que leurs impacts ne sont pas
clairement établis dans le temps. En effet, mettre en place une stratégie
inbound marketing demande de grands changements pour tous les
collaborateurs. Le soutien de la direction n’est pas toujours gage de réussite,
mais une collaboration réussie avec tous les acteurs de l’entreprise mettra
toutes les chances de votre côté.
L’essentiel
►► Vous l’aurez compris : l’inbound marketing n’est
pas un travail individuel. Il faut savoir travailler en
équipe et apprendre à écouter les contraintes, les limites
et les besoins de chacun.
►► Prendre l’habitude de travailler avec des
roadmaps qui résument les actions de chacun, et estimer
un temps de réalisation pour chacune d’entre elles, tout
cela permet paradoxalement plus de flexibilité, mais
surtout plus de projets réussis.
Conclusion
Un métier en constante évolution
Le SEO devient donc de l’inbound marketing
Le SEO, tel que nous le comprenons aujourd’hui, est donc devenu de
l’inbound marketing. En effet, la visibilité sur le Web est à présent la somme
de nombreux facteurs qui vont bien au-delà de ce qui est traditionnellement
compris par le terme SEO. L’assemblage de ces facteurs permet la présence
d’une marque sur le canal choisi par un internaute lors de sa recherche
d’information.
Mais attention, les leviers de l’inbound marketing ne sont pas tous
incompatibles avec les méthodes traditionnelles d’outbound ou de push
marketing. En effet, sur le Web, une marque s’adresse aussi bien à des
acteurs passifs qu’à des communautés actives avec lesquelles elle est en
relation. La marque doit donc se positionner pour répondre à toutes les
typologies d’utilisateurs : ceux qui interagissent et ceux qui préfèrent rester
dans l’ombre. On voit trop souvent des entreprises tombant dans l’un de ces
extrêmes : l’une souhaite garder le contrôle sur ce qu’elle lance sur le Web et
ne s’engage pas dans une communication libre, l’autre s’engouffre dans le
Web 2.0 et perd sa consistance et sa légitimité.
Il est donc primordial de trouver une juste voix dans un univers
cacophonique, et c’est la raison pour laquelle une réflexion inbound
marketing vous livrera les outils nécessaires pour y réussir.
Continuez, approfondissez…
Cet ouvrage ne fait qu’effleurer la surface de ce qu’est l’inbound marketing.
Si vous désirez approfondir le sujet, vous trouverez toutes sortes de
références dans les notes. Les liens présentés sont des pistes de confiance afin
d’approfondir en fonction de vos besoins les sujets abordés dans ce livre.
L’univers du Web est en perpétuelle évolution, vous ne devez donc jamais
cesser de suivre ses mutations. Mettez donc une veille efficace en place pour
connaître ses évolutions. Les tests et les analyses de la communauté vous
permettront de dégager les tendances et ainsi de construire des actions
durables. Soyez aussi toujours attentif aux évolutions des moteurs de
recherche en vérifiant leurs brevets1 et en surveillant leurs produits. Le Web
étant toujours en mouvement, les métiers qui y sont associés exigent de ce
fait une grande souplesse, un esprit curieux et alerte, en résumé une grande
capacité d’adaptation.
Notes
1. http://www.seobythesea.com/2011/12/10-most-important-seo-patents-part-1-the-
original-pagerank-patent-application/
Glossaire
du marketing digital
R édigé par Sandra Vendramini, Responsable de l’offre de formation à
l’ISM – Institut Supérieur du Marketing
A/B testing
Technique utilisée en marketing digital afin d’optimiser la qualité d’un site
web, d’un emailing, d’un visuel. Il s’agit de mettre en place simultanément
deux versions différentes (A et B) d’une même fonctionnalité, en changeant
une variable. À l’issue de ce test en réel, la version la plus efficace est mise
en place de façon pérenne.
Ad-exchange
Plateforme automatisée qui permet d’acheter et vendre des espaces
publicitaires online en temps réel. Grâce à un système d’enchères
automatisées, chaque annonceur achète des emplacements publicitaires aux
sites, réseaux et régies, en fonction des critères de ciblage, d’audience et de
prix qu’il a définis. La publicité est ensuite mise en ligne en quelques
millisecondes.
Affiliation
Pratique de marketing digital qui permet à un site web diffuseur – l’affilié –
de relayer les produits ou services d’un annonceur partenaire, l’affilieur.
L’affilieur rémunère l’affilié en fonction des ventes, visites ou leads générés.
ASO
Application Store Optimisation, soit le référencement des applications sur les
pages de résultats des marketplaces.
Atawad
Acronyme désignant l’expression « any time, any where, any device ». Cela
illustre l’évolution sociétale et technologique qui fait que les individus ont
l’habitude et l’envie d’accéder aux contenus quels que soient le moment,
le lieu et le support (ordinateur, mobile, TV, tablette). Le terme
ATAWADAC précise « any content », c’est-à-dire quel que soit le contenu.
Beacons
Technologie de géolocalisation permettant à l’annonceur d’interagir en temps
réel de façon personnalisée avec son client. En fonction des informations à
disposition (profil, historique d’achat) et du lieu où il se trouve, l’annonceur
peut ainsi envoyer un message directement sur le mobile du client.
Capping
Fonctionnalité permettant, grâce à l’exploitation de la data, de limiter la
fréquence à laquelle un utilisateur sera exposé à une même publicité online.
Cette technique évite la surexposition publicitaire et donc le phénomène de
saturation.
Click & mortar
Expression anglo-saxonne désignant une entreprise ayant ajouté une activité
en ligne (click) à son commerce physique traditionnel (mortar).
CMS
Acronyme désignant un « content management system », c’est-à-dire un outil
de gestion de contenu. Ce type de logiciel permet de concevoir et de publier
des documents sur internet, comme par exemple Wordpress pour la gestion
d’un blog.
CNIL
Acronyme de la Commission nationale de l’informatique et des libertés. Cette
autorité administrative française est garante de la protection des citoyens
face au monde digital, notamment en matière de gestion des données
personnelles. Référent dans son domaine, elle contrôle que la loi est respectée
et sanctionne lorsque cela n’est pas le cas.
Conversion
L’ensemble des objectifs fixés par la marque afin de valider le succès de ses
actions marketing. Une conversion est le plus souvent un achat, mais peut
aussi être une visite en magasin, le remplissage d’un formulaire ou encore un
partage sur un réseau social.
Cookie
Petit fichier texte stocké sur le terminal de l’utilisateur pour l’identifier. Il
permet aux sites internet de reconnaître leurs visiteurs, donc d’établir des
statistiques, et potentiellement de s’adresser à chacun de façon plus
personnalisée.
CPM, CPC, CPA
Acronymes correspondant aux différents modes de rémunération possibles en
publicité online.
CPM
Signifie « coût par mille », c’est un coût payé pour 1 000 affichages de la
publicité.
CPC
Représente le « coût par clic », c’est le coût payé à chaque fois
qu’un utilisateur clique sur la publicité.
CPA
Correspond au « coût par action », c’est une rémunération au résultat, qui
intervient chaque fois qu’un utilisateur réalise une action définie comme
l’objectif de la campagne : par exemple remplir un formulaire ou effectuer un
achat.
Cross-device
Technique qui vise à personnaliser l’expérience utilisateur, en l’identifiant et
en le ciblant sur les différents écrans (TV, desktop, mobile, tablette) qu’il
utilise.
Crowdfounding
Tendance sociétale, également appelée « financement participatif », selon
laquelle un entrepreneur ou une entreprise peut financer un projet en faisant
appel à un grand nombre de personnes, généralement via une plateforme
digitale, par exemple Kickstarter ou Kisskissbankbank.
Crowdsourcing
Technique de développement participatif consistant, pour une entreprise, à
faire appel pour son propre projet à la créativité et au savoir-faire d’un grand
nombre de personnes extérieures. Cette technique peut s’appliquer pour
recueillir des avis d’utilisateurs comme pour faire un appel d’offres pour une
création publicitaire.
Curation
Méthode visant à collecter des informations pertinentes autour d’un thème
donné et à les partager de façon claire et organisée, sur un blog dédié ou sur
les réseaux sociaux par exemple.
CX
Acronyme de « customer experience », c’est-à-dire l’expérience client.
Cette expression désigne le ressenti du client tout au long de son parcours et
des points de contact avec la marque, de la recherche d’informations
en amont jusqu’aux échanges post-achat.
Content marketing
Technique qui consiste à développer et diffuser gratuitement des contenus
(vidéos, blogs, livres blancs, articles) susceptibles d’intéresser ses prospects.
Cette méthode, alternative à la publicité « push », permet de se faire
connaître, de gagner en légitimité, d’acquérir une audience qui se convertira
en clients.
DMP
Acronyme de « data management platform » ou plateforme de gestion des
données. Il s’agit d’une plateforme qui permet de collecter, centraliser,
analyser et exploiter toutes les données relatives à ses clients et prospects,
de façon à mieux personnaliser ses communications et à gagner en impact.
E-merchandising
Ensemble de techniques visant à optimiser l’ergonomie d’une interface web,
afin d’optimiser le taux de transformation et le panier moyen.
Growth hacking
Méthode issue de la Silicon valley, dont l’objectif est de booster la croissance
en utilisant des techniques peu coûteuses, créatives, malignes et agiles.
Le terme growth marketing est également employé, pour différencier
les pratiques actuelles des techniques des hackers informatiques.
Inbound marketing
Par opposition à l’outbound marketing, qui consiste à envoyer des messages
« push » à ses prospects, l’inbound marketing consiste à faire venir les clients
à soi (« pull ») en diffusant des contenus qui correspondent à leurs besoins,
en se rendant visible et accessible, et en facilitant la conversion.
IOT
Acronyme d’« internet of things » ou internet des objets. Cette expression
désigne le fait qu’internet s’applique aujourd’hui aussi au monde physique, à
travers les objets connectés et l’intelligence artificielle, qui permettent
potentiellement d’améliorer l’expérience utilisateur.
IRL
Acronyme de « in real life », c’est-à-dire dans le monde physique, par
opposition au monde digital.
KPI
Élément basé sur une metric ou un ensemble de metrics permettant de suivre
l’impact des actions marketing ainsi que ses évolutions. Le KPI permet
d’identifier ce que la marque va suivre.
Landing Page
Page d’atterrissage, soit la première page visualisée par l’internaute en
provenance d’un emplacement extérieur au site (moteur de recherche, réseau
social, autre site Web, etc.).
Lead nurturing
Technique utilisée essentiellement en B to B, qui consiste à bâtir une relation
forte avec un prospect (le « lead ») et à le nourrir de contenus afin qu’il
murisse sa réflexion et se transforme en client.
Longue traîne
Phénomène propre au e-commerce, caractérisé par le fait qu’une partie
importante du chiffre d’affaires est souvent réalisée par la somme des ventes
d’une multitude de produits à très faibles rotations. Un phénomène proche est
souvent constaté en référencement, le trafic pouvant provenir d’un nombre
important de mots-clés, chacun d’entre eux étant peu utilisé.
Marketing automation
Ensemble de techniques et de moyens qui permettent d’envoyer de façon
totalement automatisée des messages ciblés et personnalisés à ses prospects
en fonction de critères et scénarios établis en amont. Cette méthode
a pour objectif d’envoyer le bon message, à la bonne personne, au bon
moment, via le bon canal, et d’optimiser ainsi le taux de conversion.
Media snacking
Tendance sociétale forte liée à la transformation digitale qui consiste
à préférer les contenus courts, rapidement consommables. Dans ce contexte,
pour capter l’attention, les marques développent du snacking content, c’est-à-
dire des contenus très courts et allant à l’essentiel.
Native advertising
Forme de publicité consistant à intégrer un contenu de marque au sein d’un
média. Ce modèle, qui s’est développé suite à la baisse de l’efficacité de la
publicité traditionnelle, permet à la marque d’affirmer son expertise à travers
un contenu pertinent, sans faire de publicité directe sur ses produits.
Opt-in, opt-out
Deux manières de collecter les données utilisateurs, pour les utiliser à des fins
commerciales. Avec l’opt-in, l’utilisateur donne explicitement son accord,
alors qu’avec l’opt-out, ses données sont collectées automatiquement
sauf s’il émet le souhait qu’elles ne le soient pas.
Permission marketing
Concept inventé par Seth Godin, selon lequel la clé de l’efficacité
des campagnes marketing est d’obtenir en amont l’accord du prospect avant
de lui délivrer un message (opt-in). Ainsi, il ne perçoit pas le message
comme intrusif, il y est plus réceptif et plus enclin à s’engager.
POEM
Acronyme de « paid, owned, earned media », concept qui divise les médias
en trois catégories : les médias que l’on achète (paid media : la publicité),
ceux que l’on possède (owned media : par exemple son site web, son blog,
ses réseaux sociaux) et ceux que l’on acquiert (earned media : par exemple
les retombées presse et le buzz).
RTB
Acronyme de « real time bidding ». Il s’agit d’un système d’enchères en
temps réel qui est utilisé pour acheter et vendre des espaces publicitaires
digitaux. Les échanges ont lieu sur des plateformes appelées « ad-
exchanges » et se font de façon automatique en quelques millisecondes, selon
le principe de la publicité programmatique.
Retargeting
Concept qui consiste à personnaliser les bannières publicitaires online en
fonction des comportements digitaux et des centres d’intérêt de l’utilisateur,
afin de les rendre plus pertinentes et donc plus efficaces. Ainsi, un utilisateur
ayant regardé un produit sur un site pourra visionner la publicité de ce produit
lors de sa navigation sur un autre site. Sur le même principe,
l’email retargeting consiste à envoyer un email à l’utilisateur qui a regardé un
produit sans procéder à un achat.
ROPO
Acronyme de « research online, purchase offline », qui désigne l’un des
comportements de consommation cross-canal alliant les points de vente
physiques et digitaux : le ROPO consiste à se renseigner sur internet puis
acheter en point de vente, le ROBO (« research offline, buy online »),
également appelé « showrooming », désigne le comportement inverse, c’est-
à-dire se renseigner et aller voir le produit en point de vente puis passer sa
commande en ligne.
SEA, SEO, SEM, SMO
Termes utilisés pour définir les différents types de référencement d’un site
web.
SEO
signifie « search engine optimization » et correspond à l’optimisation de la
visibilité du site via son référencement naturel. Ce sont toutes les techniques
permettant d’améliorer sa position dans les moteurs de recherche.
SEA
représente le « search engine advertising ». Il s’agit d’un référencement
payant qui offre une visibilité en tant que lien sponsorisé en tête des résultats
de recherche, grâce à l’achat de mots clés, les « adwords » de Google
par exemple.
SMO
Correspond au « social media optimization ». Ce sont toutes les techniques
visant à donner plus de visibilité à la marque sur les médias sociaux, et donc
à développer par ce biais les visites sur le site.
SEM
Couvre la visibilité globale du site et de la marque, il englobe le SEO, le SEA
et le SMO.
SERPs
Search Engine Page Results ou pages de résultats des moteurs de recherche.
L’ensemble des éléments fournis par un moteur de recherche lors d’une
requête.
SoLoMo
Acronyme qui désigne l’expression « social, local, mobile ». Cela couvre
l’ensemble des pratiques marketing cross-canal qui intègrent dans
leur approche à la fois l’utilisation du mobile, les échanges sociaux, et
la proximité. Par exemple : une marque qui pratique le click & collect envoie
un sms à son client lorsqu’il est géolocalisé près de sa boutique, organise
des jeux concours sur Facebook.
Social commerce
Pratique qui consiste à utiliser les réseaux sociaux pour développer ses
ventes. Cela comprend à la fois les possibilités de ventes directes (grâce au
bouton « buy » ou dans les boutiques virtuelles) et la capacité à utiliser les
réseaux sociaux de façon à valoriser suffisamment sa marque et ses produits
pour générer de l’engagement et donc développer ses ventes de façon
indirecte.
Social media intelligence
Ensemble des méthodes et techniques qui permettant d’« écouter » les médias
sociaux. Il s’agit d’analyser les échanges afin de mieux comprendre
les comportements, attentes et insatisfactions de ses clients et prospects, et
d’identifier des insights, sources d’innovation.
Trigger marketing
Ensemble des techniques marketing de personnalisation consistant à envoyer
automatiquement un message ciblé lorsque le prospect fait une action
(exemple : premier achat du client) ou lorsqu’un événement se produit
(exemple : anniversaire du client) selon des scenarii prédéfinis.
UGC
Acronyme de « user generated content », qui désigne le contenu produit par
les utilisateurs ou les visiteurs, par opposition au contenu créé par les
marques et médias traditionnels. Les réseaux sociaux, les sites
communautaires contiennent par exemple du contenu créé par les utilisateurs.
UX
Acronyme de « user experience », c’est-à-dire l’expérience utilisateur. Cette
expression désigne le ressenti et la réaction du client tout au long de son
utilisation du produit ou service de la marque. L’UX design consiste à
concevoir le site web de la marque de façon à optimiser l’expérience de
l’utilisateur.
Web 2.0
Terme très utilisé à la fin des années 2000, englobant les sites dits de
« seconde génération », qui intègrent des modalités communautaires et
collaboratives et permettent à l’utilisateur de devenir acteur, comme les blogs
et les réseaux sociaux.
Web 3.0
Terme aux contours par définition mal définis, car il représente le web de
demain, celui qui, en utilisant les nouvelles tendances et technologies
digitales, succédera au web 2.0.
Web analytics
Ensemble des outils permettant d’analyser et suivre des KPIs digitaux, donc
de piloter son activité digitale. Parmi les plus utilisés, Google analytics
permet d’analyser le trafic sur son site en provenance du moteur de
recherche, et donc d’optimiser son site en fonction des résultats.
Web to store
Dispositif également appelé « drive to store » par le lequel la marque incite
ses visiteurs à venir sur les points de vente physiques. Le principe du « click
& collect » est par exemple de commander en ligne puis de venir chercher
sa commande directement sur le point de vente choisi.