Votre référencement naturel dépend de 3 éléments interdépendants qui doivent être pensés de manière globale : optimisation technique, création de contenus à forte valeur ajoutée et acquisition de liens pérennes.
Ces trois types d’interventions doivent être au centre de votre stratégie digitale pour les mixer le plus naturellement possible à vos autres leviers d’acquisition et de fidélisation.
Du choix de votre socle technique (choix mode de développement de votre site ( Nous
réalisons uniquement du "sur mesure" , type d’hébergement, IP du serveur, …)
dépendra la mise en place d’optimisations techniques pour rendre votre site «
SEO friendly » ie « prêt à être référencé » dans les moteurs de recherche.
Même si la plupart des CMS connus ont fait de réels progrès en matière de SEO, tous
ne se valent pas et rien ne vaut une fabrication sur mesure de votre site ,le rôle
du développeur / intégrateur est central dans le succès de votre futur
référencement.
Cette phase d’optimisation technique doit être réalisée le plus en amont possible du projet. Nous travaillons en collaboration avec votre équipe de développement (interne ou par nos services ) pour lever tous les facteurs bloquants votre futur référencement et apporter les points techniques clés de l’optimisation de votre site internet.
Les metas sont des balises html contenues dans l’entête d’une page web permettant de fournir des informations aux moteurs sur son contenu. Les plus courantes sont les balises meta « title», «description» et «keywords». A cela peuvent s’ajouter des balises telles que Rel alternate / Hreflang pour la gestion plurilingue, rel canonical pour limiter la duplication de contenu, … Nous conseillons aussi la mise en place des balises OpenGraph / TwitterCard, … pour faciliter les partages sociaux.
Pour faciliter la compréhension de vos contenus textuels, images, textes enrichis, … nous mettons en place un premier balisage dit « balisage Hn ». Cet encodage de vos contenus permettra aux robots de trouver facilement le titre éditorial, chapeau, sous titre, menu, mots importants présents dans chacune de vos pages.
De plus, afin d’améliorer votre taux de clic (CTR en anglais pour Click Through Rate) depuis les pages de résultats Google nous ajoutons les différents balisages dédiés aux textes enrichis : avis, événements, recettes, personnes, …
Les sites internet à forte volumétrie de contenus et donc d’URL sont souvent sujet à la duplication de contenu : plusieurs URL pour un même contenu. C’est le cas notamment des sites proposant une navigation à filtres, dite navigation à facettes (permet par exemple de trier des produits par prix, taille, couleur, etc).
En indexant sauvagement et pleinement l’ensemble des filtres, les moteurs de recherche crawlent rapidement des dizaines de milliers de d’URL avec bien souvent un contenu trop proche. C’est le début de la duplication de contenu et d’un risque fort de pénalisation via Google Panda par exemple.
Il devient impératif de mettre en place des garde fous techniques (contrôle de l’indexation, balise canonical,…) et/ou de travailler votre contenu pour que chaque page / url propose un contenu unique.
Ces deux types de contenus doivent dans tous les cas être avisés par un expert SEO
qui devra à minima choisir l’arborescence et le siloing les plus adaptés à votre
thésaurus (champ lexical / mots clés) préalablement défini.
Un mot d’ordre « audience versus poésie ! »
Il est primordial de ne pas tomber dans des discours uniquement mercantile mais de
répondre à aux attentes des internautes (via leurs recherches de mots clés), le
référencement est un levier d’inbound marketing, ne l’oublions pas.
Les mots clés « cibles » doivent être en adéquation avec l’activité du client, ils
doivent présenter un potentiel d’audience significatif, faire preuve d’un certain «
réalisme » par rapport au potentiel du site (antériorité, indice de popularité,
faisabilité technique) et l’annonceur doit veiller en choisissant ses mots-clefs à
ne pas porter atteinte aux droits des tiers et notamment à ne pas reproduire, sauf
autorisation expresse et préalable de signes distinctifs protégés (marque,
dénomination sociale, nom commercial…) notamment ceux de ses concurrents, cette
pratique pouvant en effet assimilée à de la contrefaçon ou de la concurrence
déloyale.
Nous vous conseillons de produire des contenus qui correspondent aux différents
formats recherchés / attendus aujourd’hui par les internautes avec en premier lieu
les images / photos et dans un second temps la vidéo.
Une fois le canevas technique et les contenus en place sur votre site internet, la
dernière étape de toute stratégie de référencement naturel consiste à obtenir
des liens vers vos URL.
En effet, l’indice de popularité de vos pages (nombre et qualité des liens qui
pointent vers vos URL) va déterminer le positionnement de celles-ci sur vos mots
clés dans les moteurs de recherche.
Plus une page possède de liens qualitatifs, plus son potentiel de positionnement est
important. Sur les mots clés fortement concurrentiels, le linking est l’unique arme
pour se hisser dans le Top 5 des résultats.
En effet, nous conseillons de ne pas faire de linking de manière massive et ponctuelle mais de sélectionner des sources fiables et pérennes en planifiant la diffusion de vos liens dans le temps.
Dans son Google Webmaster Guideline (disponible en ligne), Google évoque les
mauvaises pratiques du SEO, notamment en matière de netlinking au rang desquelles on
trouve l’injonction suivante :
« Ne participez pas à des systèmes de liens conçus pour améliorer
artificiellement le classement Page Rank de votre site. Évitez tout
particulièrement les liens vers des sites de spam ou des « sites douteux » sur
le Web, car ces liens risqueraient d’avoir une incidence négative sur le
classement de votre site. »
« Les utilisateurs reconnaissent du bon contenu lorsqu’ils le voient par eux-mêmes et sont alors susceptibles de rediriger d’autres utilisateurs vers le contenu en question. Pour faire connaître votre contenu, ces utilisateurs peuvent publier des messages sur des blogs, recourir à des services de médias sociaux, des e-mails, des forums ou utiliser tout autre procédé de diffusion d’informations. »
Ainsi, le linking naturel / de qualité / sans contrepartie / aidant l’internaute à continuer de surfer sur sa recherche est plébiscité par Google. A contrario, toutes les techniques abusives, ne s’attaquant qu’aux volumes de liens collectés, depuis des sites éloignés sémantiquement du votre sont prohibées par l’équipe anti-spam de Google.
Google Penguin, nouveau filtre anti spam dédié aux opérations de linking (netlinking, échanges de liens, lin building,…) jugées trop agressives.
Ce filtre a été mis en place le 24 avril 2012 puis mis à jour les 25 mai 2012 (Penguin
1), 16 juin 2012 (Penguin 2), 5 octobre 2012 (Penguin 3), 22 mai 2013 (Penguin 2.0), 4
octobre 2013 (Penguin 2.1), 18 octobre 2014 (Google Penguin 3.0)
Google Penguin s’ajoute au dispositif Google Panda qui s’attaque lui aux
stratégies de contenus pauvres (duplication, ferme de contenus, content spinning,
traduction de textes existants sur Wikipédia…).
Lorsque Google Penguin détecte des techniques frauduleuses, il applique un filtre sur
les différentes urls du site web en question (les urls ayant utilisé du linking trop
agressif). Un dé-positionnement sur tout ou partie du thésaurus est alors appliqué par
le site web fautif.
Si vous utilisez les techniques listées ci-dessous, il est possible que vos positions sur les mots clés importants de votre thesaurus soient impactées par Google Penguin:
Si vous avez utilisé une ou plusieurs techniques très agressives, voici nos conseils pour rectifier votre stratégie de linking / netlinking :
Le contenu est le premier des 3 piliers du référencement. en effet, sans contenu,
pas de page et sans page / URL, pas d’indexation possible.
Mais on peut vite être aspiré dans une frénésie de création de contenus :
articles, FAQ, conseils, … qui sans vision globale et sans respect des
guidelines Google pourraient mettre en péril votre référencement (Cf. Google
Panda, Quality Update, …). Voici les pièges à éviter dans votre stratégie de
contenu SEO.
Avant de se lancer dans la production de contenu, un recensement de l’existant est nécessaire. En effet, plus les années passent, moins on se rappelle des contenus produits les années précédentes. Il est donc important d’exporter les URL de l’ensemble de son arborescence et de faire le tri des thématiques déjà abordées, contenus obsolètes, contenus de trop faible intensité, des contenus chauds qui n’ont plus lieu d’être, …
Vous obtiendrez une première liste de contenus à reprendre, enrichir, remailler ou supprimer (et donc rediriger), … et surtout vous éviterez de dupliquer vos contenus (ce qui est à proscrire). en effet, sans audit vous pourriez produire des contenus sur des sujets déjà existants dans votre site et donc dupliquer vos thématiques.
Il est souvent plus utile d’enrichir l’existant, d’en changer le format, de l’optimiser pour en tirer un bénéfice que de partir dans de la production effrénée de contenus. Il faut savoir maîtriser son effort sous peine d’essoufflement rapide.
Si vous aviez une volumétrie très importante de contenus, une méthode simple réside dans l’audit des vos contenus les plus visibles depuis les moteurs de recherche. Pour cela, consultez les pages de destinations depuis votre outil de web analytique (Google Analytics, Xiti, …) et/ ou si vous disposez d’un outil d’analyse de logs, isolez les pages les plus « hitées » par les bots des moteurs de recherche. Focalisez vous alors sur les 50 / 100 / 150 premiers contenus les plus consultés.
Bien connu des référenceurs, les effets du netlinking (liens qui pointent vers votre site internet) n’est plus à démontrer. Mais peu d’experts SEO utilisent cette stratégie de linking au sein même de leur site. Il s’agit du maillage interne ou linking interne : lier les pages importantes de son site internet depuis les contenus hauts et profonds de son arborescence. Technique peu utilisée mais très efficace …
Il existe différentes solutions, notamment la technique des silos qui consiste à
lier ses contenus entre eux en relation stricte avec leur univers
sémantique.
Par exemple, si vous avez 3 catégories A | B | C dans votre arborescence, les pages
filles de la catégorie A ne doivent avoir de liens que vers les autres pages de la
catégorie A (en relation très proche / dans le même silo). Les têtes de catégorie A,
B et C pourront être liées entre elles.
A retenir : le contenu ne doit pas être produit pour lui-même mais pour favoriser une action. Que ce soit la réassurance de l’internaute, le maillage interne ou pour valoriser un couple produit/mot-clé qui mène à une action si possible marchande (une transaction, une demande de devis, une inscription…).
Google Panda, déjà 29 mises à jour de ce filtre Google, luttant contre les contenus de faible valeur ajoutée et touchant le référencement de tout ou partie des pages d’un site internet.
Il s’agit d’un filtre Google, créé début de 2011 pour lutter contre les sites proposant du contenu de faible qualité. Ce filtre fait parti depuis 2013 de l’algorithme natif de Google. L’ objectif annoncé est d’épurer les résultats de recherche de Google en allant plus loin dans la détection de certaines techniques de spam, notamment via un traitement plus sévère de la duplication de contenu. Google Panda est épaulé de Google Penguin qui sévit de son côté les sites utilisant des techniques abusives de linking.
Pour Google, ces contenus n’apportent aucune pertinence par rapport au contenu
originel qui a été pillé. Google souhaite donc dé-positionner ces sites.
Bien souvent, il s’agit de sites pure players : des sociétés qui se sont créées
sur et pour internet et qui ont bâti leur business model uniquement dans la
revente d’espaces publicitaires et/ ou la vente de liens sponsorisés.
La perte de visibilité provenant de votre référencement sur Google et donc de trafic
peut aller jusqu’à 50-80% ! Ces sites sont donc pratiquement blacklistés de l’index
de Google.
S’il y a dé-positionnement pour certains, il y a amélioration des positions pour
d’autres !
Si vous n’utilisez pas les techniques présentées ci-dessus, vous n’avez rien à
craindre.
Si votre site internet est basé sur un contenu pérenne et que vous n’avez pas «
pillé » le web de textes, photos, vous n’avez rien à craindre de ce
Panda. Bien au contraire, sur certaines requêtes, la 1ère page de
résultats devrait permettre à des sites positionnés en 2ème page de remonter en 1ère
page, et donc de capter un nouveau trafic.
Souvent délaissés dans les stratégies d’acquisition de trafic, les réseaux sociaux s’invitent aujourd’hui dans les campagnes de référencement naturel. Facebook, Twitter, Google +, Pinterest, LinkedIn,… sont devenus un levier d’obtention de liens à part entière.
En effet, avant l’avènement des réseaux sociaux, les internautes utilisaient en
priorité les forums et blogs pour partager leurs bons plans, liens intéressants, …
Aujourd’hui le point de départ d’un partage se fait via les médias sociaux.
Nos stratégies de linking social ont pour but de respecter au mieux le cycle
de vie d’un lien : un premier partage sur les réseaux sociaux en vue de
favoriser la pollinisation sur les supports traditionnels (blogs, forums, outils de
curation).
Si, techniquement parlant, un lien provenant d’un réseau social est balisé en «
nofollow », c’est-à-dire « non pris en compte » par les moteurs de recherche dans
leur calcul de liens entrants, cela ne veut pas dire que les moteurs de recherche ne
trouvent pas le lien ou ne le suivent pas. En effet, lorsque vous partagez un lien
depuis une plateforme sociale, ce lien sera lu et indexé par Google.
Les liens sociaux sont donc bien suivis par les robots d’exploration.
Dans toute stratégie de linking, il est également primordial de surveiller vos
différents profils de liens : répartition de liens en « follow » / « nofollow »,
ancres optimisées versus « related matches », IP de provenance de liens, …
Ici aussi les liens des réseaux sociaux vous permettent de panacher votre profil de
liens.
Même si Google a annoncé le 28 août 2014 avoir abandonné l’Authorship dans ses SERP,
il est évident que le nombre de partages de vos urls depuis des profils ou pages
Google + va améliorer significativement votre positionnement dans le moteur de
recherche en mode connecté – nous parlons ici de la recherche personnalisée ou
Google Search Plus Your World qui est activée par défaut à tout internaute cherchant
des informations dans Google sans s’être déconnecté de son compte Google /
Gmail.
Vous postez une de vos urls dans votre page Google + et quelques minutes plus tard,
ce post est positionné sur un mot clé générique (en fonction de l’optimisation du
post) dans l’ensemble des pages de résultats de vos followers Google +.
Si vos followers effectuent une interaction avec ce post, leurs propres followers
verront votre post dans leur recherche, on parle alors de « pollinisation de SERPs ».
Vous l’aurez noté, c’est le post qui se positionne et non pas l’url de votre site
internet !
Afin d’attirer les internautes qui saisissent votre marque vers des contenus que
vous maitrisez, nous conseillons la mise en place de votre page Pro Google
Plus et de la lier à votre site internet.
Concernant Twitter et Facebook, la création de vos comptes officiels et un bon
maillage depuis votre site internet, seront aussi utiles pour vous positionner sur
votre marque et donc contribuer à la gestion de votre E-réputation.
Pinterest est quant à lui, aussi utile voire très performant en termes de trafic en
fonction de votre cible – B2C, déco, tourisme, habillement / mode…
Enfin, Viadeo, LinkedIn et les outils de curation sociale (Scoop.it …) permettent
eux aussi de construire une stratégie de linking SEO pérenne :
diversification des sources, des ancres (related matches), répartition follow /
nofollow, …
Not provided, signifie « non fourni » : vous avez sûrement remarqué dans vos
outils analytics le pourcentage croissant d’entrées sur votre site signalées «
Not provided » ou « not set ».
Depuis 2012, Google transmet de moins en moins les mots clés referers SEO aux
différents outils statistiques : que ce soit Google Analytics, Xiti, Track Flow, … A
terme, le not provided va se généraliser et plus aucun mot-clé générateur de trafic
depuis Google ne sera communiqué (sauf dans Google Search Console).
Pourquoi la mise en place du « not provided » : Google a mis en place cette nouvelle
règle sous couvert de « protection de la vie privée ». Lorsque que l’on navigue sur
Internet en mode connecté ou en navigation privée (ex : vous avez consulté votre
compte Gmail, si vous ne choisissez pas de vous déconnecter, vous resterez en
navigation privée), le moteur de recherche, afin de « protéger votre vie privée »,
ne fournit plus vos requêtes aux outils de mesure d’audience : à la place du mot-clé
recherché apparait le terme « not provided ». L’objectif à terme de Google est de
faire disparaître ces mots clés dans la totalité des cas.
De plus, Google a purement et simplement enlevé de son url de redirection le paramètre « q= » correspondant au mot clé tapé par l’internaute. L’absence de ce paramètre dans l’url referer produit l’effet suivant : aucun outil de tracking ne pourra donner les mots-clés qui font du trafic : AUCUN.
Évidemment, ces questions ne se posent pas quand il s’agit de SEA et de liens
sponsorisés : quand on parle d’argent, Google est moins regardant concernant la vie
privée des internautes…. Et les mots clés seront toujours bien disponibles, prêts
pour une analyse fine !
Google laisse aux annonceurs Adwords la possibilité d’analyser les mots clés issus des campagnes payantes. Mais Google ne va pas jusqu’à indiquer aux annonceurs les stratégies de leurs concurrents et leur présence: cela nous semble pourtant indispensable dans le cadre d’une stratégie de présence efficace.