Retour

Quels sont les leviers du référencement naturel ?

Votre référencement naturel dépend de 3 éléments interdépendants qui doivent être pensés de manière globale : optimisation technique, création de contenus à forte valeur ajoutée et acquisition de liens pérennes.

Ces trois types d’interventions doivent être au centre de votre stratégie digitale pour les mixer le plus naturellement possible à vos autres leviers d’acquisition et de fidélisation.

La phase technique dite « d’optimisation »

Du choix de votre socle technique (choix mode de développement de votre site ( Nous réalisons uniquement du "sur mesure" , type d’hébergement, IP du serveur, …) dépendra la mise en place d’optimisations techniques pour rendre votre site « SEO friendly » ie « prêt à être référencé » dans les moteurs de recherche.
Même si la plupart des CMS connus ont fait de réels progrès en matière de SEO, tous ne se valent pas et rien ne vaut une fabrication sur mesure de votre site ,le rôle du développeur / intégrateur est central dans le succès de votre futur référencement.

Il existe autant de façons de coder en Php / ASP / … que de développeurs !

Cette phase d’optimisation technique doit être réalisée le plus en amont possible du projet. Nous travaillons en collaboration avec votre équipe de développement (interne ou par nos services ) pour lever tous les facteurs bloquants votre futur référencement et apporter les points techniques clés de l’optimisation de votre site internet.

Voici quelques unes des actions techniques « white hat » que nous mettons en place :

  • Optimisation des balises méta :

    Les metas sont des balises html contenues dans l’entête d’une page web permettant de fournir des informations aux moteurs sur son contenu. Les plus courantes sont les balises meta « title», «description» et «keywords». A cela peuvent s’ajouter des balises telles que Rel alternate / Hreflang pour la gestion plurilingue, rel canonical pour limiter la duplication de contenu, … Nous conseillons aussi la mise en place des balises OpenGraph / TwitterCard, … pour faciliter les partages sociaux.

  • Balisage de vos contenus:

    Pour faciliter la compréhension de vos contenus textuels, images, textes enrichis, … nous mettons en place un premier balisage dit « balisage Hn ». Cet encodage de vos contenus permettra aux robots de trouver facilement le titre éditorial, chapeau, sous titre, menu, mots importants présents dans chacune de vos pages.


    De plus, afin d’améliorer votre taux de clic (CTR en anglais pour Click Through Rate) depuis les pages de résultats Google nous ajoutons les différents balisages dédiés aux textes enrichis : avis, événements, recettes, personnes, …

  • Gestion d’URL / Règles de réécriture d’URL :
    Points d’entrée sur votre site internet, les URL doivent être explicites et clairs pour les moteurs de recherche. La mise en place (par défaut sur certains CMS ou à activer sur les développements propriétaires) de la réécriture de celles-ci – technique consistant à faire réécrire (par le serveur web) sous forme plus simple des URL complexes comportant des espaces, des accents, caractères exotiques (?, !, &, %,) – permet aux robots des moteurs de mieux les interpréter et de commencer à comprendre le contenu final. Notez que cette réécriture permettra également de travailler plus efficacement votre stratégie de linking, notamment en vous donnant la possibilité de travailler différents types d’ancres qui pointeront vers vos URL : ancres optimisées sur un mot clé ou simplement en postant l’URL réécrite depuis des sources externes.
  • Indexation de votre volumétrie avec un regard particulier pour les navigations à facettes / menu à filtres :

    Les sites internet à forte volumétrie de contenus et donc d’URL sont souvent sujet à la duplication de contenu : plusieurs URL pour un même contenu. C’est le cas notamment des sites proposant une navigation à filtres, dite navigation à facettes (permet par exemple de trier des produits par prix, taille, couleur, etc).

    En indexant sauvagement et pleinement l’ensemble des filtres, les moteurs de recherche crawlent rapidement des dizaines de milliers de d’URL avec bien souvent un contenu trop proche. C’est le début de la duplication de contenu et d’un risque fort de pénalisation via Google Panda par exemple.

    Il devient impératif de mettre en place des garde fous techniques (contrôle de l’indexation, balise canonical,…) et/ou de travailler votre contenu pour que chaque page / url propose un contenu unique.

  • La phase stratégique basée le contenu du site et la définition des mots-clés :
    Le contenu est parfois le parent pauvre du référencement, alors qu’il n’y a pas de référencement sans contenu et sans mots-clés stratégiquement définis.

Il existe deux volets dans la stratégie de contenu d’un site internet :

  • les contenus natifs qui correspondent à la présentation de votre activité, vos offres / produits
  • les contenus additionnels ayant pour vocation de capter une audience additionnelle sur des thématiques proches (un guide d’achat, guide d’utilisation, …). Ces contenus additionnels ont aussi des objectifs de réassurance, transformation distinct (inscription newsletter, partages sociaux, …)

Ces deux types de contenus doivent dans tous les cas être avisés par un expert SEO qui devra à minima choisir l’arborescence et le siloing les plus adaptés à votre thésaurus (champ lexical / mots clés) préalablement défini.
Un mot d’ordre « audience versus poésie ! »

Il est primordial de ne pas tomber dans des discours uniquement mercantile mais de répondre à aux attentes des internautes (via leurs recherches de mots clés), le référencement est un levier d’inbound marketing, ne l’oublions pas.
Les mots clés « cibles » doivent être en adéquation avec l’activité du client, ils doivent présenter un potentiel d’audience significatif, faire preuve d’un certain « réalisme » par rapport au potentiel du site (antériorité, indice de popularité, faisabilité technique) et l’annonceur doit veiller en choisissant ses mots-clefs à ne pas porter atteinte aux droits des tiers et notamment à ne pas reproduire, sauf autorisation expresse et préalable de signes distinctifs protégés (marque, dénomination sociale, nom commercial…) notamment ceux de ses concurrents, cette pratique pouvant en effet assimilée à de la contrefaçon ou de la concurrence déloyale.
Nous vous conseillons de produire des contenus qui correspondent aux différents formats recherchés / attendus aujourd’hui par les internautes avec en premier lieu les images / photos et dans un second temps la vidéo.

La phase de « linking » dite de maillage externe

Une fois le canevas technique et les contenus en place sur votre site internet, la dernière étape de toute stratégie de référencement naturel consiste à obtenir des liens vers vos URL.
En effet, l’indice de popularité de vos pages (nombre et qualité des liens qui pointent vers vos URL) va déterminer le positionnement de celles-ci sur vos mots clés dans les moteurs de recherche.
Plus une page possède de liens qualitatifs, plus son potentiel de positionnement est important. Sur les mots clés fortement concurrentiels, le linking est l’unique arme pour se hisser dans le Top 5 des résultats.

Une fois enclenchée, cette acquisition de liens dite « stratégie de linking » devra se poursuivre tout au long de la vie de vos URL.

En effet, nous conseillons de ne pas faire de linking de manière massive et ponctuelle mais de sélectionner des sources fiables et pérennes en planifiant la diffusion de vos liens dans le temps.

Que dit Google en matière de netlinking ?

Dans son Google Webmaster Guideline (disponible en ligne), Google évoque les mauvaises pratiques du SEO, notamment en matière de netlinking au rang desquelles on trouve l’injonction suivante :
« Ne participez pas à des systèmes de liens conçus pour améliorer artificiellement le classement Page Rank de votre site. Évitez tout particulièrement les liens vers des sites de spam ou des « sites douteux » sur le Web, car ces liens risqueraient d’avoir une incidence négative sur le classement de votre site. »

Par « système de liens », Google entend :

  • liens conçus pour influencer le classement Page Rank;
  • liens vers les polluposteurs (web spammeurs) ou les « voisinages douteux » sur le Web;
  • liens réciproques excessifs ou échanges de liens excessifs (du type « Établissez un lien vers mon site et j’établirai un lien vers le vôtre »);
  • achat ou vente de liens qui améliorent votre Page Rank (NB : le Page Rank n’est plus accessible aux webmasters depuis le 1er trimestre 2016).

Mais un peu plus loin dans le guide dédié aux webmasters, Google nous indique :

« Les utilisateurs reconnaissent du bon contenu lorsqu’ils le voient par eux-mêmes et sont alors susceptibles de rediriger d’autres utilisateurs vers le contenu en question. Pour faire connaître votre contenu, ces utilisateurs peuvent publier des messages sur des blogs, recourir à des services de médias sociaux, des e-mails, des forums ou utiliser tout autre procédé de diffusion d’informations. »

Ainsi, le linking naturel / de qualité / sans contrepartie / aidant l’internaute à continuer de surfer sur sa recherche est plébiscité par Google. A contrario, toutes les techniques abusives, ne s’attaquant qu’aux volumes de liens collectés, depuis des sites éloignés sémantiquement du votre sont prohibées par l’équipe anti-spam de Google.

Linking Google Penguin, c’est quoi ?

Google Penguin, nouveau filtre anti spam dédié aux opérations de linking (netlinking, échanges de liens, lin building,…) jugées trop agressives.


Ce filtre a été mis en place le 24 avril 2012 puis mis à jour les 25 mai 2012 (Penguin 1), 16 juin 2012 (Penguin 2), 5 octobre 2012 (Penguin 3), 22 mai 2013 (Penguin 2.0), 4 octobre 2013 (Penguin 2.1), 18 octobre 2014 (Google Penguin 3.0)
Google Penguin s’ajoute au dispositif Google Panda qui s’attaque lui aux stratégies de contenus pauvres (duplication, ferme de contenus, content spinning, traduction de textes existants sur Wikipédia…).
Lorsque Google Penguin détecte des techniques frauduleuses, il applique un filtre sur les différentes urls du site web en question (les urls ayant utilisé du linking trop agressif). Un dé-positionnement sur tout ou partie du thésaurus est alors appliqué par le site web fautif.

01. Allez vous être pénalisé par Google Penguin ?

Si vous utilisez les techniques listées ci-dessous, il est possible que vos positions sur les mots clés importants de votre thesaurus soient impactées par Google Penguin:

  • Échange de liens uniquement sur des couples URLs/ancres (mots clés) ciblées.
    Explications :
    Mon site 1 (S1) souhaite se positionner sur l’Expression 1 (E1). Je contacte alors le Site 2, Site 3, Site 4, qui souhaitent eux aussi se positionner sur une expression (E2, E3, E4,…). Depuis mon site 1 (en footer par exemple), j’insère un lien vers ces différents sites (S2, S3, S4,…) sur leur expression (E2, E3, E4,…). En retour ils mettront chacun en place un lien vers mon site S1 sur mon expression E1.
    Lorsque Google Pingouin parcourt le web, il va donc trouver un lien vers S1 à partir d'une expression précise : E1. Dans un 1er temps, il va donc mieux prendre en compte / améliorer la position de S1 sur E1. Dans un 2ème temps, si Google Pingouin continue de trouver systématiquement un lien vers votre site sur la même expression (une expression générique, différente de votre marque ou nom de site), alors il détectera une technique abusive et déclassera votre site internet.
    Cas concret :
    Une agence web signe (en footer des sites clients) l’ensemble des sites web qu’elle réalise avec l’ancre à « Création site internet » (au lieu d’un lien simple du type « Création Le-nom-de-mon-agence.com ») afin d’améliorer le positionnement de sa page d’accueil sur ce mot clé. En retour l’agence web, citera ses références depuis son site. Si cette agence a réalisé une centaine de sites internet, Google Penguin va donc détecter une centaine de liens qui pointent systématiquement vers le site de l’agence web à partir d’une expression générique (différente de sa marque). Il peut donc considérer qu’il s’agit d’une technique abusive et pourra déclasser le site de l’agence web sur cette expression (voir d’autres de son thésaurus).
    Les sites clients ne seront pas impactés puisque les liens « retour » effectués depuis le site de l’agence web ne sont eux pas optimisés pour le référencement.
  • Opération massive de communiqués de presse et articles optimisés pour le référencement
    Si vous aviez pris l’habitude d’inonder les plateformes de communiqués de presse de vos news en insérant quantité de liens optimisés, alors vous risquez d’être touché par Google Penguin. On parle en dizaine de communiqués de presse par mois / la plupart du temps dupliqués entre eux / Ces plateformes ont déjà subi les foudres de Google Panda pour la pauvreté de leur contenu et cette duplication (NB : consultez les dates des mises à jour de Google Panda).
    Important : que ce soit via les communiqués de presse, échange de liens… la mise en place d’une stratégie de linking se fait sur le long terme. Le nombre de liens qui pointent vers votre site doit évoluer de manière régulière et raisonnée.
  • Achat de domaines satellites dédiés au référencement / sites parking
    Reprenons l’exemple de notre agence web. Elle a bien compris que pour certains mots clés, l’optimisation technique et l’ajout de liens ne pourraient plus grand-chose. Elle décide alors d’acheter de nouveaux noms de domaine. Notre agence est située à Paris et elle souhaite prendre de la visibilité sur d’autres localités : Lille, Strasbourg par exemple. Elle décide alors d’acheter les noms de domaine génériques « www.creation-site-lille.com » , « www.creation-site-strasbourg.com » ,… elle insère 1 ou 2 pages de contenus simples (pauvres) sur chaque site, les lie entre eux systématiquement sur l’expression importante « création site + ville » et n’oublie pas de lier également son site S1 sur E1.
    Ce ne sera pas très compliqué pour Google Pingouin de trouver la liaison entre tous ces sites et de les pénaliser.
    NB : Google a annoncé avoir commis quelques erreurs sur certains sites considérés comme « sites parking » alors qu’il n’en était rien (vu sur le profil Google + de Matt Cutts).
  • Autres techniques frauduleuses :
    • échange de liens en footer (notamment sur site à forte volumétrie de pages),
    • référencement massif et rapide dans des centaines voire des milliers d’annuaires (utilisation de softs black hat),
    • spam de commentaires / liens factices,
    • communiqués de presse en volume sur optimisés.

02. Comment savoir si j’ai été pénalisé ?

1ère étape : regardez vos statistiques web. Si vous observez une baisse brutale du trafic issu des moteurs de recherche au lendemain des différentes mises à jour du filtre vous êtes touché par Google Pingouin !

2ème étape : rendez-vous dans votre Google Search Console. Certains sites ont reçu des messages d’alerte.

03. J’ai été pénalisé, que faire ?

1ère étape : ne paniquez pas mais vérifiez que votre site soit « seo clean ». Il ne sert à rien de casser l’ensemble du travail que vous avez fourni. Privilégiez une refonte de votre stratégie en venant modifier l’existant.

04. Stratégie pérenne

Si vous avez utilisé une ou plusieurs techniques très agressives, voici nos conseils pour rectifier votre stratégie de linking / netlinking :

  • Utilisez les related matches = diversifiez les mots clés qui pointent vers vos URLs,
  • N’utilisez plus systématiquement les mêmes mots clés,
  • Arrêtez la publication massive de communiqués de presse en ligne et d’articles,
  • Privilégiez les supports de bonne qualité : 1 ou 2 plateformes de relation presse historiquement reconnue, choix des blogs, choix des sites partenaires, …
  • Mixez également vos attributs de liens : nofollow, dofollow, liens sur image avec balise ALT, …
  • Si vous avez échangé avec des sites à très faible Quality Rank, vous pouvez éliminer ces liens.
  • Si vous pensez que Google Penguin vous a pénalisé à tort, que vous ne savez pas comment identifié vos « mauvais liens », retravailler votre linking, …

Optimiser son contenu pour le SEO, les pièges à éviter !

Le contenu est le premier des 3 piliers du référencement. en effet, sans contenu, pas de page et sans page / URL, pas d’indexation possible.
Mais on peut vite être aspiré dans une frénésie de création de contenus : articles, FAQ, conseils, … qui sans vision globale et sans respect des guidelines Google pourraient mettre en péril votre référencement (Cf. Google Panda, Quality Update, …). Voici les pièges à éviter dans votre stratégie de contenu SEO.

Piège n°1 : ne pas recenser l’existant

Avant de se lancer dans la production de contenu, un recensement de l’existant est nécessaire. En effet, plus les années passent, moins on se rappelle des contenus produits les années précédentes. Il est donc important d’exporter les URL de l’ensemble de son arborescence et de faire le tri des thématiques déjà abordées, contenus obsolètes, contenus de trop faible intensité, des contenus chauds qui n’ont plus lieu d’être, …

Vous obtiendrez une première liste de contenus à reprendre, enrichir, remailler ou supprimer (et donc rediriger), … et surtout vous éviterez de dupliquer vos contenus (ce qui est à proscrire). en effet, sans audit vous pourriez produire des contenus sur des sujets déjà existants dans votre site et donc dupliquer vos thématiques.

Il est souvent plus utile d’enrichir l’existant, d’en changer le format, de l’optimiser pour en tirer un bénéfice que de partir dans de la production effrénée de contenus. Il faut savoir maîtriser son effort sous peine d’essoufflement rapide.

Si vous aviez une volumétrie très importante de contenus, une méthode simple réside dans l’audit des vos contenus les plus visibles depuis les moteurs de recherche. Pour cela, consultez les pages de destinations depuis votre outil de web analytique (Google Analytics, Xiti, …) et/ ou si vous disposez d’un outil d’analyse de logs, isolez les pages les plus « hitées » par les bots des moteurs de recherche. Focalisez vous alors sur les 50 / 100 / 150 premiers contenus les plus consultés.

Piège n°2 : faire le strict minimum

Même si in fine nous faisons tous du contenu pour le SEO, il est nécessaire de se détacher de la vision réductrice qui ne lie un contenu qu’à son positionnement à court terme sur un mot clé. Ne faire que le strict minimum : une page de 250 mots sur-optimisée sur le mot clé, n’est plus la bonne solution.
En effet, si le contenu textuel est la base d’un référencement, la qualité de celui-ci (unicité, autorité, diversification des formats, …) vous assurera de la pérennité de votre positionnement devant vos concurrents.
Il est donc nécessaire de réfléchir à la création de contenus riches et fortement différenciateurs de ceux de vos concurrents.
Nous parlons souvent de contenus « 5X ».
Il s’agit de créer des contenus 5 fois plus intéressants / uniques / riches d’illustrations / … que ceux de la concurrence. Plus vous mettrez la barre haute, moins la concurrence viendra vous cherchez sur ce pilier du référencement.
En contenu, une fois l’avance prise, il est difficile ET très onéreux de rattraper un concurrent qui jouerait au « 5X ». Enfin, les contenus « 5X » sont ceux qui aujourd’hui se partagent sur les réseaux sociaux (pensez donc à socialiser vos contenus) et autres supports (blogs, forums,…) et vous permettent d’obtenir du linkbaiting (obtention d’un lien naturel et spontané, sans contre partie) .

Piège n°3 : ne pas utiliser le maillage interne, le « siloing »

Bien connu des référenceurs, les effets du netlinking (liens qui pointent vers votre site internet) n’est plus à démontrer. Mais peu d’experts SEO utilisent cette stratégie de linking au sein même de leur site. Il s’agit du maillage interne ou linking interne : lier les pages importantes de son site internet depuis les contenus hauts et profonds de son arborescence. Technique peu utilisée mais très efficace …

Il existe différentes solutions, notamment la technique des silos qui consiste à lier ses contenus entre eux en relation stricte avec leur univers sémantique.

Par exemple, si vous avez 3 catégories A | B | C dans votre arborescence, les pages filles de la catégorie A ne doivent avoir de liens que vers les autres pages de la catégorie A (en relation très proche / dans le même silo). Les têtes de catégorie A, B et C pourront être liées entre elles.

A retenir : le contenu ne doit pas être produit pour lui-même mais pour favoriser une action. Que ce soit la réassurance de l’internaute, le maillage interne ou pour valoriser un couple produit/mot-clé qui mène à une action si possible marchande (une transaction, une demande de devis, une inscription…).

Google Panda et votre référencement

Google Panda, déjà 29 mises à jour de ce filtre Google, luttant contre les contenus de faible valeur ajoutée et touchant le référencement de tout ou partie des pages d’un site internet.

Panda, c’est quoi ?

Il s’agit d’un filtre Google, créé début de 2011 pour lutter contre les sites proposant du contenu de faible qualité. Ce filtre fait parti depuis 2013 de l’algorithme natif de Google. L’ objectif annoncé est d’épurer les résultats de recherche de Google en allant plus loin dans la détection de certaines techniques de spam, notamment via un traitement plus sévère de la duplication de contenu. Google Panda est épaulé de Google Penguin qui sévit de son côté les sites utilisant des techniques abusives de linking.

C’est contre qui ?

Ce filtre qui fait parti aujourd’hui de l’algorithme natif de Google se focalise sur les sites dits :
  • « Contenus pauvres et sur optimisés » :
    sites internet présentant des contenus pauvres (nombre de mots, complexité lexicale limitée), rarement mis à jour et sur-optimisés,
  • « Fermes de contenu » :
    sites qui produisent un très grand nombre d’articles ciblés sur des thématiques populaires et génératrices de trafic, afin de générer des revenus publicitaires. Ces contenus sont souvent de faible qualité, et parfois générés à la volée en fonction des requêtes des internautes. Les sites de type « How to » peuvent également être fortement impactés,
  • « Scrappers » ou pilleurs de contenus :
    la copie et l’agrégation de contenus existant ailleurs sur le web, puis leur réécriture automatique via des outils de « content spinning » visant à contourner les filtres de contenus dupliqués. Il est fréquent que ces sites soient bien positionnés alors même que le contenu proposé n’est pas intelligible ou qu’il est incorrect au niveau de la syntaxe et polluent les résultats de Google. En effet, de nombreux sites construisent du texte dynamiquement et réécrivent automatiquement (content spinning) des textes glanés sur le web en vue de se positionner sur des centaines de mots clés. D’autres sites agrègent du contenu de plusieurs sites (sites de contenus, de questions/réponses, de produits,…) sur leur propres pages.
  • Les sites intermédiaires entre Google et l’internaute :
    donc pour certains en partie « concurrents » de Google (comparateurs de prix, agrégateurs d’avis, sites proposant des codes de réduction, affiliation, annuaires…)

Pour Google, ces contenus n’apportent aucune pertinence par rapport au contenu originel qui a été pillé. Google souhaite donc dé-positionner ces sites.
Bien souvent, il s’agit de sites pure players : des sociétés qui se sont créées sur et pour internet et qui ont bâti leur business model uniquement dans la revente d’espaces publicitaires et/ ou la vente de liens sponsorisés.

Quels sont les sites qui ont été impactés / sont souvent concernés ?

  • Comparateur de prix
  • Annuaire de sociétés / annuaire généraliste sans ligne éditoriale
  • Site d’avis
  • Site de questions / réponses
  • Listing de commerçants (restaurants, hôtels, événements,..) sans ligne éditoriale
  • Site internet utilisant le content spinning (génération de contenu automatique)

La perte de visibilité provenant de votre référencement sur Google et donc de trafic peut aller jusqu’à 50-80% ! Ces sites sont donc pratiquement blacklistés de l’index de Google.
S’il y a dé-positionnement pour certains, il y a amélioration des positions pour d’autres !

Et pour vous ?

Si vous n’utilisez pas les techniques présentées ci-dessus, vous n’avez rien à craindre.
Si votre site internet est basé sur un contenu pérenne et que vous n’avez pas « pillé » le web de textes, photos, vous n’avez rien à craindre de ce Panda. Bien au contraire, sur certaines requêtes, la 1ère page de résultats devrait permettre à des sites positionnés en 2ème page de remonter en 1ère page, et donc de capter un nouveau trafic.

Facebook, Twitter, Google + ont-ils un impact sur le référencement ?

Souvent délaissés dans les stratégies d’acquisition de trafic, les réseaux sociaux s’invitent aujourd’hui dans les campagnes de référencement naturel. Facebook, Twitter, Google +, Pinterest, LinkedIn,… sont devenus un levier d’obtention de liens à part entière.

Comme le dit Google dans ses guidelines dédiées aux webmasters :

« Pour faire connaître votre contenu, les internautes peuvent publier des messages sur des blogs, recourir à des services de médias sociaux, des e-mails, des forums ou utiliser tout autre procédé de diffusion d’informations. »

En effet, avant l’avènement des réseaux sociaux, les internautes utilisaient en priorité les forums et blogs pour partager leurs bons plans, liens intéressants, … Aujourd’hui le point de départ d’un partage se fait via les médias sociaux.
Nos stratégies de linking social ont pour but de respecter au mieux le cycle de vie d’un lien : un premier partage sur les réseaux sociaux en vue de favoriser la pollinisation sur les supports traditionnels (blogs, forums, outils de curation).
Si, techniquement parlant, un lien provenant d’un réseau social est balisé en « nofollow », c’est-à-dire « non pris en compte » par les moteurs de recherche dans leur calcul de liens entrants, cela ne veut pas dire que les moteurs de recherche ne trouvent pas le lien ou ne le suivent pas. En effet, lorsque vous partagez un lien depuis une plateforme sociale, ce lien sera lu et indexé par Google.

Les liens sociaux sont donc bien suivis par les robots d’exploration.
Dans toute stratégie de linking, il est également primordial de surveiller vos différents profils de liens : répartition de liens en « follow » / « nofollow », ancres optimisées versus « related matches », IP de provenance de liens, …
Ici aussi les liens des réseaux sociaux vous permettent de panacher votre profil de liens.
Même si Google a annoncé le 28 août 2014 avoir abandonné l’Authorship dans ses SERP, il est évident que le nombre de partages de vos urls depuis des profils ou pages Google + va améliorer significativement votre positionnement dans le moteur de recherche en mode connecté – nous parlons ici de la recherche personnalisée ou Google Search Plus Your World qui est activée par défaut à tout internaute cherchant des informations dans Google sans s’être déconnecté de son compte Google / Gmail.

Exemple concret :

Vous postez une de vos urls dans votre page Google + et quelques minutes plus tard, ce post est positionné sur un mot clé générique (en fonction de l’optimisation du post) dans l’ensemble des pages de résultats de vos followers Google +.
Si vos followers effectuent une interaction avec ce post, leurs propres followers verront votre post dans leur recherche, on parle alors de « pollinisation de SERPs ».
Vous l’aurez noté, c’est le post qui se positionne et non pas l’url de votre site internet !

Autre intérêt d’utiliser les réseaux sociaux pour votre référencement : la gestion de votre e-réputation.

Afin d’attirer les internautes qui saisissent votre marque vers des contenus que vous maitrisez, nous conseillons la mise en place de votre page Pro Google Plus et de la lier à votre site internet.
Concernant Twitter et Facebook, la création de vos comptes officiels et un bon maillage depuis votre site internet, seront aussi utiles pour vous positionner sur votre marque et donc contribuer à la gestion de votre E-réputation.
Pinterest est quant à lui, aussi utile voire très performant en termes de trafic en fonction de votre cible – B2C, déco, tourisme, habillement / mode…
Enfin, Viadeo, LinkedIn et les outils de curation sociale (Scoop.it …) permettent eux aussi de construire une stratégie de linking SEO pérenne : diversification des sources, des ancres (related matches), répartition follow / nofollow, …

Que signifie « Not provided » ?

Not provided, signifie « non fourni » : vous avez sûrement remarqué dans vos outils analytics le pourcentage croissant d’entrées sur votre site signalées « Not provided » ou « not set ».
Depuis 2012, Google transmet de moins en moins les mots clés referers SEO aux différents outils statistiques : que ce soit Google Analytics, Xiti, Track Flow, … A terme, le not provided va se généraliser et plus aucun mot-clé générateur de trafic depuis Google ne sera communiqué (sauf dans Google Search Console).
Pourquoi la mise en place du « not provided » : Google a mis en place cette nouvelle règle sous couvert de « protection de la vie privée ». Lorsque que l’on navigue sur Internet en mode connecté ou en navigation privée (ex : vous avez consulté votre compte Gmail, si vous ne choisissez pas de vous déconnecter, vous resterez en navigation privée), le moteur de recherche, afin de « protéger votre vie privée », ne fournit plus vos requêtes aux outils de mesure d’audience : à la place du mot-clé recherché apparait le terme « not provided ». L’objectif à terme de Google est de faire disparaître ces mots clés dans la totalité des cas.

De plus, Google a purement et simplement enlevé de son url de redirection le paramètre « q= » correspondant au mot clé tapé par l’internaute. L’absence de ce paramètre dans l’url referer produit l’effet suivant : aucun outil de tracking ne pourra donner les mots-clés qui font du trafic : AUCUN.

Évidemment, ces questions ne se posent pas quand il s’agit de SEA et de liens sponsorisés : quand on parle d’argent, Google est moins regardant concernant la vie privée des internautes…. Et les mots clés seront toujours bien disponibles, prêts pour une analyse fine !

Google laisse aux annonceurs Adwords la possibilité d’analyser les mots clés issus des campagnes payantes. Mais Google ne va pas jusqu’à indiquer aux annonceurs les stratégies de leurs concurrents et leur présence: cela nous semble pourtant indispensable dans le cadre d’une stratégie de présence efficace.