On vous rappelle

Laissez-nous votre :




Le référencement d'hier et le SEO de demain

Article rédigé par CERA Interactive, le

Mercredi 10 juin 2015, nous étions présents à la conférence animée par Olivier Andrieu de la Société Abondance. Ce colloque se déroulait à la CCI de Strasbourg et avait pour thème les quatre grandes ères du SEO, ainsi que le futur possible du référencement.




Article vu 6469 fois.





olivier_andrieu

Olivier Andrieu, âgé de 52 ans, est un consultant SEO indépendant. Il débute son activité en 1994, par l’écriture de livres concernant les techniques à adopter en référencement, puis se lance en tant qu’autoentrepreneur quelques années plus tard. Au début des années 1999, il ouvre Abondance.com (et .net), site sur lequel il recense les dernières actualités du monde du SEO. En 2013, il est élu « meilleur référenceur Français » par le site du JDN.



Lors de cette conférence, le thème principal était le référencement, dont les 4 grandes époques ont été abordées, en partant des débuts d’internet jusqu’à un futur possible du référencement.


Les 4 grandes ères du SEO


  • Période pré-googlienne (1993-1998)
  • Google superstar (1999-2010)
  • Les nouveautés (2011-2015)
  • Et demain? (2016-?)

I. Ere glaciaire 1993 à 1998


Avec la mise à disposition au grand public d’Internet, les moteurs et annuaires de recherche (tels que Lycos et Infoseek par exemple) se développent. Ces moteurs sont très simples, mais correspondent aux attentes des utilisateurs de l’époque.

Les principaux sites aux débuts d’internet sont entre autre Yahoo.com, Hotmail.com et Amazon.com.

Comme le dit si bien Charles Aznavour, « C’est un temps que les moins de 20 ans ne peuvent pas connaitre. »

Les critères de pertinence pour les moteurs de recherche ne sont pas aussi nombreux et complexes qu’aujourd’hui, le critère majeur est tout simplement le nombre d’occurrences d’un mot dans un texte.


A partir de 1996, les balises META font leur apparition. Les moteurs de recherches, comme Altavista se réfèrent de plus en plus aux mots clés pour répondre aux recherches des utilisateurs. Des webcrawler (sorte de petites araignées) parcourent le web à la recherche d’éléments sémantiques et de mots-clés répondant au mieux aux attentes des internautes.


webcrawler

Le référencement étant à son début, les pratiques douteuses, comme le bourrage de mots clés ou les textes blancs sur fond blancs afin d’être mieux référencé, sont de plus en plus courantes.

Ces moteurs sont vraiment basiques et ne permettent pas de trier réellement les résultats. Les techniques SEO sont encore approximatives ce qui rend les moteurs de recherche de l’époque plutôt mauvais et peu pertinents.


II. 1999, Google Superstar


En 1999, Google fait son apparition et va commencer doucement à manger tous les autres moteurs de recherche. Les critères dit « off-page » commencent à se développer et sont pris en compte par Google lors des recherches.


google

Ces critères « off-page » sont des critères qui se basent sur la façon d’arriver sur un site. On parle de backlinks (liens entrants), ce sont des liens pointant vers votre site à partir d’autre sites. La popularité des sites sur lesquels se trouvent les liens pointant vers votre site est également prise en compte par Google.

Avec l’apparition de Google et le début du SEO, le spam chute fortement. On assiste à la mise en place des bases du SEO actuel, avec comme principal critères les 4C : Code HTML, Conception, Contenu et Célébrité.


1. LE CODE


Le code HTML d’une page devient un critère important du SEO, afin de permettre aux moteurs de recherche de comprendre plus facilement de quoi parle votre page.

L’utilisation des balises <H1> à <H6> permet de structurer le contenu de son site. La mise en gras de certains mots, grâce à la balise <strong> (préférée à la balise <b>), permet de mettre en valeur certains éléments importants du contenu.

La balise <title> se doit également d’être bien structuré afin d’aider au référencement de sa page par Google. Il faut également penser à rédiger un contenu intéressant pour sa balise <meta description>, son contenu apparait sur les moteurs de recherches et permet à l’utilisateur de savoir de quoi parle votre page. Si son contenu est peu engageant, il est fort probable que l’utilisateur passe son chemin et ne clique pas sur votre lien.

Les attributs alt dans les balises images de vos articles permettent aux personnes utilisant des logiciels de lecture d’écran, ou aux personnes ne pouvant pas afficher les images, d’avoir une description rapide des images de vos articles.

Malgré ces avancées, les sites sont toujours aussi peu attractifs. Le balisage html des pages internet reste approximatif. L’utilisation de balise de mise en avant, comme la balise <strong>, reste peu courante.


Les balises demandent également une certaine cohérence entre elle. Les contenus des balises <h1> et <title> par exemple, se doivent d’être similaires, mais il ne faut pas forcément recopier le contenu de l’une dans l’autre.

Avec les années, la meta description des pages passe de 150 caractères à environ 200/300 caractères aujourd’hui. On peut trouver des descriptions allant jusqu’à 400 caractères.


2. LA CONCEPTION


Afin d’être correctement référencé, un site se doit d’être « spider friendly », c’est-à-dire qu’il doit permettre aux robots de le parcourir facilement et rapidement.

Pour ce faire, vous devez attribuer des URL parlantes (url indiquant clairement le type de contenu) à vos pages, elles doivent être assez courtes et contenir des mots-clés en rapport avec votre contenu.

La création d’un fichier Sitemap XML permet d’indiquer rapidement aux robots les pages de votre site à explorer. Ce type de fichier répertorie toutes les pages de votre site, en y indiquant la dernière date de modification ainsi que l’importance de cette page.

La mise en place d’un maillage interne important permet une meilleure navigation sur votre site. Le netlinking (échange de liens) permet également d’augmenter sa visibilité, surtout si l’échange se fait sans échange réciproque.

Il faut penser à créer des ancres parlantes et descriptives. Les liens de type « cliquez ici » sont à éviter mais pas à bannir, car ils permettent de garder un profil naturel.

Les noms de vos images sont également importants pour le référencement de votre page. Idéalement, ils doivent décrire brièvement l’image.

Enfin, il ne faut pas oublier de faire des redirections 301 définitives vers les nouvelles pages en cas de changement d’URL. Ces redirections évitent les problèmes de duplicate content (contenu dupliqué).


Mais l’URL ne fait pas tout, trop d’importance lui est donnée, notamment par les débutants en SEO, alors que les balises types <h1> sont plus importantes !


3. LE CONTENU


Pour que votre contenu soit pris en compte par les robots Google, il faut qu’il contienne au minimum 200 mots. Un contenu entre 800 et 1000 mots est souvent recommandé lorsqu’il s’agit d’actualités.

Un des paramètres les plus importants pour le référencement de vos articles est sans doute la rapidité de mise à jour de vos articles. Plus le sujet sera chaud et d’actualité, plus la mise à jour en temps réel est importante, car le nombre de requête à ce sujet seront plus nombreuses.

Il faut également faire correspondre au maximum les requêtes des utilisateurs aux titres <h1> et <h2>, ainsi qu’au <title>, à l’URL et aux passages en gras.


4. LA CELEBRITE


Durant longtemps, la popularité d’un site était calculée grâce au « Page Rank Toolbar » (l’outil rang de page). Cet outil a aujourd’hui disparu, mais la popularité d’un site reste importante.

Pour augmenter la popularité de votre site, penser à miser sur les liens entrants (backlink) qui vous permettrons de gagner de la crédibilité aux yeux de Google.


A partir de 2010, on assiste à une professionnalisation du SEO et du spam.


III. 2011 – 2015, nouveautés


Google procède à la réorganisation de son index, plusieurs projets sont mis en place au fur et à mesure des années pour inspecter les sites : Caféine, Panda, Penguin et Hummingbird.


algorithme google

Caféine (2009) : Ce projet permet d’indexer plus de pages. Il indexe quasiment en temps réel les contenus, ce qui permet aux utilisateurs de bénéficier des contenus les plus récents et les plus en adéquation avec leurs requêtes.

Panda (2011) : Avec Panda, Google pénalise les contenus de faible qualité. Avant ce projet, les sites avaient tendances à écrire du contenu uniquement pour être mieux référencé, même si ce contenu ne proposait pas d’informations intéressantes pour le lecteur.

Penguin (2012) : Penguin a été mis en place pour lutter contre le SEO dit « Black-Hat » (pratiques de référencement non acceptées). Les pages contenant du spamdexing (référencement abusif), du keyword stuffing (bourrage de mots-clés) ou du cloaking (camouflage de contenu, le contenu est différent pour l’utilisateur et le crawler) se voient désindexées.

Hummingbird (2013) : Grâce à Hummingbird, ce ne sont plus que des mots qui sont pris en compte par Google, mais des concepts. Google répond à une vraie question posée par l’utilisateur. Par exemple, lorsqu’on cherche « Météo » dans Google, on a aujourd’hui les prévisions météo en temps réel, au lieu de pages de définitions. Le moteur de recherche est capable de détecter le sujet de la page. Lors de la recherche « Cars » par exemple, Google sera capable de savoir si les pages parlent de voitures ou du film, grâce aux mots utilisés dans l’article.

Bien évidemment, la règle des 4C est toujours valable pour le référencement.


En SEO, la tendance est plus au rajout qu’à la suppression. En 4 ans, de nombreuses règles et « façons de faire » ont été rajoutées :

Balises sémantiques : L’utilisation de balises sémantiques permet de renforcer la signification de certaines informations dans le contenu d’une page web. Il existe différentes balises comme par exemple la mise en valeur, la citation et l’emprunt, qui sont chacune unique, permettant ainsi aux agents Web une meilleure évaluation des contenus de vos pages et ainsi un meilleur classement lors des recherches.

L’utilisation de « rich snippet » (extrait enrichi en français) permet aux sites de se démarquer des autres sur la page de résultat d’un moteur de recherche. Ces « rich snippet » vous permettent de choisir la présentation de votre site, ainsi que des informations que vous souhaitez voir apparaitre, pour inciter l’utilisateur à cliquer sur votre lien plus que sur un autre.

Balises de pagination : Il s’agit des balises rel="next" et rel="prev", permettant de signaler un lien entre plusieurs URLs, lorsque par exemple vous avez un site marchand avec plusieurs pages de produits. Puisque le contenu de ces pages est sensiblement le même sur chacune d’elle, Google a besoin de ces balises pour comprendre et savoir quelle page afficher en premier résultat.

Balise new-keywords : Après l’arrêt des balises <meta name="keywords">, Google a décidé d’introduire la balise <meta name="news_keywords"> qui permet à l’utilisateur de spécifier 10 mots-clés, contenus ou non dans son article, pour ses article apparaissant dans Google News.


balises meta

Avec le lancement de Google Plus en 2011, il était possible de mettre en place un lien entre ses articles et son profil Google Plus. Cette mise en lien, appelée Authorship, permet de créer un contenu enrichi de manière automatique. Votre photo de profil apparait sur les pages de résultat, ce qui a donné l’idée à certains de mettre des photos de profil attirante, afin d’avoir un meilleur trafic. Ces changements de photo de profil ont attiré l’attention de Google, qui a décidé de revoir sa réflexion sur l’Authorship et de supprimer les images de profil des pages de résultat des moteurs de recherche.


La vitesse de chargement d’une page n’a pas d’impact direct sur le référencement. Ce paramètre influe plus sur le nombre de visites de vos pages ou sur le taux de rebond des visiteurs.

Durant l’été 2014, Google décide de passer les sites en https. Mais la question de l’intérêt se pose, car ce changement n’a pas une grande influence en référencement.

La compatibilité mobile fait également son entrée en jeu. Avec le nombre de plus en plus important de mobinautes, il est devenu crucial pour des sites de s’adapter à tous les écrans. Ces sites compatibles sont, en théorie, mieux classé sur Google. Cette adaptation est plus utile pour les mobinautes que pour Google.


webmaster tool mobile friendly

Il est possible de tester la compatibilité de son site grâce à WebmasterTool Mobile Friendly.


Avec la mise en place de ces nouveaux algorithmes, Google surveille de plus en plus les contenus dupliqués. Il faut faire attention au contenu que l’on publie.

Lorsqu’on choisit de publier du contenu identique sur plusieurs pages d’un même site ou sur plusieurs site, il faut absolument penser à insérer rel="canonical" lorsque le lien de la page est utilisé. De cette manière, Google pourra faire la différence entre le contenu original et le contenu dupliqué, sans que vous risquiez de sanction.


La professionnalisation du Black-Hat, entraine un changement dans la politique de Google face au contenu caché. Dans le cas des onglets ou des accordéons, si le contenu se situe à un clic de l’utilisateur, il ne sera plus indexé par les robots Google. Il faut donc bien choisir la manière d’utiliser ces onglets ou ces accordéons. Une des solutions serait de laisser le contenu visible à l’utilisateur, afin qu’il puisse lui-même le cacher au cours de la visite de la page.

La navigation à facette, permettant à l’utilisateur de sélectionner plusieurs critères de recherche, doit également être bien maitrisée. En effet, la multitude de pages web résultant de cette navigation peut rapidement embrouiller les crawler web, faisant passer votre page pour du spam.


Le poids du nom de domaine n’est plus le critère le plus important. Lors d’une recherche avec des mots-clés, la richesse du contenu ainsi que la richesse de la sémantique sont pris en compte en priorité.

Les EMD (Exact Match Domain) ne sont pas recommandé. Ces domaines contenant exactement les mots-clés d’une recherche sont souvent considéré comme du spam par Google. En effet, bon nombre de ces sites ont été créé dans l’unique but de faire de la publicité. Ce type de nom de domaine, bien qu’il ne soit plus avantagé par le SEO, n’est pas à bannir définitivement.

L’utilisation des nouveau gTLD (Generic Top-level domain, ou domaine de premier niveau générique en français) n’aide pas non plus au référencement. De même pour les extensions en .biz (nom de domaine utilisé par les entreprises lorsque le domaine en .com est déjà reservé) qui sont mal vus par Google, car ils sont confondus avec des spam.

L’ancre d’un lien, c’est-à-dire le texte sur lequel sera ajoutée l’url du site à atteindre, doit être optimisée. Il faut que cette ancre soit un mot-clé précis, menant à une page précise du site, page dont le contenu doit correspondre à votre sujet d’article.


L’impact des réseaux sociaux, bien que n’ayant aucun effet sur le référencement n’est pas à négliger. Il faut prendre en compte le fait que les utilisateurs des réseaux, tels que Facebook par exemple, sont des humains et non pas des robots. Les réflexes de SEO sont à oublier, place au SMO (Social Media Optimization). Et quand bien même Facebook ne fera jamais en sorte que votre site soit mieux classé, il reste très utile pour le nombre de visiteurs sur vos pages. Il ne faut pas non plus oublier que vos pages Facebook peuvent apparaitre dans les recherches Google, de quoi accroitre un peu plus votre visibilité.


réseaux sociaux

Du côté des réseaux sociaux, on assiste également au renouvellement du contrat entre Twitter et Google. Ce partenariat permet à Google de parcourir en direct Twitter afin d’accéder à la base de donnée des titres et donc de les afficher en temps réel.


On constate effectivement qu’il y a eu de nombreux changements au fil du temps. Le référencement et le développement sont devenus beaucoup plus sérieux et professionnels, là où on utilisait auparavant des combines on voit apparaitre aujourd’hui de vraies professions reconnues.

Avec tous ces changements et toutes ces évolutions, on peut se demander si il ne serait pas plus utile de revenir aux fondamentaux du SEO, qui fonctionnaient très bien, sans avoir besoin de toujours plus de balises, d’outils et de projet Google. L’essentiel était de savoir coder son site en HTML de manière correcte et de l’alimenter en contenu de manière régulière.


Mais la plus grande étape à franchir en 2015 serait peut-être que les principes du SEO soient appliqués directement lors de la création du site. Car quel est l’intérêt par exemple d’avoir un site en https, si derrière les balises sémantiques sont de mauvaise qualité et ne sont pas optimisées ?


IV. Et demain ?


Le web sémantique

Panda et Penguin seront encore présents et surement améliorés ! Panda s’occupe des contenus à faible valeur ajoutée, tandis que Penguin pénalisera votre site en fonction de son optimisation.

« Content is king » (le contenu est roi) n’est plus suffisant. Un contenu rédigé uniquement dans le but de combler de l’espace ne sera plus pris en compte. Il faut que le contenu soit adapté au contexte. Le site doit être adapté à tous les types d’écrans et de support. Son contenu doit être de valeur, compréhensible et conversationnel, dans le sens où le contenu de votre site doit répondre à une question de l’utilisateur et non pas simplement apporter une information hors-contexte.

On entre entièrement dans l’ère du web sémantique, il ne s’agit plus seulement des mots, mais du sens derrière ces mots.

Grâce à l’algorithme Hummingbird (Colibri), on entre dans la recherche conversationnelle. Google ne fournit plus uniquement des liens, il fournit des réponses aux utilisateurs. Grace au Knowledge Graph de Google, vos réponses ne correspondent plus uniquement à des liens sans rapport. Par exemple, Michael Jackson n’est plus uniquement un mot-clé utilisé par Google pour trouver des résultats, c’est une vraie entité. Grâce au Knowledge Graph, un lien est fait entre le nom de la personne et ses œuvres. Le Knowledge Graph permet également d’afficher des extraits de chanson, les résultats météo en temps réel, des lieux sur Google Maps, …

Les recherches vocales sont de plus en plus nombreuses, les moteurs de recherches s’adaptent au langage naturel, c’est en quelque sorte la mort des mots-clés. Par exemple, on ne cherchera plus « Supermarché Lille », mais « Quel est le supermarché le plus proche ». Les requêtes sont plus longues et contiennent moins de mots-clés.

Google est également capable de comprendre le contexte et les intentions, par exemple la recherche « Comment aller à Paris » donnera les mêmes résultats que la recherche « Se rendre à Paris ». Hummingbird devient compétant pour la compréhension du langage oral.


Le knowledge graph


Il est important d’optimiser son contenu pour que le Knowledge Graph puisse y trouver plus rapidement et facilement les informations qu’il recherche. Le résultat doit être interactif et engageant pour l’utilisateur.


knowledge graph

Knowledge Graph se base sur Freebase, Wikidata et Wikipédia, il est donc utile pour votre que votre contenu soit mieux classé de créer des fiches sur ces sites (surtout lorsqu’il s’agit de faits historiques et de dates importantes).

Toutes ces données peuvent être regroupées grâce à schema.org, qui normalise les données, permettant à Google de savoir exactement où chercher les informations. Les attributs Itemscope, Itemtype et Itemprop indiquerons respectivement que la page est balisé, de quel type de balisage il s’agit et la propriété. Il faut respecter le format fourni par schema.org.

Il faut alors remplir le plus de champs possible, afin de fournir le plus de renseignements possible.


Les objets connectés

L’arrivée des objets connectés et de l’expansion d’internet à des objets et des lieux du monde physique bouleverse le paysage SEO.


google now android wear

Google Now et Android Wear se sont développés pour répondre aux nouveaux besoin des utilisateurs d’appareil mobile. Grâce à Google Now, vous disposez d’un assistant personnel portable sous la forme d’une application mobile, répondant à vos requêtes écrites ou vocales. Android Wear a été développé en réponse à l’apparition des smart Watch et autres « wearable » (technologies mettables), il intègre la technologie de Google Now et l’adapte au format des montres connectées.


Balisage

Lorsque votre page apparait dans les résultats de recherches, il est possible que le fil d’Ariane permettant d’accéder à votre page apparaisse à la place de l’URL. Il est possible de tester ce balisage dans Google Developpers, afin de vérifier que les données sont bien comprises par Google. Ce test est possible grâce aux sous-formats utilisés par Google Developpers, tels que JSON et XML, qui sont en quelque sorte des langages universels.


Google Plus

Malgré la polémique engendrée par les liens Authorship Google Plus, ce réseau reste intéressant. Il permet d’afficher les derniers posts partagés sur les pages de résultat des moteurs de recherche, tout en ajoutant un extrait enrichi sans utiliser schema.org. Google a supprimé l’affichage de photo de profil en page de résultat, mais garde la notion d’Authorship et la photo principale de l’article. De quoi apporter un peu plus de notoriété à vos publications !


La personnalisation

La personnalisation de contenu devient également un critère important. Le contexte de recherche, la localisation et les habitudes sont pris en compte par Google.

Grâce au paramètre des annonces Google, il est possible de rentrer des informations personnelles (sexe, âges, centres d’intérêt), afin de permettre aux annonces de mieux nous cibler.

Google Maps procède à un suivi de vos positions depuis votre smartphone. Ce qui revient à dire que vous êtes géo localisé à chaque instant. La notion de données personnelles est quelque peu obsolète pour Google.


Une alternative à Google ?

En Europe, Google possède environ 93% de part de marché, à l’exception de la République Tchèque (seznam.cz) et de la Russie (yandex.ru). En Chine, le moteur de recherche est largement devancé par Baidu.com.

Aux Etats-Unis, 30% des parts de marché sont possédé par Bing. Google quant à lui, perd des parts de marché face à Yahoo qui remonte progressivement grâce à Firefox.


Avec tous ces changements et améliorations, il est important de ne pas oublier les bases du SEO et du développement. Il faut penser son site comme une entité et non pas élément par élément, afin d’envoyer des signaux forts aux moteurs de recherche et de faciliter l’extraction implicite des données. L’essentiel étant de fournir un contenu de qualité afin de plaire aux utilisateurs et aux moteurs de recherche.


Sources

  • Andrieu Olivier, Abondance, Conférence « Le SEO à travers les âges. »
  • Remi Bacha de l’OVH World Tour

Article rédigé par Laurence J.

Le référencement d'hier et le SEO de demain

Réagir ?

Envoyez-nous vos réactions et commentaires via notre page Contact !


Dernières actualités...

Référencement : l’influence des réseaux sociauxJouer à Pokemon Go : c'est possible en France !STRASBOURG : Les endroits où se rendre pour la fête de la musique (2016) ECONOMIE - Un souffle de crise dans les CHR

En direct



Avis aux webmasters

rose d'or

Vous pouvez recopier cet article sur votre site en indiquant que la source vient de CERA Interactive, par exemple en faisant un lien de la manière suivante :

<p> Article <a href="http://www.cera-interactive.fr"> CERA Interactive </a> : <a href="http://www.cera-interactive.fr/cera-strasbourg/actu-web_150623-seo-avenir"> Le référencement d'hier et le SEO de demain </a> </p>


⇐ Retour aux actualités CERA Interactive
illustration de l'article CERA

Le référencement d'hier et le SEO de demain

Des questions à ce sujet ?

Contactez-nous ! rose d'or

Vous aimez cette page ? Partagez-la sur les réseaux sociaux !






Copyright© 2010-2017 CERA Interactive - Tous droits réservés.