Sommaire

Si vous aimez alors partagez

Le référencement :

Le référencement définit l’ensemble de techniques visant à rendre un site web plus visible sur les moteurs de recherche. On l’appelle souvent SEO d’après le terme en anglais : Search Engine Optimization. On peut le diviser en deux parties : La soumission qui consiste à faire connaître le site auprès des outils de recherche et le positionnement d’un site dans les premières pages des moteurs de recherche.

Le référencement repose énormément sur la qualité, la structuration et le maillage interne et externe du texte qui va être publié en vue de promouvoir un site web. En effet, toute recherche sur Internet passe par les ‘moteurs de recherche’. Les internautes saisissent donc des mots clés sur ces moteurs afin de trouver les sujets qui les intéressent.

Et pour réaliser un bon référencement, il faudrait être capable d’estimer et identifier ces mots clés. Ceci permettra au site d’être bien positionné dans les résultats de recherche. Ensuite vient la promotion du site auprès des moteurs de recherche.

Définition du terme SERP :

SERP est l’abréviation du terme en anglais : Search Engine Result Pages. C’est la manière dont s’affichent les résultats d’une recherche faite par un internaute. Les résultats de recherche varient d’un utilisateur à l’autre. Ceci pour plusieurs raison : Le pays ou la région de l’utilisateur, le support d’où a été effectuée la recherche (Ordinateur de bureau ou portable, tablette, Smartphone…), les paramètres de recherche définis par l’utilisateur (tel que la langue, la date ou le nombre de résultats par page), les résultats obtenues précédemment par l’utilisateur pour la même requête, ou bien à cause du « A/B testing » effectué par les moteurs de recherche pour tester différents affichages. Ce qui fait qu’un site puisse disparaitre des SERP puis réapparaitre. Ce n’est pas inquiétant si ça ne dépasse pas 72 heures.

Les pages peuvent être référencées en première position, elles bénéficient donc de la plus grande part des visites. Ensuite, celles en seconde position et ainsi de suite. Idem pour le référencement en première page qui permet d’avoir plus de visiteurs uniques que ceux obtenus pour un site web référencé en seconde page.

Les mots-clés :

Comme on a dit, il est primordial d’identifier les mots clés qui serviront à positionner les pages d’un site web. Mais on ne peut pas toujours deviner les mots clés que choisiront les internautes, car ces derniers ont tendance à utiliser des mots courts et parfois mal orthographiés.

Or, on peut comparer le volume de recherche d’un mot-clé par rapport à un autre pour avoir une idée sur les mots clés les plus utilisés, une option de Google permet de faire ceci à partir du lien suivant :   http://www.google.com/trends/?hl=fr

Il y’a aussi d’autres sites appart Google permettant de chercher les mots-clés les plus utilisés.

C’est quoi la différence entre un SEO Black hat et un SEO White hat :

Il s’agit ici de la manière dont procèdent les référenceurs pour faire leur travail, est-ce en respectant les règles ? Ou en tripotant. On distingue donc ces deux types :

Le SEO White hat :

C’est le référencement qui respecte toutes les règles et normes des moteurs de recherche. Ceci permet d’obtenir un référencement rapide auprès de ces moteurs.

Le SEO Black hat :

C’est le référencement qui ne respecte pas les consignes et règles des moteurs de recherche. Il y’a plusieurs techniques comme le ‘cloaking’ ou le ‘content spinning’. Leur avantage est le gain rapide mais à quel prix !! Les sites adoptant ce type de référencement sont tôt ou tard déclassés par les moteurs de recherche qui utilisent des algorithmes spéciaux pour les identifier.

Comment soumettre un site web :

Soumettre un site web est la première étape à faire avant d’optimiser le référencement. Ceci consiste à le faire identifier auprès des moteurs de recherche pour qu’ils le parcourent régulièrement. Vous pouvez soumettre votre site en remplissant un formulaire auprès des moteurs de recherche. Pensez donc aux moteurs de recherche les plus utilisés par les internautes sont Google, Bing et Yahoo.

Le référencement gratuit et payant :

  • Le référencement gratuit :

En effet, les moteurs de recherche indexent les sites web gratuitement. Or, vous ne pouvez pas les payer pour améliorer votre position dans les résultats des recherches.

  • Le référencement payant :

Vous pouvez obtenir des liens sponsorisés publicitaires en achetant des mots clés sur un moteur de recherche. C’est ce qu’on appelle le SEM ou bien Search Engine Marketing.

le référencement nécessite beaucoup d’expérience et de vigilance. Le mieux est de confier cette mission aux agences de référencement qui savent comment bien référencer votre site web.

L’optimisation du référencement :

Il est important de faire attention aux conseils donnés préalablement, lors de la conception des pages d’un site web. Car le référencement du site web auprès des moteurs de recherche se basera sur la conception de ces pages.

Beaucoup de webmasters commettent l’erreur de porter toute l’attention sur la page d’accueil lors du référencement, et négliger les autres pages. Or, le contenu de ces pages est plus intéressant et important. Il faudrait donc bien choisir tous les détails de conception de chaque page du site web.

En général, il faudrait respecter quelques techniques pour envisager un référencement plus efficace pour votre site :

– Bien choisir le titre et l’URL de la page, ainsi que les liens internes.
– Créer un contenu attractif et unique.
– Choisir des META qui décrivent le contenu de chaque page avec précision.
– Utiliser les attributs ALT pour les images.
– Veiller à ce que le texte de la page soit bien lisible par les moteurs de recherche.

Comment créer un bon contenu pour votre page :

Le contenu de chaque page de votre site web doit être original et attractif. Il est évident que plusieurs sites peuvent proposer le même service ou traiter le même sujet. Mais votre site web devrait le traiter différemment en se basant sur une organisation originale, ou en mettant l’accent sur certains aspects peu traités. Vous pourriez chercher les centres d’intérêt des internautes en utilisant les réseaux sociaux. Ceci vous permettra d’orienter votre contenu.

Pourquoi faire ? Parce que les moteurs de recherche accordent la priorité aux sites qui ont des contenus attractifs. Ceci afin de fournir aux utilisateurs des résultats pertinents. Une autre chose aussi importante, est la mise à jour. Pensez donc à mettre à jour régulièrement les pages de votre site web pour augmenter la fréquence de passage du robot d’indexation ou même d’améliorer l’indice de confiance accordé au site par le moteur de recherche.

Comment choisir le titre de la page :

Le titre de la page est la première chose que lirait un utilisateur dans la page des résultats donnée par le moteur de recherche. Soit il est attiré et décide de visiter votre site, soit il passe à autre chose. Il faudrait donc choisir le titre avec grande vigilance.

Le titre est placé entre deux balises et dans l’en-tête de la page web. Il faudrait qu’il soit précis et ne dépasse pas les sept mots. Il doit aussi être unique et original autant que possible, pour éviter de tomber dans le cas d’un contenu dupliqué.

Pensez à mettre les mots les plus importants à gauche de la page, puisque les utilisateurs européens lisent de gauche à droite. Il est fortement conseillé de donner à chaque page du site web un titre unique et différent, même pour les pages qui sont paginées.

N’oubliez pas que le titre de la page s’affichera dans les moteurs de recherche. Mais aussi dans les onglets du navigateur des internautes, dans l’historique et les favoris. Accordez lui donc toute l’importance et le temps qu’il faut.

Comment choisir l’URL de la page :

Comme il y’a des moteurs de recherche qui accordent l’importance au titre de la page, il y’a aussi ceux qui accordent une grande importance aux mots-clés que contient l’URL de la page web, à savoir les mots-clés que contient le nom de domaine.

Donc, il est très recommandé de choisir des noms de fichier adaptés au contenu des pages du site. Ceci en introduisant un ou deux mots-clés pour chaque nom de fichier. Il ne faut surtout pas mettre des noms de fichier ne donnant aucune information sur le site, comme ‘page1.html’.

Le corps de la page :

Plusieurs sites web utilisent des contenus opaques comme le flash pour leurs pages. Or, ce genre de techniques est déconseillé car il ne met pas en valeur les contenus de vos pages web. Il faudrait plutôt opter pour un contenu transparent, c’est-à-dire que le texte contenu dans la page puisse être indexé par les moteurs de recherche. Il faudrait donc créer un contenu de qualité pour réponde aux attentes des visiteurs, et en même temps introduire quelques mots clés. Il faut aussi éviter les cadres ou frames, car elles gênent l’indexation des pages dans de bonnes conditions.

Définition et rôle des balises META :

Les balises META appelée encore « META Tags », sont des balises non affichées qui sont insérées au début d’un document HTML pour le décrire avec plus de finesse et précision. Les moteurs de recherche commencent à moins utiliser les balises META pour l’indexation des pages, comme Google qui a officiellement abandonné l’utilisation de la balise META ‘Keywords’. Ceci est dû à l’usage excessif de ces balises par les sites web.

  • La balise META description :

Elle permet d’introduire une description de la page, cette description peut contenir des fautes d’orthographe volontairement commîtes car elle n’apparaitra pas aux visiteurs du site web. Elle s’afficherait plutôt dans les SERP.

Il est fortement recommandé de se limiter à une vingtaine de mots clés et d’utiliser un codage HTML.

  • La balise META robots :

Elle est très importante pour l’indexation de la page. En effet, c’est elle qui décrit le comportement du robot, en lui indiquant s’il doit indexer la page ou non et s’il peut poursuivre les liens de la page ou non. Si la page ne contient pas de balise META robots, le robot effectuera ces actions automatiquement.

Voici les différentes formes que peut prendre la balise robots et leurs significations :

– Index, follow : Ceci indique qu’il n’y a pas de balise robots, c’est ce qu’on appelle le comportement par défaut.
– Index, nofollow : Cette instruction autorise le robot à indexer la page mais l’empêche de suivre les liens.
– Noindex, follow : Le robot n’est pas autorisé à indexer la page, mais peut vérifier les liens régulièrement et les suivre.
– Noindex, nofollow : Cette instruction interdit au robot d’indexer la page et même de suivre les liens. La fréquence de visite des robots pour la page considérée diminuera considérément.

Vous pourriez écrire la balise META robot sous cette forme :

Il y’a d’autres valeurs (appart folow, index…) qui peuvent être utilisés comme : ‘noodp’ qui interdit au robot de proposer la description de de l’annuaire DMOZ par défaut. Ou bien ‘noarchive’ qui interdit au robot de proposer la version en cache de la page.

Si vous voulez cibler un robot spécifique, vous pourriez écrire son nom au lieu de robots dans la forme de la balise. Par exemple, pour cibler le robot d’exploration de Google, vous devriez écrire ‘Google bot’ au lieu de ‘robots’.

Si maintenant, vous désirez interdire au robot d’indexer plusieurs pages à la fois, il serait plus utile d’utiliser le « robots.txt » afin de les bloquer. Ainsi, les robots ne perdraient pas de temps à explorer toutes les pages, et passeront rapides aux pages que vous désirez indexer.

Les liens internes :

Les liens internes entre les différentes pages d’un site web sont très utiles. Elles offrent une grande visibilité aux pages et permet aux crawlers de les parcourir facilement. En créant votre site, pensez donc à créer une page qui résume l’architecture et l’arborescence du site. Cette page doit contenir des pointeurs, notamment des liens vers chacune des pages. Même chose pour la création du menu principal, qui doit être bien établi afin de faciliter la navigation du site et donner un accès rapide aux pages les plus signifiantes du point de vue SEO.

Le NetLinking :

Comme on a parlé de liens internes, il s’agit ici des liens externes. En effet, le NetLinking permet d’obtenir des liens externes vers votre site web. Pourquoi faire ? Eh bien pour augmenter le trafic de la page et sa notoriété. Ceci permet aussi d’améliorer la pertinence de votre site web. Surtout auprès des moteurs de recherche qui utilisent généralement des indices pour connaitre la quantité et la qualité des liens externes d’un site web.

Les liens Nofollow :

Comme c’est indiqué dans le paragraphe concernant les balises META, les robots des moteurs de recherches suivent automatiquement les liens des pages d’un site web. Et on a précisé que vous pouvez utiliser l’instruction ‘Nofollow’ dans la balise META pour interdire le suivi des liens ou bien le fichier ‘robots.txt’ pour interdire l’indexation des pages. Cependant, vous pouvez aussi utiliser l’attribut « Nofollow » pour empêcher les moteurs de recherche de suivre certains liens.

Cette action est requise et recommandée s’il s’agit d’un lien payant faisant objet d’un accord commercial, ou bien s’il a été ajouté par un utilisateur en guise de contribution et participation comme c’est le cas pour les forums, les commentaires, etc. Car ces liens ne sont pas forcément sûrs et sécurisés.

Les attributs ALT des images :

Les attributs ALT sont ajoutés pour décrire le contenu des images figurant sur les pages du site. Il est très recommandé de les utiliser pour chaque image pour que les moteurs de recherche puissent les indexer. En effet, les images sont opaques pour les moteurs de recherche, ce qui fait qu’ils ne peuvent pas les indexer.

Les attributs ALT sont aussi indispensables pour les non-voyants afin de naviguer sur les sites web à l’aide des terminaux en braille. Pensez aussi à utiliser un attribut ‘title’ qui permettra d’afficher une infobulle décrivant l’image. Vous devriez cependant, voir les formules d’introduction des attributs ALT pour le faire correctement.

Comment améliorer le crawl ou bien l’exploration :

La première étape dans le référencement d’un site web est « le crawl ». Le crawl consiste en l’exploration du site web par les robots d’exploration des moteurs de recherche. Les robots utilisent des agents spécifiques pour parcourir les sites, soit pour indexer des nouvelles pages ou bien pour les mettre à jour.

Pour effectuer le crawl, le robot d’exploration suit les liens présents dans votre site web pour parcourir toutes ces pages. Les robots envoient un « en-tête http User-Agent » dans les logs afin de les faire identifier. Il existe plusieurs types d’user-agents, et voici ceux des moteurs de recherche les plus utilisés :

Google  : GoogleBot, Mediapartners-Google, Googlebot-Image, Googlebot-Mobile, Google Wireless Transcoder et AdsBot-Google.

Bing       :  Il y’a Bingbot et MsnBot.

Yahoo    :   Slurp.

Yandex  :  Yandex.

Orange et Voila : VoilaBot.

Cuil        :  Twikler.

Il est donc important de bien mailler les pages de votre site web grâce aux liens. Afin de permettre aux robots d’indexation d’explorer le maximum de pages, avec rapidité et efficacité.

Les méthodes permettant d’améliorer l’indexation de votre site web sont nombreuses, les fichiers Robots.txt, la vitesse de chargement des pages et le Sitemap.

  • Les fichiers Robots.txt

Un fichier Robots.txt permet de bloquer les pages que vous ne désirez pas indexer, notamment celles inutiles au référencement du site web. Ainsi, les robots d’indexation des moteurs de recherche donneront toute l’importance et le temps aux pages utiles. Les pages à bloquer sont par exemple, celles qui sont en doublon ou bien qui n’ont pas un grand intérêt pour les visiteurs depuis la recherche, comme les résultats de recherche interne du site web.

  • La vitesse de chargement des pages :

La vitesse ou le temps de téléchargement des pages de votre site web, constitue un grand critère de qualité. Que ce soit pour les utilisateurs ou pour les moteurs de recherche. En effet, ces derniers donnent plus d’importance à ce type de signaux quand il s’agit de positionner les pages. Quant aux visiteurs, ils seront sans doute plus satisfaits par une grande vitesse de téléchargement.

  • Le Sitemap :

Pour donner accès aux robots d’exploration à toutes les pages de votre site, ainsi qu’aux dernières pages indexées, il faut créer ce qu’on appelle un fichier « sitemap ».

Les réseaux sociaux et le référencement :

Les algorithmes utilisés par les moteurs de recherche, ont de plus en plus tendance à tenir compte des signaux de partage sur les réseaux sociaux. Tel que « Google Panda » qui est connu par sa prise en considération de ce critère pour définir la qualité d’un site web.

C’est pourquoi il est très conseillé de favoriser le partage social. Ce dernier ne doit pas ralentir le téléchargement des pages, vous pourriez donc mettre des boutons de partage asynchrones.

Comment référencer un site mobile :

Il est très conseillé de concevoir votre site mobile grâce au « Responsive design ». L’avantage de ce désigne réside dans le fait que la page indexée par des terminaux mobiles est la même que celle indexée par les ordinateurs de bureau.

Pour un site mobile situé sur un domaine ou sous-domaine à part, il est essentiel de rediriger les utilisateurs vers le site mobile de façon automatique. Sans oublier de faire attention au « crawler Google bot Mobile », qui doit être bien traité comme un terminal mobile.

C’est quoi un contenu dupliqué :

On parle de contenu dupliqué quand plusieurs pages d’un même site ont le même titre, ou bien quand certaines pages du site ont un contenu existant déjà dans d’autres sites. Le contenu dupliqué, ou « duplicate content » est toujours négligé par les moteurs de recherche. Il faudrait donc être très attentif et vigilent afin de créer des titres et des contenus uniques autant que possible.

Comme on a précisé, il faut éviter le contenu dupliqué dans la mesure du possible. En effet, il est tout à fait naturel de tomber dans du contenu dupliqué. Car pour rédiger des contenus ou bien des titres, on peut faire des citations, utiliser les propos de personnalités connues ou à mentionner des textes officiels.

Ce qu’il faut vraiment éviter, c’est d’avoir trop de contenu dupliqué sur votre site web. Car ceci peut vous causer une pénalité algorithmique. Vous pourriez bloquer ce genre de contenu grâce à une balise META robots prenant la valeur ‘noindex’, ou grâce au fichier ‘robots.txt’.

  • La balise canonical :

La balise canonical doit être utilisée dans les pages qui possèdent du contenu dupliqué, son rôle est de pointer vers une page spécifique afin que les moteurs de recherche la conserve. Puisque les moteurs ne conservent qu’une seule page selon leurs algorithmes quand ils se trouvent devant du contenu dupliqué. Or, cette page n’est pas forcément celle que vous voulez indexer. La balise canonical peut être introduite grâce à la formule suivante :

Pour plus de clarté, il est vivement conseillé d’afficher dans vos pages, une balise canonical avec l’URL de la page en cours. Idem pour les pages d’index pour que les moteurs de recherche puissent indexer correctement votre page.

Les pénalités : Pourquoi et comment ?

Il y’a deux types de pénalités possibles :

Les pénalités algorithmiques : Ce type de pénalités se produit à cause de certains algorithmes des moteurs de recherche, et non à cause d’une action humaine. En effet, les moteurs de recherche possèdent des algorithmes qui surveillent la qualité des sites web et déclassent ceux qu’ils considèrent de non qualité. On cite par exemple l’algorithme « Google Panda » qui déclasse les sites de mauvaise qualité selon lui. Il y’a aussi l’algorithme « Google Penguin » qui déclasses des sites pour leurs mauvaises pratiques de référencement. Si votre site est pénalisé par ce genre d’algorithme, vous devriez éliminer les signaux qui ont conduit à ce déclassement.

Les pénalités manuelles : Ce sont des pénalités dues à des actions humaines qui ne respectent pas les règles et les normes posés par les moteurs de recherche. Les cas sont différents, comme la présence d’un contenu artificiel, des liens et redirections trompeuses ou bien quand le site contient des liens achetés et non naturels.Dans le cas des liens non naturels, Les moteurs de recherche pénalisent à la fois le site qui acheté et celui qui a vendu. Pour pouvoir annuler le déclassement du à cette pénalité, vous devriez effectuer une demande de réexamen du site via un formulaire consacré, ce qui prendrait parfois plusieurs semaines.

Et même après avoir corrigé le problème, vous n’êtes pas sûr de retrouver votre position d’avant. Il faut donc faire très attention et respecter les consignes. L’algorithme Google :

C’est l’ensemble des instructions suivies par Google pour donner une page de résultats après une requête faite par un internaute.

  • Le PageRank (PR) : Le PageRank est indice qui été affecté à chaque page web. En effet, l’algorithme Google se consistait au début à étudier les liens entres les pages web et à affecter des indices PageRank. L’indice d’une page augmente si elle contienne plus de liens entrants. Et grâce à son PR élevé, elle pourrait en distribuer à ses liens sortants. On parle souvent du PageRank de la page d’accueil, car elle bénéficie du plus grand PR parmi toutes les pages d’un site.
  • L’optimisation de l’algorithme : Il existe maintenant plusieurs signaux que le l’algorithme prend en compte en plus du PageRank. On en cite par exemple la fraîcheur et la nouveauté des informations, le fait de mentionner l’auteur, les sources de traffic existantes appart les SEO…Google fait plus d’une modification par jour pour optimiser son algorithme. En total, environ 500 modifications par an. Il faudrait donc vérifier les nouvelles optimisations régulièrement.
  • Google Caffeine : C’est une nouvelle architecture qui a été développée par Google depuis 2009. Elle est soumise à des mises à jour régulières depuis cette date. Le but de cette architecture consiste à améliorer le crawl. Ceci permet de fournir des résultats de recherche plus frais et tenant compte des mises à jours.
  • Google Panda : On a souvent mentionné « Google Panda » dans cet article, c’est un filtre qui a été utilisé par Google depuis 2011. Son travail consiste à dégrader le classement le positionnement des sites qui sont de moindre, voire mauvaise qualité.
  • Google Penguin : Comme on a dit avant, cet algorithme pénalise les sites adoptant des mauvaises pratiques SEO. Il peut par exemple pénaliser pour des liens provenant des sites spams, ou pour des liens excessifs entre des pages ne faisant pas de lien de sujets. Cet algorithme est utilisé depuis 2012, mais il a été mis à jour en 2013 et en 2014. Google a aussi mis en place un formulaire permettant de connaître les liens pouvant causer des pénalités par Google Panda.

Comment agir face à une pénalité algorithmique :

Si vos remarquez que la fréquence de visite de vote site web a diminué, il s’agit peut-être d’une pénalité. Mais il faudrait s’assurer que c’est bien une pénalité algorithmique. Vérifiez donc s’il y’a un déploiement de Panda ou Penguin en ce temps. A savoir que le déploiement peut durer plusieurs jours ou même plusieurs semaines.Il n’y a qu’une seule issue pour éviter ou sortir d’une pénalité algorithmique. Vous devriez voir et revoir manuellement les pages de votre site web, et vérifier que chaque contenu et titre respecte la qualité requise et l’originalité. Si vous suspectez qu’un élément n’est pas de bonne qualité, vous devriez le modifier, l’améliorer ou bien le supprimer. Pour éviter les pénalités de Google Penguin, vous devriez vérifier, dans Google Webmaster, que tous les liens pointant vers votre site sont naturels et de bonne qualité. Et éviter surtout des liens avec des sites Spam.Pour finir, voici quelques liens qui vous seront très pratiques pour le référencement de vos sites et la création des liens :

Google Webmaster Tools

Bing Webmaster Tools

Google Tendances des recherches

ÜberSuggest – Suggestion de mots-clés

Trouver les liens pointant vers une page

Pour augmenter votre visibilité sur Google prenez contact avec l’agence Weblinking.net


Si vous aimez alors partagez