Conseils SEO pour réussir votre stratégie de référencement et optimiser le positionnement de votre site dans les moteurs.

Si l’on remontait un peu le temps, histoire de voir comment était la vie avant Penguin et Panda ? Autrefois en ce temps-là, la vie était bien paisible et monter un site en 1ère position était d’une facilité déconcertante : quelques backlinks, une bonne répétition de mots-clés, et hop comme par magie, on se retrouvait ainsi dans le top 3. On pouvait même acheter une grande quantité de sites et tous les linker sur les pages à positionner et l’on était sûr d’être visible rapidement sans trop forcer, ni trop se poser de questions. On pouvait même pratiquer le spam à forte dose sans craindre d’être puni.

Mais vous pensez bien que cette vie de rêve ne pouvait pas continuer ainsi éternellement. Un peu nostalgique tout çà ? Oui mais autant d’abus, un web inondé de spam, de suroptimisations, de liens artificiels à en pleuvoir, une base pas très jolie à voir, et surtout inacceptable pour notre cher Google qui ne pouvait plus supporter de perdre son temps à crawler toutes ces url de mauvaise qualité et voir son index ainsi pollué … puis la vie en couleur est passée tout à coup au noir et blanc 🙂

Et pour cause, la méthode fût radicale et même un peu trop puisque sanctionnant ou rétrogradant quelquefois des sites ayant un peu tiré sur la corde mais ne méritant pas le châtiment ultime ! Concrètement comment savoir ce que l’on doit faire et ne pas faire en référencement ? Voici une petite check-list qui vous permettra d’y voir un peu plus clair.

Passer au travers de Panda et Penguin 

Panda ou la recherche de l’expérience utilisateur

Pas de contenu dupliqué

Le Duplicate Content est quelque chose de très néfaste en SEO,, qu’il soit on-site ou bien off-site, il peut être pénalisable même en petite quantité, c’est pourquoi il faut faire très attention et surveiller le contenu de ses pages. Panda est très puissant car il est capable de détecter très aisément des fragments de contenus copiés.

Un contenu assez long

La longueur d’un texte n’est pas un critère de référencement et par conséquent aucune taille minimum n’est requise. En revanche, on peut constater des effets plutôt positifs sur le positionnement de contenus longs. Ecrire de longs textes permet de nourrir le champ sémantique de votre page et donc d’aider les robots à mieux vous classer dans votre thématique et donc dans les pages de résultats. On peut considérer qu’un minimum de 200-300 mots enverra un signal positif à Google et permettra d’être considéré comme un site de confiance et non spammeur.

Des contenus pertinents avec mots-clés

Le style et la qualité doivent être impeccables, les contenus doivent être composés des mots-clés associés à votre activité, ils doivent être rédigés pour les lecteurs en ayant une petite pensée sympathique pour les robots, mais sans tomber dans l’extrême et ne pas dépasser le seuil de l’indice de densité égal au nombre d’occurrences du mot-clé dans la page / nombre total des mots de la page, dont la valeur max est de 5,5 %. Attention aussi car le poids des mots-clés est plus fort dans les titres (balises entêtes). Vos pages doivent présenter de vrais contenus éditoriaux de qualité qui rendront plus crédibles votre démarche.

Faible taux de rebond et temps de visite élevé

Le visiteur doit avoir envie de rester sur votre site, s’il ressort rapidement, c’est qu’il est peut-être déçu et dans ce cas, cela envoie un très mauvais signal à Google. Mais il est bon de savoir qu’un taux de rebond élevé ne signifie pas forcément qu’une page est mauvaise, cela peut aussi vouloir dire que l’internaute a trouvé rapidement son information et est ressorti aussitôt du site.

Pas de scraping, pas de content spinning

Le scraping est une technique très élaborée consistant à récupérer du contenu sur d’autres sites.
Le content spinning est quant à lui, une méthode de récupération de contenus et de substitution de certains mots par d’autres expressions synonymes, de manière à rendre le contenu unique dans le seul but d’éviter la duplication. Certaines personnes ont recours à cette technique pour gagner du temps mais les automatismes ne sont jamais bons et rien ne peut remplacer l’être humain !

Pas trop de publicité

Celle-ci ne doit pas occuper la place centrale de votre page et doit plutôt être relayée au second niveau, comme par exemple les marges, ou au-dessous de la ligne de flottaison, mais pas directement au sein du contenu de votre page, car elle gênera les internautes et les Googlebots par ailleurs lorsqu’ils crawleront votre page.

Pas d’indexation des pages standard

Afin d’éviter le Duplicate Content, vous ne devez pas indexer les pages classiques telles que la page contact, la page partenaires, la page mentions légales, …etc. Il faudra alors paramétrer la balise Meta Robots de ces pages ànoindex, nofollow.

Balise canonical pour les pages identiques

Il faut faire très attention aux problèmes de DUST ( Different Url Same Target ), qui peuvent engendrer de graves problèmes de Duplicate Content. Le DUST se produit lorsque le contenu à l’intérieur de votre site est  accessible depuis différentes URLS, par exemple http://www.mon-site.com, http://mon-site.com, http://mon-site.com/index.php… etc.
En 1er lieu, vous devrez tout d’abord régler la redirection de base du site, à savoir la version sans le www à rediriger sur la version avec www, à l’aide d’une redirection permanente 301.
En 2ème lieu, il faudra vous débrouiller pour que la page http://www. monsite.com/index.php/ soit redirigée vers http://www.monsite.com , et que la page http://www.mon-site.com/ soit aussi reconduite sur  http://www.mon-site.com , il vous suffira pour cela d’utiliser la redirection 301, ou bien la balise canonical.

Pas d’erreurs d’indexation

Si vous en avez au sein de votre site, alors il faudra les corriger, afin de ne plus avoir d’anomalies de ce type qui ressortent pour votre site lorsque vous le visualisez dans Google Webmaster Tools, cela peut constituer un handicap par la suite : les pages 404, les redirections manquées, les liens rompus, … etc

Pas de moteurs verticaux internes

Certains sites à thématique spécifique utilisent leur propre moteur de recherche, on les appelle les moteurs verticaux. Cette pratique n’est pas très appréciée de Google, et il est préférable d’écarter ce type de solutions ou bien de mettre ce type de page en noindex au niveau de la balise meta robots.

Temps de chargement performant

Le chargement de la page ne doit pas être bloqué par des images trop volumineuses, des publicités, popup, plugin, des traitements synchrones, du code source non optimisé ralentissant le chargement de la page.

Présence de liens sortants de qualité

Si vous faites allusion à plusieurs liens sortants sur votre page, ils devront faire référence à des liens de qualité afin de ne pas être éventuellement soupçonné par le Panda. De même si vous utilisez 2 liens identiques, sachant que Google ne suit pas le 2ème, ce dernier n’aura donc pas grand intérêt. Si vous souhaitez le conserver, prévoyez alors une ancre différente de celle du premier.

Citation des sources des contenus récupérés

Lorsque vous reprenez un contenu d’un autre site, il faut vous assurer d’avoir bien indiqué la source, auquel cas, encore une fois, cela pourra être considéré comme du contenu dupliqué et vous risquez d’être pénalisé.

Pas de sites multithématiques

Les sites mêlant plusieurs thématiques ne sont pas très bien vus par Google et si c’est malheureusement le cas, vous devrez créer des sous-domaines bien compartimentés, pour que le site ne soit pas considéré comme du spam.

Utilisation des balises Authorship et rich snippets

Ces balises sont en quelque sorte votre airbag, elles vous permettront, d’être sans nul doute protégé de Panda puisqu’elles ont un impact direct sur le référencement des sites, autant dire que Google vous classera du côté des bons élèves si vous utilisez ce type de données.

Qualité des ancres de liens on-page

Les ancres de liens internes à vos pages doivent être parfaitement définies avec quelques mots-clés pertinents et non suroptimisés afin là encore d’éviter l’envoi d’un signal négatif à Google. Les ancres de liens « bourrés » de mots-clés exacts, trop similaires et multiples ne feront qu’alerter tous les pandas de Google (oui ils sont forcément plusieurs pour faire tout ce travail !)

Intégration des partages sociaux

Encore un point social à ne pas négliger qui sera certainement très utile pour vous maintenir à l’abri. Tout à fait logiquement Google pense que si vous partagez des contenus sur les réseaux, c’est que vous êtes honnête. On sait bien que les spammeurs ne partagent guère d’articles sur les réseaux, ils ne font que les commenter !

Présence sociale développée

Etre actif sur les réseaux donne une excellente image de vous à Google. En revanche l’absence de signaux sociaux de qualité peut être handicapante surtout si vous avez d’autres éléments accablants à votre charge.

[sc:contact]

Publier un commentaire