Quoly.com fait maintenant partie de Solocom.ca

Pénalités au sur-référencement internet? Quels sont les vrais risques?

La semaine dernière, l’un des principaux ingénieurs de Google, Matt Cutts, a causé de nombreuses discussions en annonçant que le principal moteur de recherche du web allait bientôt pénaliser les sites “sur-référencés”. Il n’en fallait pas plus pour que plusieurs annoncent la mort du référencement, ou SEO, pour faire place aux sites ayant du vrai contenu (j’exagère, mais à peine).

Qu’en est-il vraiment? Personnellement, je ne suis vraiment pas inquiet pour ma carrière, où je fais maintenant beaucoup plus que du référencement internet. Je vous explique pourquoi dans ce vidéo:

[youtube=http://www.youtube.com/watch?v=QFomkDDW95s]

 

Qu’en pensez-vous? La discussion est ouverte!

La monnaie du web – Le Web Show

 

Lors de cet enregistrement, je vous parle d’une branche du référencement web, soit la valeur à donner a un site ou un lien hypertexte. Vous y verrez entre autres que parfois, ça vaut la peine de travailler sans salaire ou compensation monétaire pour obtenir un lien et / ou un emplacement de qualité.

Watch live streaming video from pourlespme at livestream.com
Perte des mots-clés venant de Google dans l'analytique: du calme!

Perte des mots-clés venant de Google dans l'analytique: du calme!

Sécurtié de google par search engigne land

Depuis quelques jours, il y a eu un changement en apparence anodin chez Google, qui se résume en une seule lettre, mais qui pourtant de l’avis de plusieurs pourrait apporter des changements majeurs dans les milieux du référencement – SEO et de l’anaytique web. Vraiment? Pas si sûr!

Tout d’abord une mise au point sur les faits, à froid:

Google a annoncé la semaine dernière que sur son portail principal, google.com, les usagers connectés via Gmail, G+ et autres services, seraient désormais automatiquement dirigés vers une connexion sécurisée https. Le but “officiel” de cette démarche est d’accroître la sécurité et la confidentialité des données personnelles associées au compte. Il faut dire qu’il y avait certaines menaces de poursuite contre le géant de Montain View à cet effet. L’article le plus complet que j’ai lu sur la question est celui de Search Engine Land, qui explique les détails.

Pour le référenceur que je suis, l’impact de la session sécurisée fait en sorte que certaines informations se seront plus transmises, notamment les termes que vous aurez tapé dans Google pour accéder à un site web. Cette information est très utile pour voir quels sont les mots clés les plus rentables. Bien sûr, via l’outil Webmaster tools du même Google, je peux avoir accès aux requêtes et au nombre de clics, mais je perd toutes données suivantes, comme le taux de rebond, les conversions et les ventes en provenance d’un terme en particulier. Dans le cadre du travail d’un SEO efficace, ces données sont très utiles pour connaître les mots-clés les plus rentables et ainsi savoir quoi optimiser.

Est-ce si grave?

Réponse courte: Non. J’ai vu au cours des dernier jours certains billets allant jusqu’à remettre en cause le référencement et l’analytique web, ce qui pour moi n’a de positif que d’identifier les sources à ne JAMAIS embaucher!

Comme l’explique très bien Rand Fishkin de SEOmoz, il faut plusieurs conditions pour en arriver là, en particulier être connecté à un compte Google, ce qui n’est pas le cas de la majorité des gens, du moins pour le moment. J’ajouterai sur ce point qu’à court terme, toutes les recherches faites ailleurs que sur le portail en .com, par exemple exemple sur Google.ca, ne sont pas affectées pour le moment. Il en va de même évidemment des données de Bing(yahoo!) et de Yahoo!(Bing)  Selon Matt Cutts de Google, cette mesure devrait donc affecter moins de 10% des requêtes. Selon ce que j’ai pu observer sur un site québécois d’importance, ici largement moins. De plus, les données provenant des campagnes payantes AdWords elles seront toujours transmises, ce qui a fait écrire à plusieurs que c’était là le nouveau prix de la confidentialité! Sur ce point je tend à être d’accord!

Donc, il reste des tonnes de données à analyser. De plus, j’ajouterai que tout ceci ne représente qu’une petite portion du travail de référenceur web, car ça ne change rien à la classification des sites et à la compétition constante pour arriver en première position. Ceci ne change rien non plus à toutes les autres sources que l’on peut analyser, sur le web et ailleurs, pour mesurer efficacement tous les aspects du marketing web.

 

Bonus: Avant que dire que l’impact était mineur, il m’a bien sûr fallu trouver des chiffres! J’ai donc utiliser des micro-billet d’Avinash Kaushik qui explique comment mettre en place un rapport personnalisé dans Google Analytics afin de mesurer les mots qui ne sont plus mesurés.

 

Duplication de contenu: pourquoi et comment se méfier

Duplication de contenu: pourquoi et comment se méfier

La duplication sans fin n'amène que rarement de bonnes nouvelles

Il vaut parfois la peine de revenir à certaines bases, surtout lorsque leur importance devient plus grande. Prévenir la duplication de contenu est un de ces éléments, encore davantage depuis la dernière mise à jour de Google, Panda. Ce billet vient d’une discussion que j’ai eu la semaine dernière La semaine sur LinkedIn (dans un groupe fermé lié à Linked Québec, je ne peut donc la reproduire ici) et d’un billet vidéo en anglais de Rand Fishkin, le président de SEOmoz (vous trouverez l’enregistrement en anglais à la fin du billet).

Tout ça pour dire -ou plutôt écrire- que pour être efficace d’un point de vue SEO, un même texte ne doit se retrouver qu’à une seule et même adresse sur le web. Les moteurs de recherche considèrent qu’un contenu unique est un premier signe de qualité. Les fermes de texte «libre de droit» sont donc à proscrire à tout prix!

Comment s’assurer qu’un texte est unique?  Très simple: “Il suffit d’en copier une assez longue partie, au moins 15 mots et d’en faire une recherche sur Google avec des guillemets.” Les guillemets indiquent une recherche exacte, sans inclure les requêtes juste semblables.

Un autre point a faire attention sont les doublons «légitimes». Par exemple, si vous avez un blogue, il est possible que vos billets soient aussi classés par catégories, ou par étiquette (tag). Si vous y placez des billets complets, ce qui peut s’avérer très utile du point de vue du lecteur, cela peut aussi devenir une duplication. Il faut donc faire les vérifications sur votre site web et au besoin rajouter une balise “NoIndex”, pour indiquer aux engins d’indexation que cette page ne doit pas apparaître dans les résultats.

Bref, encore une fois, il suffit d’être honnête et transparent. Je n’ai parlé ici que des textes, mais n’oubliez pas que cela s’appliquer aussi aux titres de vos pages et aux méta-descriptions. Vous me répondrez avec raison que ces dernières ne sont plus utilisées par Google. C’est vrai pour l’utilisation des mots-clés dans le classement des sites et le PageRank, mais leur contenu est quand même recueilli. Donc, 100 pages avec la même méta-description peut malgré tout vous pénaliser. Il faut surtout avec attention à ce dernier point si vous utilisez un CMS comme WordPress ou Joomla!, car ces outils inscrivent souvent un texte par défaut si vous laissez cet espace blanc dans les pages spécifiques.

Voici donc le billet vidéo de Rand Fishkin. Honnêtement, j’ai rarement vu quelqu’un parler de référencement web d’une manière aussi passionnée!

Wistia

Les "sitelinks" arrivent en force sur Google

Les "sitelinks" arrivent en force sur Google

Google apporte plusieurs, plusieurs mises à jour à son moteur de recherches chaque année. Bien que la majorité passent inaperçues. Il arrive aussi parfois des changements plus importants comme la désormais célèbre mise à jour Panda. Celle-ci provoque des remous, surtout pour des sites qui se sont construit sur du contenu dupliqué, que ce soit de manière légitime ou non.

Ceci dit, le changement qui m’impressionne le plus ces dernières semaines pour ses conséquences en référencement SEO en la mise en place des “site-links”, ou la façon dont Google a ré-arrangé les premiers résultats de recherches pour les sites d’importance.

Comme le montre l’article officiel de Google sur ces nouveau sitelinks, pour le même résultat, la page qui donnait ceci:

Donne maintenant cela:

 

C’est très joli et plutôt gratifiant lorsque l’on s’occupe du site qui obtient tout cet espace dans la première page d’une requête importante. Mais pour celui qui arrive 2e, il peut maintenant être totalement invisible à l’écran tant que le visiteur ne descend pas plus bas dans la page.

Pour une PME qui se bat contre une entreprise qui a une telle visibilité, cela peut être assez agaçant. Le site qui obtient cette première place le fait grâce au volume de pages et de visiteur qu’il a. Cela peut donc amener certains changements dans les mots clés à viser.

Merci à Francis Vallières et Francine Morin pour les références