Les 14 et 15 mars, se tenait, comme tous les ans, le SEO Campus organisé par l’association SEO Camp. Devenu désormais un rendez-vous incontournable pour toute personne qui s’intéresse de près ou de loin au SEO, cette édition 2013 a été une bonne réussite : un grand bravo et merci aux organisateurs (bénévoles !).
Voici ce que l’équipe Woptimo présente (Didier, Diane, et moi-même) en a retenu.
Jour 1 : de l’international, du local, du crawl et du linking…
Philippe Yonnet, président de l’association, lance les deux jours de conférences par le discours d’accueil en expliquant les dernières nouveautés de l’association : ouverture aux personnes morales, lancement d’une SEO Camp TV, ouverture vers les autres associations, création de branches locales…
Ensuite, table ronde sur le thème « le consultant SEO est-il has been? ». La réponse est non (ouf!) mais il faut savoir s’adapter : réseaux sociaux, rédaction web, design… Un bon consultant SEO doit pouvoir s’ouvrir aux autres métiers du web. Au niveau salaire, un consultant avec des solides compétences techniques peut espérer toucher 10K de plus qu’un consultant purement marketing… Toutefois, pas besoin d’être un développeur hors pair pour donner des conseils : savoir communiquer avec l’équipe technique et les piloter au besoin suffit amplement.
Référencement international
Est abordé ensuite le référencement à l’international. Farid Arab prend ainsi l’exemple de l’arabe qui ne représente que 1% du contenu mondial sur le web alors que le nombre de locuteurs est bien plus important. Le référencement dans cette langue pose d’abord le problème que ses locuteurs utilisent souvent d’autres langues en priorité (français ou anglais). Au niveau des algorithmes, notamment Panda et Penguin, Google fait des différences selon les régions. Dixon Jones a pu ainsi s’apercevoir que Penguin n’affectait pas de la même manière la Russie que l’Europe occidentale.
Voici quelques autres infos de Philippe Yonnet :
- Penser à utiliser l’attribut hreflang
- Ne pas faire de splash screen pour le choix des langues et des pays. Redirigez directement vers la bonne version.
- La géolocalisation par IP est fiable à 90%
- Ne pas oublier d’adapter les mentions légales, et certains contenus
- Les principaux moteurs en dehors de Google sont Baidu (Chine), Yandex (Russie), Naver (Corée)
- Ne pas oublier qu’aux Etats-Unis, Bing a eu une part de marché intéressante…
Le linking post-Penguin
Après la pause déjeuner, direction les outils avec la présentation de Botify, spécialisé dans l’analyse de crawl, et SearchMetrics, plus centré sur l’analyse concurrentielle.
Référencement local
- Penser à faire des liens vers vos pages Google + adresses depuis la page présentant vos boutiques
- Soyez présent sur les annuaires de confiance (PagesJaunes, 118 218…) car Google y accorde une importance.
- Penser à créer des événements sur G+, et utiliser les nouvelles microdonnées pour cela.
Google News
- Un site de news publierait en moyenne 700 news par jour
- Le facteur d’autorité est ultra important. Google donnerait ainsi un boost aux medias ayant aussi un support papier
- L’illustration de l’article est importante et il faut s’assurer qu’elle remonte bien dans les résultats
- Penser aux balises news_keywords, mais aussi à l’authorship et à la stratégie Google+.
- La balise standout est très peu utilisée en France. Pourtant, elle pourrait être utilisée par Google
Indexation
Olivier Andrieu enchaîne sur les problématiques de désindexation.
- La désindexation permet, entre autres, d’améliorer le pogo sticking (= taux de retour vers le moteur)
- Ne pas désindexer javascript et CSS (Google le déconseille)
- Penser à la directive X-Robots tag utiles pour désindexer images, pdf ou encore pour empêcher Google de passer sur https…
- Luv Jovart précise que les 410 sont très efficaces pour désindexer des pages, plus que de simples erreurs 404. (à vérifier, je suis perplexe)
J’ai relevé deux imprécisions, que je corrige ici :
- Si on veut bloquer /page mais pas /page.html , c’est possible. On peut utiliser disallow:/page$ (cf spécifications robots.txt)
- Si le robots.txt est inacessible (erreur 500 ou 503), ce n’est pas la fête du GoogleBot, Google ne va pas indexer tout sur son passage. Au contraire, il devrait repousser son crawl jusqu’à résolution du problème. (source)
La journée se termine par l’apéro SEO près du Stade de France. Au programme, bières, SEO, networking et personal branDing…
Jour 2 : les nouveaux usages
Je commence la journée par la présentation sur l’opengraph Facebook d’Antoine Gounel, d’Opengraphy. Très éclairant, je retiens notamment l’expérience Walibi Connect (allez jeter un coup d’œil, c’est inspirant !) et quelques points comme :
- Changer d’url, c’est aussi perdre ses like
- En 2010, on pouvait dire que les like étaient équivalents à des backlinks. Désormais, ce sont plutôt les actions enregistrées par Facebook qui peuvent servir d’équivalents.
Charlotte Prévost-Gosselin explique ensuite la démarche qu’elle a eu pour l’optimisation de la recherche interne chez 01net et notamment la bataille à mener sur l’ergonomie et le placement de la publicité. Sur telecharger.com, 70% des visiteurs utilisent la recherche interne… Cela vaut le coup d’optimiser !
Sylvain Peyronnet, présente, lui, le Knowledge graph :
- Google présente cela comme une révolution, mais il s’agit d’une présentation améliorée des données de freebase
- Pour maximiser vos chances d’apparaître dans le Knowledge graph, une page Wikipedia est indispensable.
- 570 millions d’objets et 18 milliards de faits.
Au tour du mobile avec le responsive design par Didier Vassout.
- Un bon projet responsive doit commencer par une réflexion sur le contenu
- Une solution en responsive est plus facilement maintenable qu’un site mobile ou une appli.
- Le temps de test est beaucoup plus important en responsive. Prévoir 30% de temps supplémentaire pour le développement d’un projet responsive-ready.
Johann Godey, de la Search Quality Team, clôt la conférence (en concurrence avec l’autre salle où on parle de Negative SEO) :
- 118000 tests comparatifs sont réalisés chaque année, dont 10 000 qui voient le jour. Certaines personnes voient une serp, d’autres une autre et Google compare les réactions. Environ 700 améliorations d’algorithmes par an passent par ce processus de validation et sont finalement lancées pour tout le monde.
- 30 000 milliards d’urls sont indexées par Google
- Utiliser le data highlighter pour les évènements, disponibles dans Webmaster Tools
Conclusion
Pour conclure, le SEO Campus 2013 est encore une réussite. On voit, chaque année que le SEO se complexifie : mobile, web sémantique, social graph… Avec moins de bidouille et plus d’intelligence, le SEO de qualité nous semble loin d’être mort. Et vous qu’en avez-vous pensé ?
Autres compte-rendus
- UnpeudeSEO
- Vidéos de Yakamama
- Dossier JDN netlinking / SEOcampus
- Compte-rendu sur Volumium
- … et sur lereferenceur