64px_Speech Bubble

SMX 2012 : outils, social et pénalités

dans Conférences,
Le 26 septembre 2012 par Sébastien Monnier

Comme Sébastien a pu assister à des conférences complémentaires des miennes, voici un petit résumé des interventions que j’ai pu suivre.

 

 Ranking factors : rubriques et tendances

 

David Degrelle de 1ere Position dresse un historique rapide des évolutions des algorithmes de Google sur les dernières années. Chacun aura constaté l’accélération des mises à jour depuis le début 2012 : on est désormais à un rythme de près de 500 évolutions signalées par an, une véritable frénésie.

Conséquence, le référencement ne laisse plus aucune place à l’amateurisme. Il est vrai qu’une erreur peut se payer au prix fort : pour le référenceur, l’enjeu n’est plus seulement dans la lutte contre le status-quo dans les pages de réponse (« mon site ne progresse pas »), mais plutôt d’agir en slalomant entre les pénalités potentielles que le moteur pourrait appliquer si l’on n’est pas prudent (« J’ai fait telle opération technique, je ne comprends pas, Google a recalé mon site passé de la première à la troisième page dans les réponses« ).

David mentionne judicieusement l’annonce du 6 juin concernant l‘arrivée du nouvel outil de « suppression de backlinks » dans Google Webmaster Tools. Il permettra de désavouer des liens entrants (backlinks) et limiter le negative seo. Chez Woptimo, nous pensons que cet outil va vraiment permettre une amélioration du travail en netlinking. Il van, en effet, permettre à chaque site de « couper » les liens toxiques qui le pénalisent et se reconstruire une virginité en terme de liens. Bref, ça va faire du bruit quand ça arrivera (d’ici trois mois) et nous vous en reparlerons ! Plus d’infos dans l’interview de Matt Cutts paru sur Searn Engine Land.

David Degrelle évoque ensuite un sondage SEOMoz sur les éléments d’optimisation à privilégier, et conseille de ne pas suroptimiser, surtout de façon uniforme, H1, title, alias d’url et attribut Alt pour éviter le syndrome de la « triplette du bourrin » décrite par le sympathique Laurent Bourelly. Un conseil d’autant plus important pour les sites récents.

Comme toujours, c’est évidemment affaire de « position du curseur ». Hors du SEO, les mots-clés dans l’url rassurent l’internaute et aident à bien identifier la page. Avoir une logique intelligente entre ces différents champs ou balises donne de très bons résultats selon moi. Il faut juste éviter l’excès.

La présentation rappelle ensuite l’intérêt d’avoir des liens en nofollow, ou des liens externes intéressants dans ses pages. Une évidence sur laquelle, effectivement, il reste pas mal de pédagogie à faire.

Tout aussi intéressant mais encore moins intuitif car il faudra savoir où l’appliquer, le conseil de ‘désoptimiser’ certains liens externes en adoptant des ancres naturelles comme ‘cliquez ici’, ‘en savoir plus’ pour diversifier son linking interne ou externe.

Bien sûr, on gardera ça sur des pages d’intérêt secondaire. On continue d’utiliser de « belles » ancres sur son mot-clé pour les gros partenariats ou les liens depuis les pages à haut PR les plus légitimes.

David Degrelle aborde rapidement d’autres points à connaître, en pratique comme pour sa culture seo : Rich snippets, Knowledge Graph, etc.

Quelqu’un dans la salle demande quelle stratégie préférer pour un site multilingue. La meilleure piste : privilégier des domaines différents (.fr, .co.uk, .be) hébergés dans chaque pays en exploitant la localisation hreflang au niveau du code source. C’est plus long, plus compliqué, mais ça donne souvent de meilleurs résultats pour le public (qui identifie un site fait pour lui, dans sa langue) comme pour l’éditeur du site (qui peut différencier certains contenus et mieux se positionner en seo avec un adresse ip locale,…).

 

Le Search social en 2012

Facebook et Twitter épatent par leur montée en puissance au niveau mondial… sans pour autant devenir les machines à cash que certains espéraient pour l’e-commerce.

Le F-commerce ne donne pas de résultat tel qu’il est pratiqué aujourd’hui. François Sutter de Modedemploi, nous donne toutefois sa vision très enthousiaste des outils sociaux, avec ses bons tuyaux sur la façon de les utiliser.

Par exemple, créer une page du type social.monsite.com pour lister toutes ses interactions sur les réseaux sociaux et faciliter le crawl de Google vers ces univers externes. Et bien sûr, mesurer son trafic « social » avec les dernières fonctions disponibles dans Google Analytics.

Parmi diverses astuces seo évoquées, on retiendra l’intérêt de mettre des variables de date dans les url ou, pourquoi pas, du trackpad de tweet sur des fiches produit (mmmh… à voir) pour rendre le contenu plus frais. Gardez avant tout en tête l’intérêt pour les utilisateurs.

Je reste quand même circonspect sur la mise en lumière de certains chiffres par François Sutter : 405 minutes d’utilisation par mois pour Pinterest contre 3 minutes par mois pour Google. Ah bon ? Attention à ne pas surinterpréter certaines datas du marché américain.

Quoi qu’il en soit, l’intervention est pêchue et j’apprécie le ton enjoué autour du succès du surf mobile et du social.

Au secours, mon trafic s’est effondré : les pénalités de Google, comment s’en sortir ?

En discutant avec pas mal de personnes à la fin du SMX, il ressort que l’intervention de Sébastien autour des pénalités aura été l’une des plus appréciées. Tant mieux. En tant qu’ex-Googler, Sébastien a expliqué comment bien faire les choses, et met en perspective l’évolution de Google dont le comportement peut sembler parfois irrationnel.

Bref, si le moteur tape sur les doigts de certains webmestres, c’est qu’il y a une logique de qualité et un fonctionnement particulier derrière. Rien de personnel 😉

Sébastien a donc commenté les principes des pénalités Googlen, manuelles ou par algorithme, et les éléments à surveiller en 2012. Vous pouvez retrouver sa présentation :

Pénalités Google : Google Penguin, Google Panda : quelle stratégie de Google? [slideshare id=13253192&doc=smx2012-prsentationpnalitsgoogle-final-120608152918-phpapp02]

View more PowerPoint from Woptimo

 

Deuxième journée : salon SMX du 8 juin 2012

Open Graph et plugin sociaux

J’ai particulièrement apprécié cette intervention de Thomas Jestin, cofondateur de KRDS.

D’emblée, on part sur les chapeaux de roue avec des chiffres qui donnent le vertige.

Question : si Facebook a mis trois ans et demi pour atteindre 50 millions d’utilisateurs, savez-vous combien de temps il a fallu au jeu CityVille pour le même résultat ?

Réponse : 20 jours.

Hallucinant, non ? Tout peut aller très vite avec l’effet viral.

La présentation évoque l’implémentation des plug-ins sociaux, l’acquisition de trafic pour DailyMotion qui fait 8 millions de visites par jour depuis Facebook depuis qu’un plugin social rend visible quelle vidéo le membre est en train de lire. A juste titre, Thomas précise qu’une lassitude peut s’installer.

Personnellement, j’ai déjà été « déçu » en constatant qu’un ami regardait telle vidéo pas franchement morale ou censée appâter les gogos. A la longue, on finit par relativiser ce bruit ou ce genre d‘effet collatéral négatif dans une liste d’amis. Mais entre la pollution du mur / timeline et l’aspect e-réputation ou « fuite » d’information personnelle, l’adhésion du public à un plugin social peut être de courte durée.

Thomas met en perspective l’arrivée de nouveaux modes de communication ou de marketing, le jeu et le ludique étant le canal idéal. Le mobile se développe en force grâce au social : au Royaume-Uni, la moitié du trafic mobile se ferait… sur Facebook.

Parmi les conseils donnés : faire simple avec Facebook. Si on organise un concours, demander aux gens un effort minimal. Ou en relation avec le gain. Inutile de demander de publier des photos pour gagner un lot à deux sous. Après, pour vendre de la pelleteuse en B2B, garder en tête que Facebook n’est pas forcément le plus approprié.

SEO, développement et admin système

Une conférence riche, énergique et dense où Virginie Clève (Le Figaro) et Charles-Christian Croix (Mimesis-Republic) abordent les optimisations et système de caching qui boostent un serveur.

Comme la rapidité de chargement des pages est un véritable enjeu (on peut multiplier un trafic par deux, dommage que je n’aie pas retenu les chiffres pour Allociné), certainement en SEO mais surtout pour booster le trafic et la conversion, Woptimo reviendra en détail sur le sujet du cache et de la rapidité d’accès dans les prochaines semaines.

On pu entendre de nombreux conseils ou suggestions qui vont au-delà de l’organisation de son équipe technique :

  • aller voir l’outil Google Page Speed, les différents sites d’évaluation de temps de chargement
  • installer un cache opcode type APC pour php,
  • installer un module de cache, type mod_deflate pour Apache, etc.
  • évaluer l’intérêt des technologies pour serveur TempFS, SSD (disque dur sans pièce mobile, comparable à une clé USB et aux temps d’accès très rapides)
  • si on est compétent, écrire un script serveur pour supprimer régulièrement les meta-données inutiles (ex : pour les photos Jpeg, supprimer les données EXIF qui indiquent la marque de l’appareil, la date et d’autres choses permettrait de gagner 20% en poids sur certains fichiers)
  • ne pas avoir peur de plonger dans ses logs (Charles-Christian mentionne récupérer 80 Go de logs Apache par jour sur de gros sites !)

Le cache se complique dès qu’on doit s’adapter à l’internaute, son parcours ou son historique. Comme on est dans le domaine des sites médias, le sujet me rappelle les discussions autour de Drupal, dont le système de cache est efficace en trafic anonyme mais plus compliqué en loggé ou avec certaines parties sur lesquelles il faut ruser (cache de blocs liés à un panier e-commerce, une remontée d’infos sur ses amis, du script ajaxifié, etc.).

Les intervenants rappellent tout l’intérêt de favoriser le dialogue entre les équipes techniques, marketing ou autre, car il peut y avoir un monde entre réclamer telle fonctionnalité qu’on décrit sur le papier et l’installer dans les délais voulus. Un timing d’un mois peut être très court pour le calendrier d’un développeur.

Dommage que le temps ait manqué pour dire un mot sur SPDY, le nouveau protocole expérimental de Google pour accélérer le web en réduisant le nombre de requêtes http.

Et les autres conférences…

Lors de la conférence sur l’affiliation, François Planque (qui gère à titre personnel environ 150 sites) donnait de nombreux conseils aux éditeurs. A commencer par, si possible, mettre en place son propre outil de gestion et tracking d’affiliation si on a l’expertise technique, a minima avec un logiciel clé en main comme Post Affiliate Pro.

Laurent Bourelly a abordé la vidéo en encourageant chacun à s’y mettre.

Corine Leleu d’Orange, accompagnée de Hervé Zobenbiehler, ont expliqué comment l’opérateur télécom récupère grâce au SEO des dizaines de milliers de visites rien qu’en agrégeant le contenu fourni par ses partenaires sur la météo ou avec de photos de lieux.

Après deux jours de discussions et de rencontres, le bilan du SMX 2012 est positif. Rendez-vous est donné pour le SMX 2013 !