Pingouin 2.0 : chronique d’une mise à jour Low Cost

Google pingouin
Google Pingouin v2 la mise à jour low cost de Google

Plutôt que de me concentrer sur les ravages de la dernière mise à jour de Google que vous connaissez tous, je préfère aborder cette mise à jour sous un angle différent.

Nous rappelons tous que la dépendance à une source de trafic est dangereuse pour la pérennité d’un business.

Cela revient pour un business traditionnel à vivre essentiellement du produit des ventes généré à partir d’un seul et unique client.

Je ne vais faire aucune morale là-dessus, d’autant qu’il est très clairement difficile de s’affranchir d’un mec qui représenterait + de 90% de votre marché.

Excluons donc d’un revers de la main les idées et gourous de la diversification à outrance, oui à la complémentarité des sources d’acquisition de trafic, non à l’évangélisme des réseaux sociaux et autres stratégies marketing. (Il y a toujours des contres exemples hein …)

Google c’est là où il faut être, et encore plus si tu n’as pas la chance d’être reconnu dans ton secteur d’activité. Point barre.

Pingouin 2.0 : la chasse est ouverte

Encore une fois, la firme de Moutain View semble décidée à faire la chasse aux référenceurs et agences spécialisées dans l’acquisition de trafic naturel.

Pour ça aucun problème, nous commençons à être habitués. (je n’ai pas dit que nous savons nous en défaire hein)

Chaque lien est potentiellement toxique

C’est là le postulat de base avec lequel nous sommes contraints de travailler. Du moins c’est l’axe de guerre psychologique menée par Google, et les interventions de Matt Cutts, son community manager de luxe et pantin 2.0 contribuent à semer ce vent de panique.

Bref, la prostitution 2.0 d’un homme sur les réseaux sociaux, à vrai dire, je m’en moque un peu.

Ce qui est intéressant de constater c’est une nouvelle fois l’angle d’attaque décidé par Google : le backlink. Ce pauvre lien hypertexte qu’il est si facile de manipuler, dupliquer et faire voyager dans le monde entier en quelques clics.

Nous sommes en 2013, et le prétendant au Web ne trouve rien de mieux malgré ces 50 milliards de CA que  de s’acharner sur le critère fondamental du PageRank :

Belle preuve de progrès, énorme prouesse technique pour une entreprise qui dispose de près de 3% des serveurs présents dans le monde et consomme entre 1.1 et 1.5% de la consommation électrique mondiale.

Personnellement, et même si je comprends la situation de détresse de certains e-commerçants –  éditeurs de sites – WH – Pink Hat ou ce que l’on veut, avouons qu’ils n’ont aucune volonté de faire évoluer leur moteur de manière significative.

Vouloir anéantir les tentatives de manipulations de son algo en appliquant un filtre sur un critère quantitatif qui était devenu au fils des années pour beaucoup le principal levier, parfois même le seul.

Mouai, ça reste une mise à jour Low Cost pour une entreprise qui dans le fond s’en fout royalement que l’on manipule ou pas les SERP’s.

T’as pas été touché par Pingouin 2 ? Mais disavow quoi !

Joke sur le #seocbeach (je vous invite à lire le compte rendu de XavFun) lorsqu’il a été demandé qui avait été victime de cette mise  jour.

Bien sûr que j’ai été touché, comme à peu près tous les amateurs de linking, même les plus pieux ceux qui vouaient une profonde admiration pour la Nabila de Google.

Linkweel fiscale, optimisation des revenus, recherche constante de nouvelles sources de revenus, économies d’énergies, maîtrise des coûts, intelligence économique et deals avec les organisations de flicage.

Voici quelques-unes des préoccupations de celui qui pousse nos sites dans les abymes serpales. Il reste malheureusement plus facile d’étouffer la concurrence que de progresser.

Et ça Google l’a bien compris, comment lui en vouloir ?

Le renforcement de la dépendance aux professionnels de l’acquisition de trafic

Personnellement d’un côté prestataire, je vais continuer à faire mon travail. En revanche, je reste un peu plus inquiet pour les webmasters – entrepreneurs qui n’ont pas les moyens de s’offrir les conseils de professionnels et experts SEO (kiss).

Souhaitant renforcer ses revenus, Google tente le pari risqué de renforcer la dépendance des webmasters vis-à-vis des jardiniers du trafic.

Alors oui, à moyen terme et dans une logique de sauvegarde économique, il va probablement récolter le fruit de sa mise à jour au travers de l’acquisition payante.

Mais dans le fond, les investissements sur le trafic naturel restent bien trop juteux pour vouloir s’en priver.

Quand vais-je commencer à m’inquiéter ?

Le jour ou un business model sur le web se devra de reposer sur l’acquisition payante et le référencement naturel sera considéré comme un bonus.

Ceux qui doivent s’inquiéter ?

Disons que j’espère pour certains que les SEO’s fatigués de se battre ne transférerons pas trop vite leurs connaissances sur l’acquisition payante…

Vous avez aimé cet article ? Alors partagez-le avec vos amis en cliquant sur les boutons ci-dessous :

Partager l'article sur Twitter Partager l'article sur Facebook S'envoyer l'article par email

25 réponses à “Pingouin 2.0 : chronique d’une mise à jour Low Cost”

  1. le pagerank n’est certainement pas le critère que prend en compte GG mais bon, le lien oui.

    c’est sûr qu’il y a toujours des places « naturelles » à prendre dans la première page de Google alors pourquoi s’en priver. Par contre je ne suis pas totalement d’accord avec toi au niveau du petit entrepreneur/webmaster. Je pense qu’au contraire s’il s’applique sur son site web, il a moyen de mieux ressortir dans les SERP qu’avant où il fallait du lien. En somme, à chaque maj GoogleZoo, il devrait gagner des places car les sites linkés dégringoleront.

    • Pas tout à fait d’accord, je monte des sites plus vites qu’ils ne tombent, cette mise à jour n’impacte pas le webspam, juste le SEO.

      • D’accord avec @Loic, Google essaye de mettre des bâtons dans les roues de tous ceux qui peuvent influencer les SERPS. On le voit avec la dernière annonce de GG qui va désactiver 2 tools d’adwords pour ceux qui ne ‘consomment’ pas de campagne

  2. C’est d’une certaine manière Google avec ses mise à jour est en train de faire « la fortune » des consultants SEO bons ou mauvais, je vois cela tous les jours…. GG voulait faire la chasse aux sorcières et bien finalement il est en train de les rendre encore plus « riche »… c’est ce que l’on appelle un coup d’épée dans l’eau.

    • Google veut une seule chose : tuer les business qui ne seraient pas rentables avec Adwords. Ils ne servent à rien et n’achèteront jamais un visiteur ! En gros, mort aux pauvres ^^

  3. Arrêter de faire des liens ? Mais il est fou Google ? Les gens s’aiment, c’est pour cela qu’ils font des liens entre leurs sites : par amour.
    Pour Google veut arrêter les gens de s’aimer ?

    … bon fallait bien rigoler, car ce dernier Penguin nous a bien fat rire aussi 😉

    • En fait c’est plutôt fun qu’il touche aux liens, car ça veut dire qu’il est pas prêt d’en réduire l’importance ^^

  4. Si tu regardes le côté positif, le netlinking était devenu du grand n’importe quoi. Combien de sites possèdent 0 lien au mérite ?
    Finalement, ce n’est pas plus mal qu’il faille se sortir le doigt du fion pour tenter de mériter ces fameux liens.
    Après, oui c’est dur, oui ce n’est pas pour tout le monde, etc.
    Tu connais ma méthodo et rien n’a changé depuis l’arrivée du Google Zoo. Seulement, je mets un peu plus l’accent sur certains facteurs comme une répartition plus importante des liens diluants.
    Sinon, j’ai toujours parlé de visibilité au lieu de référencement et préféré la notion d’écosystème au lieu de profil de liens.

    • Tout à fait d’accord avec toi, pas besoin d’une armée d’ingénieurs pour voir si le linking est manipulé. Pour tout dire, je trouve même Google très gentil, si on regarde bien il s’ent souvent contenté de déclasser alors qu’il y a triche et qu’il peut très bien s’accorder le droit de dire « dehors ».
      Pour ces liens au mérite, et/ou liens protecteurs pour reprendre ton approche, oui c’est difficile, mais n’est ce pas aussi notre rôle et métier que d’orienter le client vers la solution la plus pérenne ?
      Je ne voulais pas rentrer dans les détails techniques sur ce billet, car on tombe vite dans la morale et dans le « moi je fais comme ça », mais il y a effectivement tout un écosystème de popularité à revoir sur la majorité des sites.

  5. Bel article résumant une partie de la vision de GG, mais est-ce que la vente forcée ne va pas tuer une partie des webmasters « non pro » qui aime à partager et font la diversité du WEB à l’heure actuelle.

    Personnellement, je milite pour un web hétérogène et libre (dans une certaine limite). Que cherche GG avec ces coups de matraque dans le dos ?

    Malgré beaucoup d’énergie, seuls les « gros » sites ayant des revenus à investir lourdement sortent du lot.
    Même les niches spécialisées sont pillées par des gros volumes en exploitant les bonnes idées…. La prime fraicheur n’est plus réellement exploitée dans les SERPS.

    Dommage ! Croisons les doigts (sortis du fion 😉 ) afin que le web reste divers et agréable, pas simplement une grosse machine à fric pour les crawlers.

    • Oui la vente forcée tuera les webmasters, mais attention aussi à une chose : le netlinking n’est qu’un des leviers du seo ! Attention aux raccourcis pris depuis des années pour citer Laurent Bourrelly !

  6. Hello amis SEO,

    Pour le vivre depuis des mois, ce qui me dégoûte le plus dans cette stratégie anti-spam, c’est les mauvais réglages… Les faux positifs qui se prennent une grosse baffe alors qu’ils ont rien fait de mal. Google avait annoncé intégrer Panda à l’algo principal… mon c.. oui, j’ai des sites qui se sont fait piquer leur contenu par des portails sans aucune espèce de vergogne et qui n’arrivent plus à remonter même après avoir mis tout le contenu à jour, voir même après une refonte.
    Les anti-spams mail ont au moins ça pour eux, on peut sortir le mail de la boîte spam lorsque ce dernier est un faux positif, alors que là Google n’a même pas mis de corbeille en place, c’est chiao bye bye et pi c’est tout !!! Il n’y a qu’une chose sur laquelle ils ont fait jouer le crowdsourcing et c’est juste fait pour la délation, juste un outil pour dire attention ce site est spammy et sort toujours… Bien-sûr certains me diront qu’il y a la demande de reconsidération et je leur répondrai oui mais… Oui mais lorsque la pénalité est algorithmique c’est mort, ils répondent que tout va bien parce qu’ils n’ont même pas accès à la donnée. Quand on connait quelques techniques dites avancées, on peut tenter une 301 diront certains (histoire de pas perdre tout le jus) et dans ce cas cela semble fonctionner quelques temps jusqu’à ce que la stratégie passe dans une des multiples moulinettes de cette foutue usine à gaz que devient Big G et c’est repartit.

    Bref une seule solution : repartir à 0 ! Allez expliquer ça à un client !
    SEO : Bonjour monsieur on est obligé de repartir de rien, de changer votre nom de domaine et de mettre une redirection javascript cloackée sur votre ancien domaine, et biensûr investir dans un nouveau site Internet.
    Client : Une quoi ? Et mon ancien nom de domaine est sur toute ma communication depuis des années, … Et ce que vous me conseillez, ça va prendre combien de temps ?
    SEO : Hmmm hmmm (raclement de gorge) … il faut bien compter quelque chose comme 6 mois…
    Client : Comment !? J’ai bien entendu !!! 6 mois !!! Mais vous vous foutez de ma gueule, ça fait déjà plus de 3 mois que vous me bernez avec vos histoires de pénalités et que je ne fais plus de chiffre !!! Dans 6 mois j’aurai déjà mis la clé sous la porte.
    SEO : Alors pour patienter on peut investir dans du PPC…
    Allé bon courage à tous, je suis un peu grognon ce matin et Google m’a encore fait des siennes durant le week-end sur des sites qui ont un linking entièrement naturel…

    • C’est malheureusement la tournure de notre métier : ce qui marche aujourd’hui peut te détruire demain. Et ça nous sommes forcés de l’admettre si on souhaite continuer à exercer cette profession. C’est loin d’être facile à avaler pour le client, mais c’est comme ça et seulement comme ça que Google arrivera, à l’usure, à formater les e-commerçants, qui lassés de prendre des tirs se détourneront des référenceurs.
      Pour ton contenu, totalement d’accord avec toi : Panda c’est de la merde, tu prends n’importe quel contenu et tu le colles sur un site à forte autorité, ben la source elle saute … Nous en revenons au titre de cet article : des mises à jour au rabais, à fort impact et au coûts les moins élevés possibles.

  7. Je pense qu’on est encore loin d’arrêter de faire des liens. Par contre, ça fait déjà pas mal de temps qu’il faut changer ses pratiques, car si ce n’est déjà fait, c’est mal barré …

    Selon moi, le disavow est un grand canular. Chaque site va réagir différemment, il faut savoir ne pas dépasser les limites et prendre des pincettes, notamment avec les money sites des clients.

    Après les sites persos de tests, ils sont là pour ça, non ? 🙂

    • Les sites perso ou sites labos comme j’aime les appeler sont bien entendu faits pour ça. Personnellement, j’ai pris le parti d’héberger 100% des liens réalisés sur mes clients depuis plus d’un an. C’est coûteux, fastidieux mais aujourd’hui ça paye…

  8. Loïc, pouvez vous préciser ce que vous entendez par :
     » Personnellement, j’ai pris le parti d’héberger 100% des liens réalisés sur mes clients depuis plus d’un an.  » ??

      • Loïc tu veux dire que ta linkwheel perso te suffit pour le positionnement de tes sites ?
        Aucune crainte si un de tes sites tombe de faire tomber le reste ?

        • Nous rentrons là dans la stratégie … Ce qui n’est pas forcément l’objet de ce billet 😉 qui ne voulait pas aborder l’aspect technique pour permettre de prendre un peu de hauteur.

  9. Les plus curieux et les plus pugnaces seront les gagnants… mai ça ce n’est pas nouveau 😉 En gros c’est Google qui fait lui-même le tri entre les « bons » SEO et les moins bons 😉

  10. Google a construit son succès sur liens, et puis trop d’abus l’ont incité à faire chemin arrière… pour favoriser AdWords. En fait, j’ai l’impression que Google applique une variable sur le Top 20 avec des écarts impressionnants de positionnement sur une même journée… Ce qui fait qu’il devient de plus en plus difficile d’analyser les SERPs.

  11. Continuons à prendre de la hauteur et regardons cela de haut. A quoi peut ressembler un référencement naturel ?
    Un site sans presque aucun lien ? Bof!!
    Je reviens sur le premier site que j’ai référencé toujours la même ancre: le nom du site. Et comme texte du copier coller, ou des forte similitude de texte (pas de spin tout à la main). Finalement une belle preuve de référencement non optimisé. Je pense qu’il faut à nouveau pratiquer ce genre de stratégie et diluer au maximum les liens optimisés.
    Par contre vraiment bosser le In-Page c’est ENCORE facile et porteur (et pas encore trop pénalisé).

  12. C’est vrai que sur ce genre de MAJ, on peut se demander qu’elle est le véritable apport, si ce n’est faire faire des cheveux blancs à certains webmasters.

    Peu de réelles nouveautés depuis quelques temps maintenant.

  13. @olivier : c’est clair que le In page reste ce qu’il y a de plus safe tant qu’on fait pas de grosse boulette. Surtout bosser sur la vitesse de chargement. C’est apprécié de Google et aussi des internautes au final.

    Après pour les masse copier / coller je suis en hallu de voir sur mon annuaire lancé depuis peu la quantité de soumission crado. J’ai une quantité de site refusé qui monte pas mal.

solimamamaliclairox