SEO : les gros sites peuvent ils tout se permettre ?

Pourquoi les pratiques spammantes des gros sites web n’est jamais sanctionné par Google ?

Publié le 28/06/2010 à 16:02 par - Mis à jour le 20/09/2016 à 15:10

 

Les guidelines Google, tout le monde les connaît (en tout cas tous ceux qui s’intéressent de près ou de loin au référencement). Texte caché, obfuscation de liens, achat ou vente de liens, on le sait, c’est mal.
Vous cachez du texte sur votre « petit » site ou blog ? A coup sûr vous n’allez pas tarder à dégager du haut des SERP’s. Mais si vous êtes un gros site connu, en sera t’il de même ? Pas si sûr…

Référencement en supermarché et sur Google : même combat !

J’ai souvent entendu Olivier Andrieu comparer le SEO à la grande distribution : être indexé c’est être présent en rayon, être positionné c’est être à hauteur de yeux dans le rayon, être leader c’est être en tête de gondole.
J’ai bien envie de pousser plus loin cette comparaison en ce qui concerne le degré de spam d’optimisation des sites de grandes marques.

Certains produits sont des incontournables en magasin, sans lesquels les clients ne viendraient plus. On peut citer un célèbre cola ou une pate à tartiner bien connue des écoliers. En référencement, c’est finalement la même chose : comment se passer dans les pages de résultat de grands sites connus et appréciés. Des sites e-commerce comme Amazon ou la FNAC, de grands sites de vidéos en ligne comme Dailymotion, Youtube (et même Deezer), des réseaux sociaux à la mode comme Twitter ou Facebook, de sites de voyage en ligne comme Last Minute, Voyages SNCF ou Opodo.

 

Que se passe t’il quand il y a conflit entre le producteur (le site, la marque) et l’intermédiaire (le moteur de recherche, le supermarché) ?

L’intermédiaire va être conduit a « faire un exemple » pour éviter que l’ensemble des produits « vache à lait » arrête de se conformer au règles qu’il a édictées. C’est ce qu’a fait une grande surface connue pour se réclamer « la moins chère » face à un poids lourd du marché qui a refusé de continuer à payer les marges arrière.

La punition : un déréférencement complet de ses magasins pendant une longue période. L’enseigne y a perdu du CA, mais la marque est rentrée dans le rang et tout le monde a bien compris que ce n’était pas la peine d’y jouer…

C’est exactement ce qui est arrivé à une marque de voitures en 3 lettres il y a quelques années pour cause de pages satellite. Le site a été banni des SERP’s jusqu’à ce qu’il supprime la totalité des pages non conformes. Et là, tout le monde a compris qu’il fallait changer de technique SEO.
Mais le parallèle s’arrête là : car si Google a fait un exemple, c’est surtout aux agences web que le message était adressé. L’agence en question, un « pulseur d’Internet » y a perdu pas mal de plumes en e-reputation et les autres agences pratiquant les mêmes techniques sont rentrées dans le rang assez vite par la suite.

 

Les gros sites souvent impunis

Google s’attaque en réalité très rarement aux très gros sites. Lorsqu’il le fait, il le fait pour valeur d’exemple, mais sans pour autant s’attaquer au porte monnaie des sites en question. On se souvient qu’un célèbre e-commerçant High Tech amateur de pixels avait du jour au lendemain perdu la totalité du PR affiché dans la petite barre verte pour cause d’achat de liens. Cela a généré beaucoup d’encre électronique, mais au final n’a eu a priori aucune incidence sur le trafic et le CA du site en question. La petite barre verte a encore une fois été un outil de communication idéal pour Google. L’avertissement n’est pas resté lettre morte (mais tout le monde a continué à faire la même chose, avec cependant un peu plus de discrétion…).

Au final, on peut se demander ce que risque un très gros site a utiliser des techniques très grises, voire carrément Black. Car on en voit passer tous les jours des choses comme cela, et les sites en question sont toujours là, avec de très bonnes positions.

 

Les gros sites et les techniques spammantes

Voici un florilège de ce que j’ai pu glaner. Pour des raisons évidentes, je ne nommerai pas les sites en question, à chacun de faire preuve de perspicacité pour les reconnaître ou de cliquer sur les liens qui en disent plus… Dans la plupart des exemples ci-dessous, il s’agit de très gros sites média et de marques réputées disposant d’un Trust Rank au plafond (c’est ce que je connais le mieux, évidemment…), plus rarement de sites e-commerce ou petites annonces.

Le texte caché

La balise H1, ça gène pour la créa, et en plus on ne veut pas forcément exposer ses mots clés principaux du premier coup d’œil. Pourquoi pas un peu de display :none ? Ca ne fait de mal à personne…
On voit ça sur la home et les têtes de rubrique d’un fameux site féminin qui n’est pas un Pure Player (la H1 « $marque – Mode femme – Défilés de mode – Beauté – Cuisine – Astrologie – $marque » ne se voit que l’orsqu’on fait un view source ») ou d’un très honorable quotidien national.

L’obfuscation de liens

On veut montrer beaucoup de choses sur un site de news. Et chaque équipe a besoin de mettre ses infos en valeur. Alors souvent, on se retrouve avec 200, 300 liens en home. C’est beaucoup trop… Réduire ce chiffre ? C’est facile : pratiquons donc un peu d’obfuscation de liens en Javascript ! L’url sera incompréhensible pour l’internaute mais on s’en moque, pourvu qu’en SEO ça marche…

Ca fait plus d’un an que le plus gros site people Pure Player français par si pur que ça utilise cette technique pour tous ses blocs de remontée en sidebar sans aucune pénalité.

 

obfuscation liens

 

Les sous domaines spammants

Je fais des petites annonces localisées, j’ai besoin de me référencer sur tous les pays, régions, villes et quartiers. Qu’à cela ne tienne : je vais créer un « site » par pays (logique jusque là) puis un site par région, un par ville et pourquoi pas un par quartier ! Ca va faire combien ? Plusieurs centaines de sous domaines ? Ca va spammer toutes les SERP’s ? Et bien c’est justement ce que je recherche !
Un site très connu de petites annonces européen pratique depuis des années cette technique en toute impunité. A croire que Google ne lit jamais la lettre pro d’Abondance (voir septembre 2007)…

L’achat/ La vente de liens

Le linking, c’est le nerf de la guerre on le sait bien. C’est l’arme favorite des BlackHat et ça marche diablement bien le spamlinking, c’est certain (la preuve par neuf dans les concours de référencement). C’est donc la solution pour mon site e-commerce au contenu de mauvaise qualité (reprise de texte produit du fabricant, de communiqué de presse, mashup de contenu utilisateur, voire content spinning ou vol de contenu) mais pourtant renommé !
Ne pas me faire pincer ? Facile, il suffit de travailler en direct et pas par une régie et de bien varier les anchor text, les emplacements et les rubriques.

Pas la peine de chercher des exemples, il sont légion, tout le monde en a déjà vu (ou suspecté) dans presque tous les gros sites.

Le Netlinking footer qui abuse

Le netlinking footer ça ne marche plus ? Erreur… Sur les sites lancés il y a peu ou sur les sites de taille moyenne peut-être. Mais sur les gros sites, ça marche toujours très très bien, pour preuve les footers monstrueux de plus d’une centaine de liens que l’on rencontre souvent.

La tentation ? Y insérer ni vu ni connu des mots clé porn de fesses, gros pourvoyeurs de trafic (Nielsen entre autres…). Pas vraiment raccord avec l’image de marque ? Boarf, ça m’amène du trafic alors…

Les coupables ? Les plus gros sites féminins presque sans exceptions. Parfois avec très très peu de finesse…

 

footer linking

Voilà du linking footer qu’on ne s’attend aps forcément à trouver sur les sites féminins dits « sérieux »…

 

Le linking interne WTF

Bon, le linking interne, ça aussi c’est important pour mon positionnement. Oui, mais si je mets trop de liens dans mon contenu, pour l’internaute, ça va être très désagréable… La solution ? Et bien des liens invisibles, de couleur noire et sans changement de couleur au onmouseover.

Oui, mais je fais aussi des liens vers d’autres sites car le doit citer mes sources… Qu’à cela ne tienne, le nofollow c’est à ça que ça sert !

Oui mais quand je parle de gens, je suis tenu de linker leur site, ou leur compte Twitter. Et bien qu’à cela ne tienne, il suffit de faire du linker sous forme de tag, vers une page au nom de la marque ou de la personne listant les articles dans lesquels j’en parle… sur mon site.

La encore, on voit ça sur des sites très respectables, dont un site de presse quotidienne très connu.

 

Le spam report, ça ne sert à rien

On voit parfois des sites e-commerce pénalisés, mais pratiquement jamais en totalité. Pour les sites de presse « officiels » c’est à dire les émanations numériques des groupes de presse papier, il ne me semble pas que ce soit déjà arrivé. Certains sites Pure Player ont parfois été dégagés des SERP’s sur quelques expressions concurrentielles, souvent pour cause d’achat de liens pendant une durée de quelques semaines. Mais ils n’ont pas eu besoin pour autant de supprimer la totalité de leurs techniques interdites

On peut donc avoir des doutes sur l’intérêt et l’efficacité du spam report, si ce n’est encore une fois comme outil de communication de la part de Google. Combien faudrait-il de spam report pour qu’un gros site se fasse vraiment taper sur les doigts ? Trop, sûrement, pour que ce soit matériellement réalisable.
Le spam report, comme beaucoup de choses chez Google est géré en automatique. Il est fort probable qu’un humain n’intervienne que lorsque le nombre de spam reports sur un même domaine est devenu monstrueux. Après tout, ils ne sont pas des milliers à la spam team.

Et puis on a aussi l’impression qu’il existe un white listing manuel, que certains sites sont tamponnés « white » une fois pour toutes. Tous ces fameux sites « vache à lait » sans lesquels les pages de résultat risqueraient d’être déceptives pour les internautes (qui pourraient se tourner vers d’autres outils) ne risquent sans doute finalement pas grand-chose.

Alors le référenceur est un spammeur par essence finalement, oui, mais il y a des limites ! Google, si tu m’écoutes, merci d’un peu plus d’équité.

Partager sur les réseaux

 

28 Commentaire (s)

Sylvain (AxeNet)

J’adore ce genre de coup de gueule, et d’autant plus quand cela vient d’une quasi jeune fille, ça change de ceux d’un certain Laurent, qui lui, a de toute façon le physique pour (si si, je l’ai vu en vrai il y a peu, il a le physique, je vous jure 🙂 )

Tout cela pour dire que je suis totalement d’accord, il y a plusieurs poids et mesure. D’ailleurs, la plupart du temps, c’est lorsque l’on est un plus petit et que l’on se prend une grosse claque que l’on écrit ce type d’article. En tous cas, moi, c’est ce qui m’est arrivé quand j’ai écris celui-ci : http://blog.axe-net.fr/google-penalites-manuelles/

Sinon, j’aime assez ton idée du white listing manuel. Nous en avons parlé l’autre jour et je suis d’accord. Certains exemples sont tellement flagrants que je ne vois pas comment ces sites s’en sortent sans avoir une caution divine. Et dans ce contexte, tout le monde sait qui est dieu.

    Virginie Clève

    @Sylvain : merci pour le « quasi jeune fille ». A bientôt 37 ans, j’avoue que ça fait très très très plaisir 🙂

Dan

Effectivement pour un spam report efficace, peut-être alors tenter le spam sur spam report 🙂

Keeg

beau tour d’horizon des techniques de certains gros sites. Ce qu’on peut constater, c’est qu’ils utilisent des techniques très borderline mais sans être complètement de l’autre coté de la ligne rouge. Il y a tellement de gros spams que ça ne m’étonne pas que ces sites là ne soient pas sanctionnés pour ça.

Seoplayer

Tiens c’est marrant qu’Olivier Andrieu compare le SEO à la grande distribution, je faisais pareil avant. C’est surement parce que le fait de placer des références/produits en linéaire c’est ce qu’on appel faire du référencement. Pour reprendre le cas de LeMonde il y a pas mal de lien dissimulé dans les articles… mais bon tant qu’ils claquent suffisamment en adwords ca passe à mon avis 🙂

alexandre de @referencement

Ah ah, eh oui, les sites de bonne « Authority » ont plus de latitudes sur les techniques un peu spammy, est ce anormal?

Je ne sais pas, quand je vois qu’une page de recherche de LeMonde se positionne à l’aide de leurs tags plus ou moins cachés dans les pages, j’hésite http://www.google.fr/search?q=barack+obama

En effet, est-elle pertinente? Que veut quelqu’un tapant Barack Obama? De l’actu? si oui est-ce une page pertinente ?

Par ailleurs, « fellation » est-ce du porn? enfin, je ne vois pas de raison pour laquelle Elle, AuFéminin, Doctissimo n’en profiteraient pas, le sexe étant un thème principal pour eux.

LaurentB

Je ne crois toujours pas à une manipulation manuelle, mais c’est clair que le combat contre le spam est loin d’être gagné par Google.
Malgré le torse bombé de Matt Cutts, on voit bien que les vieilles techniques perdurent. Là où je ne te rejoins pas c’est que la taille importe peu. Que ça soit gros ou petit, il n’y en a pas tant que ça qui dégagent. Par contre, on se retrouve au niveau du spam report puisque c’est beaucoup moins efficace que Google veuille bien le laisser croire. En tout cas, s’ils lisaient vraiment tous les spam reports, je ne vois pas comment certains peuvent toujours être indexés.

Sylvain (AxeNet)

Le compliment est sincère 🙂

Par contre, si tu veux que l’on parle des choses qui fâchent :

– Du nofollow sur un blog SEO, rhôôô

    Virginie Clève

    @Sylvain : je sais, il faut que je m’en occupe, mais j’ai pas le temps. Avant ça j’ai déjà des optis de perf à réaliser alors un plugin de plus…
    A vous de choisir : nouveaux articles ou dofollow…
    🙂

Pierre

Merci pour cet article très intéressant. Si je comprend bien, il ne reste plus qu’à devenir un « très gros ». 😉

Pierre

blackat, le chat noir du référencement

Bonjour.
ouahou !

Que dire ? Je m’incline devant tant de sagesse, de qualité rédactionnelle, et de profondeur du sujet.

Un travail de fond, avec un rappel de tout ce qui c’est passé depuis « quelques temps ».

L’impunité pour les gros sites ?
C’est surement vrai, et je ne pense pas qu’un article changera beaucoup la donne. Par contre, cela entache clairement la E-réputation de certain, espérons que cela les fera réagir (et dans le bon sens) …

Aurélien

Donne moi tes accès ftp, je m’occupe du nofollow gracieusement. 😉
Pour ce qui est de la taille de Laurent, euh, des sites comme le Monde, je pense qu’il y a une tolérance plus importante, plus le site est ancien, important et ayant un certain « rang » pour Google, plus il peut se permettre des choses.
Pour revenir plus concrètement dans ton article, dissimulé un h1, que cela soit derrière une image ou à l’aide du CSS, je ne vois pas vraiment le problème, cela doit venir de mon éducation web, même si ce n’est pas très propre.
Pour les liens cachés, c’est un problème récurent sur les gros sites, une bataille entre seo, marketeux, responsables divers… Le JS est un moindre mal amha, notre but étant de contenter les utilisateurs, les robots et les responsables.
Pour le reste, je suis assez d’accord avec toi, quoi que la vente de liens…

Lagiirafe

Globalement, je suis d’accord avec toi même si tu mets (à mon sens) tous les oeufs dans le même panier dans les pratiques que tu dénonces.

J’ai hésité à reprendre les points un par un et y apporter (ou pas) des nuances. Mais je préfère que cela se fasse de visu, lors d’une prochaine rencontre SEO. Et oui, on s’est loupé mercredi dernier.

Naturellement, je ne reviendrai pas sur le texte caché par exemple, et la surexploitation des sous-domaines (dont une certaine société s’est fait la spécialité, et contre laquelle j’ai du argumenter à plusieurs reprises) dans la mesure où c’est effectivement interdit par les Guideline de Google.

En revanche, il m’arrive d’utilisé les liens cryptés pour diverses raisons : assurer un crawl plus profond d’un site, gérer les profondeurs, ne pas présenter 3 fois un même lien à Google sur une page…

Pourquoi je me permets cela ? Pour au moins deux raisons :

La première :
Tous les sites ne sont pas rankés à 7 ou 8 et n’ont donc pas la popularité qui va avec. Et on sait depuis longtemps que le rank est un facteur essentiel dans la puisance de crawl qui lui est accordé par les crawlers de Google : plus il y a de PR, plus le site est crawlé, plus il envoie de linkijuice et plus les pages de bas niveau (je parle des profondeurs 5 et plus) sont également crawlées. Ce qui oblige à certains calculs quand on atteint des volumes de pages importants.
Pour lever les doutes, la réponse de Matt Cutts à ce sujet :

« There is also not a hard limit on our crawl. The best way to think about it is that the number of pages that we crawl is roughly proportional to your PageRank. So if you have a lot of incoming links on your root page, we’ll definitely crawl that. Then your root page may link to other pages, and those will get PageRank and we’ll crawl those as well. As you get deeper and deeper in your site, however, PageRank tends to decline. »
source : http://www.stonetemple.com/articles/interview-matt-cutts-012510.shtml

Donc effectivement, on peut partir à la chasse aux BL, mais rien n’empêche de sculpter un peu la structure (d’ailleurs, il aurait alors fallu inclure tous les sites qui utilisent, ou plutôt, ont utilisé du nofollow : c’est la même chose, mais ça ne fonctionne plus 🙂 )

La deuxième :
Le cryptage de lien n’est en rien une pratique interdite. Et ce dernier point est important, car comme le souligne @Seoplayer, une partie de ce qui est dénoncé ne correspond pas à des pratiques illégitimes.
Si Matt Cutts pense que l’utilisation des liens cryptés est une « perte de temps » et qu’il vaut mieux essayer d’obtenir des backlinks, il n’affirme à aucun moment que la pratique est répréhensible. Mais effectivement, les choses peuvent évoluer.

Eric Enge: If someone did choose to do that (JavaScript encoded links or use an iFrame), would that be viewed as a spammy activity or just potentially a waste of their time?

Matt Cutts: I am not sure that it would be viewed as a spammy activity, but the original changes to NoFollow to make PageRank Sculpting less effective are at least partly motivated because the search quality people involved wanted to see the same or similar linkage for users as for search engines. In general, I think you want your users to be going where the search engines go, and that you want the search engines to be going where the users go.

Enfin voilà, quelques réactions 🙂

    Virginie Clève

    @Lagiirafe : je prône des pratiques SEO clean et éthiques, ce post en est le reflet. A mon sens les sites médias devraient être exemplaires car ils n’ont pas vraiment de difficulté à ranker. De plus, leur métier c’est le contenu, le problème devrait donc être pris à la source, sans utiliser de rustines. Pour moi, lorsque l’obfuscation de liens devient aussi envahissante que dans l’exemple que j’ai montré, ce n’est pas au bénéfice de l’utilisateur.

    Faire un site média clean et qui ranke, c’est possible ! C’est juste un peu plus de travail (et du travail en profondeur).
    Je ne critique pas le scultpting, mais pour moi c’est bien si c’est de l’architecture de l’information, pas une technique de contournement. Sur un site « produit on n’a souvent pas le choix pour des questions de marketing, soit. Lorsqu’on fait un site de contenu on se doit d’avoir un contenant à la hauteur de son contenu.

sylvain

@ Laurent
Vu la manière dont cela s’est déroulé pour moi, je n’ai pas de doute, c’est une dénonciation.

D’ailleurs, une autre fois, c’est 4 sites d’un coup, pour lesquels j’ai reçu le petit mot d’amour de Google dans WMT.

Un peu idiot, mais surtout pas d’accord du tout, j’ai argumenté sans rien lacher. Je trouvais leurs reproches complêtement à coté de la réalité. Il faut dire qu’ils ne doivent pas avoir beaucoup de cases à cocher. Je n’ai rien touché sur les sites et n’ai jamais eu de pénalité.
Peut-être qu’un supérieur de mon controleur zélé lui a t-il dit qu’il exagérait.

Bref, je crois aux pénalités manuelles après un spam report, mais pas forcément systematiques.

Tu crois que si on se mettait à 50 pour faire un spam report contre le Monde, il se passerait quelque choses ?

@ Virginie
Ok, la qualité de tes articles et tes goûts musicaux te sauvent temporairement. Va pour le nofollow…temporairement.

Jibe (Atelier Informatique)

La vie est trop injuste et pas seulement pas les poussins noires qui portent leur coquille sur la tête !
Il suffit de penser a Liliane B.et cosorts qui nous donnent une grande leçon de gruge fiscale, oules grosses ecuries de F1 rivalisant d’astuces (je n’ai pas ecrit tricherie) Tant que l’equilibre est maintenu a l’echelle des puissants, tout va bien !
Merci en tout cas pour ce panorama des techniques reprehensibles, tout lister en une page ; l’aubaine pour les scripts kiddies du referencement, mais une super ressource pour mes exemples en formation.
En ce qui concerne la voiture allemande je pense que la sanction aurait été différente pour une firme US. C’est facile de tirer sur BP pour le golfe du Mexique, plus dur d’attaquer Exxon pour les degats en Afrique.
Il est sur que l’apport massif de contenu et le SEM jouent en la faveur des gros tricheurs sans vergogne, misant sur la « caution divine » evoquee par Sylvain
Et je ne parle même pas du CA engrangé
Ca me rappelle une anedocte lors d’un stage dans un gros cabinet de comptabilite : le patron petait les plombs parce qu’on lui « cassait les pieds avec des erreurs en dessous d’1 MF » (150 000 euros)
Google est un peu dans la position de ce patron,la communaute SEO s’offusque mais les principaux mis en cause côtoient d’autres sphères.

Morgan

Dofollow évidemment!

Sinon a propos de l’article, je suis moyennement d’accord. Quand je vois que le texte caché fonctionne toujours, même sur des sites de moins de 3 mois… (et pas 3-4 mots, mais 80% de la page = 800 mots! ^^ )

Après, ils abusent c’est certains, nous, tout petit à coté, on ne peut que difficilement rivaliser, et ils nous prennent du traf les vilains, mais en même temps c’est un business.
A la place de google je ferai la même, ces sites investissent un max en adwords en général, qu’ils fassent les cons, ben… osef, leur conneries rapportent de l’argent.

Puis ces règles, c’est le dieu google qui tente de les imposer, doit on pour autant les suivre…

On perd notre temps à checker ce que font les autres de « mal » à mon sens… après si c’est pour s’inspirer… 😀 !

fred

Très bon article. Comme quoi, comme dans la vraie vie, être important apporte quelques privilèges …
je connais aussi un site d’emploi connu qui a des image de 1px sur sa home page qui pointe vers des pages spéciales pour les moteurs de recherche. Cela ne les empêche pas d’être très bien classé.

Philippe M.

Attention, il ne faut pas tomber dans le travers de croire que les gros sites passent au travers.
Par contre, les équipes Google n’attendent pas le délai de 30 jours pour réagir donc on peut effectivement dire qu’il y a traitement de faveur…

Tubbydev

Je pense qu’il faut peut-être (peut-être) prendre le problème par un autre bout. L’objectif, le graal de Google est d’approcher la manière de raisonner d’un esprit humain « sain, honnête, transparent ».
Tant que Google devait appréhender le contenu VIA le contenant, et donc se débattre avec la technique pour en extraire le contenu, la lutte contre les petits procédés et trafics « techniques » avait une vraie importance.
Maintenant que Google arrive à extraite le texte et à appréhender des phrases, des groupes de mots et non plus seulement des mots clés, le « spam » et autre liens à but non purement de « sens » sont/seront traités exactement comme ils le sont dans la vie réelle.
Que font des humains lorsque l’un d’entre eux parle trop, cite trop de choses, est trop blingbling ? Ils l’écoutent moins et tiennent moins compte de ce qu’il dit.
D’autant plus que toutes ces « techniques » seront battues par les tout petits blogs/forums/sites qui dans chacun des domaines occupés par ces pages « spam » prendront leur place. (il semble d’ailleurs que l’audience de wikio and co commence à baisser)

Bref, Google bless you ;-))

(merci pour le lien dans l’article)

Guillaume GIRAUDET

Merci pour cet article bien construit et pour le petit clin d’oeil avec Lemonde. Je vois qu’on taquine pas mal au Figaro :p

    Virginie Clève

    @Guillaume : en l’occurrence, je ne suis pas en charge du SEO au Figaro, donc… Mon objectif n’est pas de taquiner la concurrence plutôt de mettre au jour ce que font les « gros » sites en SEO et qui passe inaperçu car on n’imagine pas vraiment que de tels sites pratiquent ce genre d’optimisations. On a souvent tendance à penser que le spammy est réservé aux petits sites, au porn, poker, viagra et autres. Il n’en est rien.
    En réalité, je ne révèle rien de nouveau dans cet article.

Léo, Propulsr

Y’a aussi le coup de l’agence de réf anglaise (très grosse boite) qui avait un scrolling div de 60px de coté (visible donc) en bas de page bourré de texte et de lien (13000 caractères apparemment) qui s’est fait tapé sur les doigts et délisté pendant … qq jours.

Ils utilisaient aussi la technique décrite pour les liens internes.

Pas bien.

En tout cas cette article était très plaisant à lire et donne envie de partir à la chasse aux « gros sites qui spamment » 🙂

Vince

Google joue sur l’effet « open space », encore appelé effet « Bentham » : vous savez que je vous regarde ou que je suis susceptible de vous voir si vous faites une « bêtise », donc vous n’en faites plus… mais nous ne sommes ni en open space, ni en zon, donc ça ne marche pas complètement… youpi !!

Sebastien @ blog Japon

« Selon que vous soyez puissant ou misérable »…
Je ne vois pas pourquoi ça serait différent sur internet d’ailleurs. C’est malheureux, mais c’est une réalité difficile à dépasser.
J’aime bien le commentaire de Pierre : il ne nous reste plus qu’à devenir « très gros ». ^^

fran6

La morale de l’histoire c’est qu’il ne faut pas suivre l’exemple des sites de référence, y a comme un paradoxe non ? 🙂

truffo

Les textes cachés s’ils sont bien utilisées sont une bonne pratique du Web. Pour preuve, Google les utilisent dans ses pages de résultats.

Google fait peut être du SEO Black-hat ?

Aurélie M.

Je profite d’un retweet de cet article pour laisser un com, 8 mois après la bataille !

Je vois que les sites féminins s’en prennent plein la t… dans cet article mais ouf je ne me sens pas si concernée que ça sur la question du footer.

Pour le white listing manuel : d’après mon expérience, elle existe oui mais « une fois pour toutes » ? Pour l’avoir expérimenté, je confirme que non !