Tirendo : un exemple de lutte contre le Negative SEO

   
(English version - machine translation)


 
negative seo

Le Negative SEO ou action de dégrader le référencement naturel d'un site concurrent en le bombardant de liens toxiques, n'est pas toujours qu'un fantasme. Le site Tirendo, spécialisé dans la vente de pneus en ligne, en a fait les frais aux Pays-bas. Il explique dans cet article la procédure qu'il a mis en place pour se tirer de ce mauvais pas...

Début de l'article :

Negative SEO, un buzz, une fiction ou une réalité ? En tant que responsable SEO, vous investissez beaucoup de temps et d'efforts dans votre site. Vous créez du contenu de qualité, concevez une navigation claire et vous essayez de générer un maximum de liens de qualité. Et soudainement : le positionnement se dégrade et vous ne trouvez pas d'explication directe ! Puis vous vous rendez compte, que d'un jour à l'autre, un grand nombre de liens de mauvaise qualité pointent vers votre site. Explication : vous venez peut-être d'être victime d'une attaque de negative SEO (nSEO) !

Que faire en cas d'attaque de negative SEO ?

Tirendo, notre site spécialisé dans la vente de pneus, a connu une expérience similaire récemment. Dans cet article, nous allons résumer les différentes mesures à mettre en place et vous expliquer comment nous avons précisément réagi face à cette situation critique.

Qu'est-ce que le negative SEO ? Des liens toxiques !

Quoi qu'en disent certains experts, le critère le plus important dans le SEO reste les backlinks ! Si quelqu'un veut donc nuire au référencement de votre site, le placement de liens toxiques est une pratique relativement courante. Dans la plupart des cas, un inconnu fait pointer des liens d'une qualité inférieure vers votre site. Il s'agit alors de commentaires sur des sites peu fréquentés ou pire, sur des sites de la catégorie porno et/ou casino. Cette personne a un but précis : détruire le positionnement de votre site.

Soyons honnête, le negative SEO n'est pas très répandu. Si vous possédez un petit site personnel, il est peu probable que quelqu'un envisage de vous nuire. Si par contre, vous êtes actif dans un secteur très concurrentiel, le risque d'être attaqué par le biais du negative SEO augmente de façon importante.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 5 pages (format A4 Word)
Auteur : Laurens Mauquoi, Team Lead SEO Offpage chez Tirendo (http://www.tirendo.fr/). A côté de son travail dans le marketing, il est actif en tant que blogueur de vin et de voyage.

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

L'incroyable décision de la Commission européenne de blanchir Google pour abus de position dominante

   
(English version - machine translation)


 
commission europeenne

A quelques jours des élections européennes, la Commission de Bruxelles a clôturé son enquête sur Google mais s'est bien abstenue d'en relater les principes directeurs auprès de la presse ou même de publier la décision (pratique pourtant systématique). Que cache cet invraisemblable comportement ? Pourquoi cette enquête pour abus de position dominante dénoncé par de nombreux acteurs, tant mise en exergue par la Commission elle-même et de nombreux professionnels ravis de voir qu'une certaine police pourrait exister sur Internet, se termine-t-elle ainsi ? Eclaircissements…

Début de l'article :

Rappel des faits

Tout a commencé au mois de février 2010. Plusieurs acteurs ont déposé plainte contre Google auprès de la Commission européenne pour abus de position dominante. Selon leurs dires, Google manipulerait les résultats naturels obtenus par un utilisateur en réponse à sa requête. L'objectif de cette opération serait de favoriser les sites liés à Google et les sites effectuant des dépenses publicitaires pour les outils développés par Google, essentiellement AdWords et AdSense.
v Comme à son habitude, la Commission a commencé par entendre Google et lui a soumis un questionnaire puis a officiellement ouvert une enquête afin de démontrer (ou non) que :

- Google défavoriserait les moteurs de recherche dits verticaux, dans ses résultats naturels. Il s'agit des moteurs de recherche spécialisés dans un domaine particulier. A l'inverse des moteurs de recherche généralistes tels que Google ou Yahoo, les moteurs verticaux (par exemple, les comparateurs de prix) n'ont vocation à renseigner les utilisateurs que pour un type de recherche ;

- Google favoriserait de façon artificielle ses propres outils de recherche verticaux par rapport aux concurrents dans ses résultats naturels ;

- Google dégraderait le Quality Score des moteurs de recherche verticaux concurrents dans les résultats de requêtes sponsorisés. Lorsqu'un site référencé détient un faible Quality Score, il lui est nécessaire de payer un montant plus élevé afin de voir son lien sponsorisé affiché. La dégradation du Quality Score obligerait donc les concurrents à faire un plus grand sacrifice financier pour que leurs liens sponsorisés apparaissent en bonne position ;

- Google infligerait à ses partenaires commerciaux (AdSense) des clauses d'exclusivité afin qu'ils n'aient recours à des concurrents dans le cadre de leurs campagnes publicitaires que de façon très marginale ;

- Google limiterait de façon volontaire la portabilité des campagnes publicitaires qui lui sont confiées vers des plateformes concurrentes.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 3 pages (format A4 Word)
Auteur : Alexandre Diehl, Avocat à la Cour, cabinet Lawint (http://www.lawint.com/).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Vitesse de chargement d'un site web et SEO (1ère partie)

   
(English version - machine translation)


 
vitesse seo

Tout internaute sait qu'un site web qui s'affiche lentement est désagrable à consulter et apporte une mauvaise expérience utilisateur. Mais Google indique également depuis plusieurs années que ce critère est important pour lui. Il semblait donc capital de bien comprendre en quoi la rapidité d'affichage d'un site est un point à prendre en compte, quels sont les critères pris en considération par Google pour le mesurer et, bien sûr, les différentes options disponibles pour y remédier. Cet article en deux parties a pour vocation de répondre à toutes ces questions. Etes-vous prêt à appuyer sur l'accélérateur ?...

Début de l'article :

Nous sommes en 2014. Vous avez donc certainement déjà entendu parler de l'importance de l'amélioration la vitesse de chargement de vos pages web. Certains webmasters ont déjà agi à ce niveau, tandis que pour d'autres, les bonnes pratiques sont plus difficiles à être appliquées, avec souvent comme justification une mise en place réputée complexe.

Pourtant, il n'en est rien, ou plus exactement, on peut se concentrer sur une sous-partie des bonnes pratiques uniquement, celles qui sont à la fois faciles à appliquer et qui amènent des résultats visibles. Une fois que l'on aura gouté à la vitesse et vu les résultats arriver, on voudra aller plus loin, et déployer les choses les moins évidentes.

Mais, avant tout, pour se motiver à sauter le pas, il faut bien comprendre pourquoi améliorer la vitesse de chargement de nos pages web est primordiale. C'est à la fois une nécessité face au temps qui passe et un besoin pour accompagner son business vers le succès. Et l'on parle ici aussi bien de référencement que d'expérience utilisateur.

Un constat amer

Avant même de se lancer dans l'optimisation de son site pour la vitesse, arrêtons-nous sur un fait très évocateur. Depuis 1995, les pages sont devenues plus lourdes à charger. C'est logique, au fur et à mesure que la vitesse de connexion à Internet s'est améliorée, que les résolutions d'écran ont doublées, triplées, quadruplées, les webmasters ont proposés des contenus plus enrichis : images en haute résolution, vidéos full HD, polices de caractères personnalisées… ainsi, les temps de chargement des sites ont augmenté mécaniquement.

Au départ, ce n'était pas très grave, puisqu'en passant d'un modem téléphonique à l'ADSL, l'apport en bande passante était tel que les sites étaient tout de même perçus comme s'affichant plus rapidement. Mais maintenant que l'ADSL est presque partout depuis des années et que la fibre est encore loin d'être omniprésente, on continue la course à l'augmentation des résolutions, avec des chargement de scripts de plus en plus lourds pour ajouter de nouvelles fonctionnalités « indispensables », si bien que le poids des pages augmente toujours alors que la bande passante n'évolue plus en conséquence.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Sylvain Peyronnet, Professeur des Universités à l'Université de Caen Basse-Normandie (http://sylvain.berbiqui.org/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Les crawlers, des outils indispensables pour le SEO (2ème partie)

   
(English version - machine translation)


 
Crawlers

On connait tous les robots Googlebot et Bingbot, utilisés par leur moteur de recherche respectif pour explorer des milliards de sites web chaque jour. Mais il existe également des outils qui simulent ces robots et vous donnent de nombreuses indications sur l'indexabilité de votre site web. Des systèmes qui sont devenus indispensables au fil du temps dans le cadre d'un audit SEO. Après la découverte des différents outils disponibles ainsi que leur utilisation "classique" le mois dernier, nous nous attaquons à des usages plus avancés dans cette seconde partie...

Début de l'article :

Le mois dernier, nous avons passé en revue les utilisations « classiques » des crawlers. Mais ces outils peuvent être utilisés pour des analyses plus avancées, qui s'avèrent particulièrement utiles pour le SEO.

L'analyse des problèmes de performance

La fréquence et l'intensité des crawls de Google peuvent être fortement influencées par les performances de votre site web. Nous ne parlons pas ici du « temps de rendition », celui qui est expérimenté par l'utilisateur dans son navigateur, qui dépend de multiples facteurs, mais uniquement du délai nécessaire entre une requête "http://" et la réception de l'intégralité du code d'une page ou fichier.

On observe couramment qu'au-delà d'une seconde de temps de téléchargement, les bots de Google commence à ignorer les pages d'un site, et a minima, les crawlent moins souvent.

Un exemple typique des phénomènes constatés : ici le temps de téléchargement moyen indiqué dans les Webmaster Tools explose d'un seul coup, pour atteindre les 4 sec. Immédiatement, le nombre de pages crawlées tombe de 51000 pages par jour à 350.

Dans la pratique, trouver les causes de ces mauvaises performances se révèle souvent problématique. En effet, les outils de mesure de performance peuvent ne pas détecter ces anomalies, car ils se basent souvent sur des scénarios d'utilisation du site qui correspondent à des comportements d'utilisateurs et non de robots d'exploration. Or ces derniers ont une fâcheuse tendance à :
- Appeler des pages qui ne sont pas en cache (tout simplement parce qu'ils sont les premiers à appeler ces pages depuis le moment où la page en cache est devenue obsolète).
- A déclencher massivement des requêtes lourdes à calculer (comme celles correspondant à des pages de pagination).
- A appeler des pages dans un ordre qui n'est pas forcément celui « imaginé » par le développeur.
- Etc.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Associé MySEO, groupe MyMedia. Président de l'association SEO Camp (http://www.seo-camp.org/).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Digimind Social, un outil de social media monitoring qui entre dans la cour des grands

   
(English version - machine translation)


 
Reseaux sociaux

Dans la lignée d'outils comme Visibrain, Talkwalker ou Radarly, la société française Digimind propose une plateforme complète de social media monitoring, baptisée Digimind Social, qui fournit de nombreux outils de veille sur les réseaux sociaux. Un service à tester sans attendre car ses fonctionnalités et son ergonomie bien pensées en font un challenger incontestable des autres solutions du marché...

Début de l'article :

Après avoir évoqué Visibrain et Talkwalker au début de l'année 2013, nous vous présentions en novembre dernier la solution de social media monitoring Radarly, de la société Linkfluence. Au tour aujourd'hui de Digimind Social, solution lancée en octobre 2013 par l'éditeur français qui, depuis 16 ans, se concentrait sur la veille Internet au sens large. Si la plateforme intégrait depuis 2007 des fonctionnalités de surveillance des contenus générés par les médias sociaux, le volume et l'importance prise par ceux-ci, ainsi que la nécessité de les monitorer avec une fréquence bien supérieure aux 30 minutes permises par la solution initiale, amenaient naturellement l'éditeur à proposer une plateforme distincte de Digimind Intelligence. Choix d'autant plus indispensable que ce type de veille est en train de supplanter une veille Internet plus traditionnelle.

L'obligation de surveiller sa e-réputation (ou celle de ses concurrents) a en effet amené beaucoup de managers à découvrir la veille sous cet unique angle et à solliciter des outils « pure players » comme les trois chroniqués précédemment. Si cet état de fait peut être frustrant pour ceux qui pratiquaient la veille internet bien avant l'arrivée des médias sociaux, c'est aussi nous semble t-il une opportunité à saisir pour les professionnels de l'information.

Mise en œuvre de la solution

La version de Digimind Social (http://digimind.com/fr/features-social/) que nous avons testée est une version de démonstration, c'est-à-dire que les thèmes de départ (Topics) et sources utilisés sont déjà configurés. Sans surprises, la documentation fournie pour le test indique qu'un Topic se configure à partir d'une requête utilisant des opérateurs booléens dont le NEAR puis en ajoutant des types de sources à surveiller.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 16 pages (format A4 Word)
Auteur : Christophe Deschamps, Consultant et formateur en gestion de l'information. Responsable du blog Outils Froids (http://www.outilsfroids.net/).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

« Brand content » et SEO

   
(English version - machine translation)


 
Brand Content SEO

De plus en plus de professionnels du webmarketing parlent de la prise en compte du « Brand Content » pour réussir à développer sa société sur Internet, c'est-à-dire le fait de produire du contenu pertinent et unique qui met en avant la marque et le produit. Mais peut-on l'utiliser dans le cadre d'une stratégie de référencement naturel ? Dans cet article, nous allons donc voir en quoi consiste le « Brand Content », et surtout nous allons expliquer les avantages et les inconvénients d'une telle pratique en SEO...

Début de l'article :

Qu'est-ce que le « Brand Content » ?

Le concept du Contenu de Marque

L'expression « Brand Content » est une expression anglaise qui désigne tous les contenus et articles qui sont produits directement par une marque, et qui sont affichés clairement comme tels. On parlera souvent de marketing de contenu, et on parlera aussi dans ce cas-là de « Contenu de Marque », même si le terme anglais est celui le plus utilisé.

A la base, le Brand Content n'est pas spécifique au Web, puisqu'on trouvera ce type de contenus sur des supports papiers, à la radio ou à la télévision. En règle générale, on fait référence aux contenus éditoriaux à forte valeur ajoutée pour le consommateur, comme par exemple des guides, des ebooks, des conseils, des articles ou encore des reportages.

Ce type de publication peut être fait sous plusieurs formes :
• du texte ;
• des images ;
• de la vidéo ;
• de l'audio ;
• ...

Il faut donc retenir qu'il s'agit non seulement d'un contenu de qualité, mais surtout que c'est bel et bien une marque précise qui le produit et qui s'affiche clairement comme « producteur » de ce contenu.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Revue d'outils moteurs et SEO (avril 2014)

   
(English version - machine translation)


 

Cette rubrique signale chaque mois 5 outils (site web, logiciel, plug-ins Firefox...) qui nous ont parus intéressants (ou parfois étonnants...) pour le référencement naturel ou la recherche d'information. Des outils pas obligatoirement très récents, mais parfois méconnus ou qui gagnent à être utilisés selon nous. Chaque outil est décrit en quelques phrases, sous la forme d'une fiche signalétique vous permettant de le tester au plus vite...

Début de l'article :

Nom : Title Tag Preview Tool

URL : http://moz.com/blog/new-title-tag-guidelines-preview-tool

Domaine : SEO

Type : Site web

Descriptif : Un petit outil qui montre où le contenu de votre balise TITLE sera coupé lorsqu'il sera repris dans les SERP de Google, prenant en compte le nouveau look de ces pages de résultats.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 4 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Revue d'URL (avril 2014)

   
(English version - machine translation)


 

Les articles de notre veille sur les moteurs de recherche et le réferencement en français et en anglais, ainsi que le dossier du mois...

Début de l'article :

Revue d'URL en français...

-> Face à Google, l'incroyable faiblesse de la Commission européenne
Au nom d'une Union européenne dont il est censé servir l'intérêt, le commissaire à la concurrence Joaquín Almunia se targue avec ostentation d'avoir trouvé un arrangement avec la société Google pour remédier à certaines pratiques anticoncurrentielles...
http://www.lemonde.fr/idees/article/2014/03/10/face-a-google-l-incroyable-faiblesse-de-la-commission-europeenne_4380194_3232.html

-> Quel est mon plan d'actions dans le cas d'une pénalité de Google ?
Depuis le début de l'année, la sphère du SEO s'agite sur l'affaire Buzzea et les pratiques de l'achat de liens. En effet, à partir de ce tweet du tout-puissant Matt Cutts, la plate-forme Buzzea mettant en relation les blogueurs et les annonceurs (terme plus correct) a fermé ses portes. Nous n'allons pas en revenir à l'affaire, mais de nombreux annonceurs et blogueurs (beaucoup issus de la mode) ont été pénalisés...
http://www.miss-seo-girl.com/quel-est-mon-plan-daction-dans-le-cas-dune-penalite-de-google/

-> 5 moteurs de recherche alternatifs à Google
Plus de 90% voir même 95% de la population en France se rend quotidiennement sur Google. Ce dernier étant en effet le leader incontesté dans le domaine...
http://www.agence404.com/5-moteurs-recherche-alternatifs-google/

-> Corriger l'erreur 404 sur la balise rel=author de Google+
L'ajout de l'URL de profil de l'auteur d'un contenu sous WordPress a pour effet d'indiquer à Google la paternité de vos contenus et d'obtenir ainsi une miniature de profil dans les résultats de recherche...
http://www.seomix.fr/erreur-404-rel-author-google-plus/

-> Google Trends lève le voile sur la puissance de Google Knowledge Graph
Ca fait très longtemps que je dois poster un article sur le blog de Graphemeride (mon dernier remontant à la série "Le Web de demain"). J'ai eu un peu de pression ces temps-ci par Marie George qui est seule à écrire les articles ces temps-ci...
http://www.graphemeride.com/blog/google-trends-leve-voile-sur-puissance-de-google-knowledge-graph

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 10 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 16 avril 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R d'avril 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R d'avril 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Les plugin WordPress autour des rich snippets et de l'authorship

   
(English version - machine translation)


 

L'avènement des rich snippet et de l'authorship dans les résultats des moteurs de recherche a permis de mettre en avant de nouveaux types de contenus, tout en améliorant la visibilité et le positionnement des sites l'utilisant. Nous allons voir ici comment le CMS WordPress et ses plugins permettent d'ajouter un marquage intelligent pour facilement mettre en place l'authorship et les différents types de rich snippet sur votre site Internet...



Cet article fait partie de la Lettre Recherche et Référencement #157 du mois de mars 2014



Début de l'article :

Plugin WordPressL'authorship et les rich snippet, c'est quoi ?

Ces deux appellations indiquent la mise en place de « données structurées » qui aident les moteurs de recherche et les réseaux sociaux à mieux comprendre vos contenus.

Ce qu'il faut savoir, c'est que les sociétés comme Google, Facebook, Yahoo, Bing ou encore Twitter ne comprennent pas correctement les contenus qu'ils indexent. Il leur est difficile de comprendre le type de publication qu'ils analysent (s'il s'agit d'un produit, d'une image, d'une vidéo, d'une recette de cuisine, ...), tout comme ils peuvent avoir du mal à comprendre la paternité d'un contenu ou sa place dans le reste du site Internet (son arborescence).

C'est pour cette raison que depuis plusieurs années, ces différents moteurs cherchent à centraliser la manière de « coder » un contenu. Pour cela, il font appel à des données structurées, c'est-à-dire des informations contenues dans le code source des pages, mais qui ne sont pas visibles par l'internaute.

Les moteurs de recherche et les réseaux sociaux vont ainsi lire ces informations et vont pouvoir ensuite les afficher différemment et/ou leur donner plus ou moins d'importance.

Les différents formats de données structurées

Avant de détailler les plugins de WordPress que nous conseillons d'utiliser, voici la liste des données structurées réellement utilisées soit par les moteurs de recherche, soit par les réseaux sociaux, soit par les deux à la fois, avec à chaque fois des exemples concrets de ce que cela change pour la visibilité et le partage d'un contenu.

...

La suite de cet article est accessible aux abonnés à la lettre "Recherche et Référencement" du site Abondance...

Plus d'infos pour les abonnés :

Taille de l'article : 13 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 17 mars 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de mars 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :


- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de mars 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Les crawlers, des outils indispensables pour le SEO (1ère partie)

   
(English version - machine translation)


 

On connait tous les robots Googlebot et Bingbot, utilisés leur moteur de recherche respectif pour explorer des milliards de sites web chaque jour. Mais il existe également des outils qui simulent ces robots et vous donnent de nombreuses indications sur l'indexabilité de votre site web. Des systèmes qui sont devenus indispensables au fil du temps dans le cadre d'un audit SEO. Cet article en deux parties vous fera découvrir ces différents outils ce mois-ci ainsi que leur utilisation "classique", avant de s'attarder à des usages plus avancés le mois prochain...



Cet article fait partie de la Lettre Recherche et Référencement #157 du mois de mars 2014



Début de l'article :

CrawlersLes crawlers font partie de ces "briques" logicielles indispensables pour créer un moteur de recherche. La raison d'être de ces programmes est de permettre la découverte des pages et des documents publiés sur le web, et de les télécharger à fins d'indexation ou d'analyse. Au fil du temps, on les a affublés d'autres jolis noms anglais tout aussi imagés : harvesters (moissonneuses), spiders (araignées), bots (robots)…

Dans cette série de deux articles, nous allons passer en revue les raisons pour lesquelles les outils de type "crawler" sont indispensables dans la boîte à outils du référenceur. Le premier article sera consacré aux utilisations classiques des outils de crawl, et le second à des utilisations plus avancées…

Les moteurs de recherche explorent le web à l'aide de crawlers

Même si on peut trouver des exemples de moteurs de recherche qui, dans les premiers temps du web, ont référencé ou indexé des pages découvertes par "soumission" des webmasters, la règle pour les moteurs grand public consiste plutôt à utiliser un crawler pour découvrir les pages publiées sur le World Wide Web.

Le principe d'un crawler ou d'un spider qui fonctionne en mode exploration est le suivant :
1. On fournit une première URL au crawler.
2. Le crawler lance une requête http:// et télécharge le contenu de la page.
3. Le crawler analyse le contenu de la page, en extrait les informations utiles, et les stocke dans un entrepôt de données (data repository). Ces données sont ensuite retraitées pour créer le fameux "index" du moteur.
4. Parmi les données trouvées dans la page, figurent la mention d'autres URL dans le code HTML de la page (ou sous forme de liens hypertextes dans des PDF, des .doc Word…).
5. Ces liens sont placés dans une file d'attente.
6. Chaque lien fait à son tour l'objet d'une requête http://, le contenu de la page est téléchargé, analysé, de nouveaux liens sont découverts et ainsi (presque) à l'infini.

...

La suite de cet article est accessible aux abonnés à la lettre "Recherche et Référencement" du site Abondance...

Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Associé MySEO, groupe MyMedia. Président de l'association SEO Camp (http://www.seo-camp.org/).

Formats disponibles : Word, PDF, HTML
Date de parution : 17 mars 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de mars 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :


- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de mars 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois


 
Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings