Google Pigeon rebat les cartes dans le référencement local

   
(English version - machine translation)


 
Google Pigeon rebat les cartes dans le référencement local

Google a déployé cet été un nouvel algorithme pour le référencement local de ses résultats (sur des requêtes de type « hôtel Paris » ou « restaurant Marseille », par exemple). Baptisé « Pigeon » par le site SearchEngineLand, il a été déployé le mois dernier dans la plupart des pays anglophones, annonçant un lancement mondial certainement imminent. Que propose ce nouvel algorithme ? Quelles sont ses nouveautés ? Comment s'y préparer ? Voici quelques informations qui vous permettront de gérer au mieux ce nouvel animal googlien...

Début de l'article :

Le 24 juillet 2014, les webmasters américains les plus attentifs ont remarqué des changements importants dans les liens affichés sur Google Maps, les « packs » locaux, et même dans les résultats affichés sur les requêtes locales. Au bout de quelques jours, tous les observateurs furent convaincus que Google venait de déployer une mise à jour majeure de son algorithme de classement, impactant les recherches locales. Cette mise à jour a été baptisée « Pigeon » par les auteurs du site américain Searchengineland.com (http://goo.gl/7EdGQa).

Avec quelques mois de recul, les spécialistes de la recherche locale aux Etats Unis ont pu évaluer l’impact de ce nouvel algorithme. Et cet impact a été réellement majeur dans certains secteurs. Alors qu’il est probable que cet algorithme soit bientôt déployé en Europe dans les semaines qui viennent, c’est sans doute le moment de tirer le maximum d’enseignements des analyses faites par nos confrères américains et de se préparer à la petite révolution qui se prépare dans les résultats locaux.

La non-communication de Google sur Pigeon

Les seules informations officielles sur Pigeon sont quelques rares confirmations adressées à Barry Schwartz et Dany Sullivan de SearchEngineland.com par des officiels de Google. Le moteur de recherche a même indiqué que ses équipes ne commenteraient pas de nouvelles mises à jour de l’algorithme sur le local search.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Général de l'agence Search-Foresight (http://www.search-foresight.com).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

App Indexing (Bing et Google) : comment ça marche ?

   
(English version - machine translation)


 
App Indexing (Bing et Google) : comment ça marche ?

L’indexation d’applications est une démarche récente de la part des moteurs de recherche, qui consiste à afficher, dans les résultats de recherche, des liens pour ouvrir un contenu non plus sur le site web traditionnel, mais dans une application pour Android ou Windows Phone. Dans cet article, nous verrons ainsi comment cela fonctionne sur Google et sur Bing, tout en mettant en avant les gros défauts actuels de cette indexation...

Début de l'article :

Qu’est-ce que l’App Indexing ?

L’indexation d’application, appelée « App Indexing » en anglais, est un concept simple et récent des moteurs de recherche : il s’agit de pouvoir ajouter directement dans les résultats des moteurs de recherche des liens qui vont activer une application Android (pour Google) ou Windows (pour Bing).

L’idée est simple : faciliter la recherche et l’accès à l’information ou à des fonctionnalités spécifiques d’une application. L’internaute peut alors soit cliquer sur le site, ou cliquer sur le lien correspondant à son application.

Vous trouverez d’ailleurs sur cette page de Google une liste d’applications qui utilisent notamment cette fonctionnalité, comme par exemple DailyMotion, AirBnB, Zappos ou encore Shazam : https://developers.google.com/app-indexing/apps?hl=fr
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Comment mesurer la qualité d'un système de classement de résultats ?

   
(English version - machine translation)


 
Comment mesurer la qualité d'un système de classement de résultats ?

Tout moteur de recherche a besoin de classer ses résultats. Cette notion de mesure de la pertinence par rapport à une requête donnée a fait l'objet de nombreux travaux scientifiques depuis des années. Voici quelques pistes suivies par les chercheurs et quelques modèles utilisés, et quels sont les moyens utilisés pour évaluer ces méthodes ayant pour objectif d'atteindre le Graal du search : la meilleure pertinence possible...

Début de l'article :

Pour commencer cet article, nous allons revenir à la base la plus évidente : l’objectif d’un moteur de recherche est de déterminer parmi un très grand ensemble de documents (textuels d’abord, mais aussi plus évolués comme par exemple des images ou des vidéos) ceux qui sont pertinents par rapport à un besoin informationnel. La notion même de besoin informationnel, ainsi que celle de pertinence, sont très difficile à capturer puisqu’elle est dépendante de chaque personne. Par ailleurs, le canal de communication entre le moteur et l’utilisateur est imparfait et parcimonieux (les requêtes sont courtes, et l’utilisateur peut se tromper).

En conséquence, les moteurs doivent « apprendre » ce qui est pertinent et ce qui ne l’est pas. Dans cet article nous ne parlerons pas de comment se fait cet apprentissage, mais de la façon dont le moteur va savoir si il est dans l’erreur ou dans le vrai, c’est-à-dire l’évaluation de la qualité de l’algorithme qui détermine la pertinence. Nous avons déjà évoqué le problème de l’évaluation dans notre article du mois dernier, mais plutôt et principalement sous l’angle de l’approche dynamique : on extrapole la satisfaction des utilisateurs à l’aide d’un monitoring de son comportement. Ici, on verra plutôt quelles sont les mesures chiffrées que l’on peut utiliser pour noter les classements (et implicitement les algorithmes de classement) de manière objective, dans l’idée de nourrir des algorithmes d’apprentissage qui produiront de meilleurs classements.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteurs : Sylvain Peyronnet, co-fondateur et responsable des ix-labs, un laboratoire de recherche privé (http://www.peyronnet.eu/blog/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Les blocages de sites web par les FAI et moteurs de recherche sur décision administrative ou de justice

   
(English version - machine translation)


 
Les blocages de sites web par les FAI et moteurs de recherche sur décision administrative ou de justice

A l’heure des terribles attentats ayant frappé la France, les premières mesures annoncées par le Gouvernement concernent les écoutes téléphoniques et les possibilités de bloquer certains sites sur décision administrative ou judiciaire. Ces mesures, pourtant fortement combattues par la gauche quand elle était dans l’opposition, ont déjà été mises en œuvre par le Gouvernement Valls dans le cadre de la loi « de programmation militaire » du 18 décembre 2013 et seront complétées très probablement dans les semaines qui viennent. Ces possibilités juridiques sont et seront encore plus importantes et comprennent nécessairement les moteurs de recherche....

Début de l'article :

Rappel des principes généraux des libertés publiques françaises

La France a inventé, il y a plus de 200 ans, de nouveaux concepts de libertés dites publiques. En effet, durant des siècles, l’accès à de nouveaux droits étaient uniquement individuels ou communautaires. Mais le concept de « Nation » étant à l’époque inconnu, les droits acquis sur toute la population d’un pays, la Nation, ne pouvaient pas encore exister. Le Siècle des Lumières a conceptualisé la construction de cette Nation et lui a dessiné des droits publics qui sont devenus à compter de la Restauration, des droits basés sur la liberté (notamment d’expression, d’aller et venue et de commerce), d’égalité entre tous les nationaux, de propriété et de sécurité. La déclaration des Droits de l’Homme est le texte symbolique, synthétique et fondateur de ce régime juridique.

Dans les années 1920, le théoricien Kelsen a conceptualisé la pratique française de la hiérarchie des normes. Ainsi, de manière très claire, les différentes normes ont été hiérarchisées entre elles, la norme inférieure devant obligatoirement être conforme et cohérente à la norme supérieure. En l’état et de manière schématique (avec quelques exceptions), la hiérarchie des normes françaises est la suivante
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 5 pages (format A4 Word)
Auteur : Alexandre Diehl, Avocat à la Cour, cabinet Lawint (http://www.lawint.com/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Luc Annovazzi (Yooda) : « Yooda Insight analyse l'environnement SEO d'un site web »

   
(English version - machine translation)


 
luc annovazzi yooda

Luc Annovazzi est le directeur marketing de la société Yooda, bien connue pour (entre autres) son logiciel SeeURank. Il nous parle ici de la sortie, il y a quelques semaines de cela, du logiciel Yooda Insight, suite SEO qui répond à certaines demandes et stratégies très précises de la part des référenceurs et sur laquelle plusieurs éditeurs s'engagent à l'heure actuelle...

Début de l'article :

Luc Annovazzi, merci de bien vouloir répondre à nos questions. Peux-tu te présenter dans un premier temps ?

Passionné par le digital, je compte plus de 18 ans d’expérience dans le web, entreprenariat, e-commerce, innovation et accompagnement stratégique, enseignement. Je suis notamment responsable de la spécialisation Digital Marketing à Montpellier Business School. J’ai rejoint Yooda en avril 2013 en tant que Directeur Marketing pour accompagner le nouveau positionnement de la société vers le SaaS, des offres Big Data et des solutions de digital marketing monitoring.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 3 pages (format A4 Word)
Auteur : Interview réalisée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Revue d'outils moteurs et SEO (janvier 2015)

   
(English version - machine translation)


 

Cette rubrique signale chaque mois 5 outils (site web, logiciel, plug-ins Firefox...) qui nous ont parus intéressants (ou parfois étonnants...) pour le référencement naturel ou la recherche d'information. Des outils pas obligatoirement très récents, mais parfois méconnus ou qui gagnent à être utilisés selon nous. Chaque outil est décrit en quelques phrases, sous la forme d'une fiche signalétique vous permettant de le tester au plus vite...

Début de l'article :

Nom : LinkRisk

URL : http://linkrisk.com/

Domaine : SEO

Type : Site web

Descriptif : Suite proposant de nombreux outils SEO dont l'un d'entre eux permet de détecter des liens toxiques pointant vers votre site web.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 5 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Revue d'URL (janvier 2015)

   
(English version - machine translation)


 

Les articles de notre veille sur les moteurs de recherche et le réferencement en français et en anglais, ainsi que le dossier du mois (lorsque l'actualité fait ressortir un fait marquant). Au programme ce mois-ci : bilans et prédictions 2015...

Début de l'article :

Dossier du mois : Prédictions SEO 2015 (bis)

C'est la fin de l'année et donc l'heure des bilans et des perspectives pour l'année prochaine. Voici la suite (après une première salve le mois derniers) des articles parus sur le Web à ce sujet ces dernières semaines :

• Petit bêtisier d'agence web 2014
Et si on commençait l'année par un peu d'humour ? Bien sûr, on reste sur le sujet de la création de sites web ou du référencement, mais en vous faisant partager quelques demandes qui nous ont fait rire ou sourire durant cette année écoulée...
http://blog.axe-net.fr/betisier-dagence-web-2014/

• 2015 : le SEO n'aura jamais été aussi cher !
Comme tous ceux qui bossent dans le référencement en indépendant ou en agence, un jour ou l’autre vous avez du avoir une demande farfelue. (Je dis une, mais certains chanceux en reçoivent régulièrement)...
http://www.visibilite-referencement.fr/blog/2015-seo-sera-cher

• Humour : le bêtisier 2014 du site WebRankInfo
Comme chaque année désormais, voici le bêtisier WebRankInfo version 2014, issu des mails les plus insolites que j'ai reçus pendant l'année 2014 (via le formulaire de contact du site !)...
http://www.webrankinfo.com/dossiers/webrankinfo/betisier-2014

• 6 tendances d'optimisation pour améliorer votre référencement en 2015
Autant l'année écoulée a été riche en changements dans le domaine du référencement, autant les webmasters devront en tenir compte pour mieux optimiser leurs sites web en 2015...
http://www.arobasenet.com/2014/12/6-tendances-optimisation-ameliorer-referencement-1461.html

• Rétrospective Seo 2014
Rétrospective Seo 2014 au menu pour ces derniers jours de l’année. Destinée à ceux qui étaient un peu loin de l’actualité sur le référencement naturel dans les moteurs de recherche, où bien pour ceux qui souhaitent parcourir à nouveaux ce sujet pendant ces fêtes...
http://www.mauricelargeron.com/seo-ce-qui-faut-retenir-en-2014/

• Retrospective 2014: que s’est-il passé cette année dans les SERP ?
Dernier lundi de l’année 2014, il est intéressant de prendre un temps pour se remémorer cette année 2014 qui aura été pleine de rebondissements dans le monde des SERP...
http://www.referencement-2000.com/retrospective-2014/

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 11 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 janvier 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Janvier 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois

Contenu potentiellement visible : ce que Googlebot voit vraiment...

   
(English version - machine translation)


 
googlebot

Depuis 16 ans, le moteur de recherche Google a grandement amélioré sa perception du contenu d'une page web telle que la voit l'internaute : interprétation du Javascript, de l'Ajax, détection du cloaking, prise en compte des différentes parties d'une page web, responsive design, ainsi que le contenu "potentiellement visible" (onglets, contenu en accordéon, etc.). L'objectif du robot du moteur est donc bien de "voir" une page web, telle que l'internaute l'a sous les yeux, et de l'analyser sous cette forme. Qu'en est-il aujourd'hui et jusqu'où va le moteur dans cette perspective ?...

Début de l'article :

Le 24 novembre 2014, John Mueller, l’un des porte-parole de Google, lâchait lors de l’un ses fameux « hangouts », une confirmation qui a surpris de nombreux observateurs : placer des contenus importants dans des zones non visibles par défaut par un utilisateur (dans une zone caché activée par un onglet par exemple) peut s’avérer être une mauvaise idée si on veut être bien classé sur un mot clé figurant dans ce contenu.

Beaucoup ont cru que cette déclaration signifiait que Google n’indexait plus le contenu non visible par défaut par un utilisateur… En réalité il n’en est rien. Et Google est aujourd’hui capable de crawler et d’indexer bien plus de choses que vous ne le pensez peut être. Nous sommes entrés depuis plusieurs années déjà dans une phase où Googlebot connait très bien l’apparence de vos pages aux yeux de vos utilisateurs, et a commencé depuis quelque temps déjà à en tenir compte pour définir l’importance des contenus dans une page.

La « révélation » de John Mueller est donc l’occasion de rappeler à quel point les capacités du spider de Google, Googlebot, ont progressé depuis le lancement du moteur de recherche…

L’époque où Google avait un oeil de… Lynx

Lors des débuts de Google en 1998, le crawler Googlebot se comportait de manière extrêmement basique : il téléchargeait le code HTML, sans se préoccuper de ressources externes comme les feuilles de style et les fichiers de code javascript. Les images étaient récupérées par un crawler spécialisé, et faisaient l’objet d’un processus séparé.

Le contenu des pages HTML était ensuite « parsé » (analysé) pour séparer le contenu textuel du code HTML définissant sa présentation dans un navigateur. Seules quelques balises HTML étaient prises en compte dans la phase d’indexation, soit pour constituer les snippets (comme la balise title, ou la meta description), soit pour donner un poids plus important aux termes entourés par des balises indiquant un contenu important ou mis en avant (comme les balises Hn, les balises B ou strong, par exemple).

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Général de l'agence Search-Foresight (http://www.search-foresight.com).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 décembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Décembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

L'évaluation des SERP par le monitoring du comportement des utilisateurs

   
(English version - machine translation)


 
evaluation laboratoire

Un point stratégique indispensable pour un moteur de recherche consiste à mesurer la pertinence de son algorithme au travers de la satisfaction (ou non) de ses utilisateurs. Pour cela, plusieurs méthodes sont utilisées, soit en faisant intervenir des experts dédiés à cette tâche (quality raters), soit en mesurant directement le comportement des visiteurs du site. Voici une petite revue d'effectif des différents tests le plus souvent mis en place à l'heure actuelle...

Début de l'article :

Dans cet article, nous allons aborder un sujet important dans la mise en place des moteurs de recherche : l’évaluation humaine de la qualité des classements mis en place algorithmiquement. Comme nous allons le voir, il existe de nombreuses méthodes pour évaluer cette qualité, mais pour de multiples raisons, il est important de prendre en compte l’avis des utilisateurs réels du moteur (qui peut être différent de l’avis des utilisateurs experts que sont par exemple les quality raters professionnels). Prendre en compte les avis des utilisateurs lors de leur usage standard du moteur de recherche, c’est faire ce que l’on appelle de l’évaluation dynamique ou en-ligne (online evaluation en anglais).

Nous allons tout d’abord définir précisément quel est la question à laquelle répondent les méthodes d’évaluation, quelles soient statiques ou dynamiques. Nous verrons ensuite ce qu’est l’évaluation statique ou non connectée (offline evaluation en anglais) . Enfin nous présenterons les principales méthodes d’évaluation dynamique.

Il est important de noter que, même si le grand public en entend rarement parler, cette problématique de l’évaluation des SERP (page de résultats des moteurs de recherche) sest au cœur de tous les moteurs de recherche, car c’est pour eux le seul moyen de s’assurer que l’algorithmique mis en place fournit réellement des résultats qui sont considérés comme pertinents par les utilisateurs.

Une partie du contenu de cet article est largement inspiré d’un tutoriel de Filip Radlinski et Katja Hofmann à la conférence SIGIR 2011 (liens et sources disponibles à la fin de cet article).

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 6 pages (format A4 Word)
Auteurs : Sylvain Peyronnet, co-fondateur et responsable des ix-labs, un laboratoire de recherche privé (http://www.peyronnet.eu/blog/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 décembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Décembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

La compatibilité mobile et le SEO

   
(English version - machine translation)


 
compatibilite mobile

Depuis plusieurs années, Google intensifie sa communication sur la nécessité d’avoir un site compatible mobile pour le SEO. Les sites adaptés aux téléphones et tablettes seraient ainsi favorisés par le moteur de recherche. Dans cet article, nous allons donc voir pourquoi Google nous pousse à améliorer nos sites dans ce sens. Mais surtout, nous allons expliquer en quoi cela a un réel impact sur le référencement naturel, puis nous détaillerons les solutions qui existent pour mettre en place une telle compatibilité...

Début de l'article :

Pourquoi faire du mobile ?

Depuis quelques temps, Google nous indique qu’il faut avoir un site adapté aux périphériques mobiles : tablettes et téléphones. La question à se poser est donc de savoir pourquoi il est temps pour tous les sites web d’améliorer leur compatibilité avec ces périphériques.

Au-delà des raisons purement SEO, il existe quelques statistiques qui expliquent grandement ce choix : le marché des mobiles et des tablettes est en pleine expansion, tandis que celui des ordinateurs fixes est plutôt à la stagnation.

Dans le graphique suivant, on constate en effet que depuis 2011, les ventes de téléphones et tablettes ont dépassé celles des ordinateurs de bureau et des ordinateurs portables.

Source : http://www.fredcavazza.net/2014/04/30/vivons-maintenant-monde-mobile/

De plus en plus d’individus remplacent ainsi leur navigation sur PC fixe pour naviguer avec des périphériques ayant des tailles, formes et résolutions différentes, que ce soit sur les tablettes et mobiles, mais également sur tout périphérique comme par exemples les consoles et télévisions connectées. On estime ainsi que depuis 2013, 40% des Français naviguent sur Internet via un mobile. Source : http://lexpansion.lexpress.fr/high-tech/7-chiffres-a-connaitre-sur-l-usage-d-internet-en-france_1330010.html

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 décembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Décembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois


 
Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings