HTTPS comme critère de classement : que faut-il en penser ?

   
(English version - machine translation)


 
confiance

Le mois dernier, Google a annoncé que les sites sécurisés (protocole SSL/TLS) recevraient dorénavant un "coup de boost" dans l'algorithme de pertinence du moteur. Si cet avantage est aujourd'hui très minime, il pourrait croître dans les mois qui viennent. Alors, faut-il sauter le pas et faire passer son site en version sécurisée ? Quels sont les risques ? Les solutions ? Les coûts ? Voici un panorama complet des réponses à toutes ces questions...

Début de l'article :


Le 6 août 2014, Google a annoncé sur son blog Webmaster Central que le moteur de recherche avait commencé à intégrer le support du protocole SSL/TLS comme un critère de son algorithme de classement (http://www.abondance.com/actualites/20140807-14164-les-sites-securises-https-seront-mieux-positionnes-google.html). Google est donc censé accorder un "bonus" aux sites qui encryptent et authentifient la communication entre leur site et les navigateurs des internautes.

Pourquoi Google a-t-il pris cette décision ? Quelle est l'importance du bonus accordé par le moteur aux pages en https:// dans son algorithme ? Comment doit-on adapter son site pour faire face à cette nouvelle donne ? Quels sont les avantages et les inconvénients de basculer un site en https:// ? Nous allons nous efforcer dans l'article qui suit de répondre à toutes ces questions.

Qu'est-ce que le protocole SSL / TLS ?

Avant de commencer à parler des motivations qui expliquent cette nouvelle orientation de Google, il faut rappeler quelques informations sur le protocole SSL/TLS, qui reste finalement assez mal connu.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Général de l'agence Search-Foresight (http://www.search-foresight.com).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Propager la confiance et la méfiance dans les algorithmes de recherche

   
(English version - machine translation)


 
confiance

Quiconque s'intéresse au SEO et aux moteurs de recherche a déjà entendu parler de la notion de "TrustRank". Mais ce terme est trompeur et sa définition originale ne correspond pas à la façon dont Google envisage la confiance qu'il a dans un site. D'une façon générale, il existe de nombreux algorithmes permettant de propager des notions de confiance et, a contrario, de méfiance pour noter une page ou un site web et ainsi écarter le spam. En voici quelques exemples décrits dans cet article...

Début de l'article :


En réfléchissant au titre de l'article de ce mois-ci, nous nous sommes posés une question fondamentale : devions-nous y mettre le mot TrustRank, ou bien au contraire fallait-il l'éviter, pour que votre lecture ne commence pas sur un malentendu ? Comme vous le voyez, nous avons choisi de prendre le taureau par les cornes et d'en parler, sans le mettre dans le titre !

Dans cet article, nous allons donc évoquer les différents algorithmes qui ont été envisagés par les chercheurs dans le domaine de la recherche d'information pour propager la confiance, ou la non-confiance, sur le web. Si nous avons déjà évoqué le terme de TrustRank, c'est parce que cet algorithme, mis au point en 2004 par Zoltan Gyongyi, Hector Garcia-Molina et Jan Pedersen, est l'archétype des méthodes de propagation de la confiance. Son souci est qu'il a été longtemps confondu avec ce que Google appelait le trustrank, et qui n'avait pas de rapport (le vocable trustrank a d'ailleurs été abandonné par Google en 2009, qui lui a préféré le mot de personrank).

L'idée derrière la propagation de la confiance et de la non-confiance

L'idée de base est plutôt simple : le problème des méthodes qui calculent un score à partir des liens sur le web (comme le PageRank par exemple) est l'initialisation : si toutes les pages sont égales, les pages de spam finissent par gagner, car leur nombre est virtuellement infini. En revanche, si on sait repérer quelques pages qui sont de grande qualité et confiance, on va pouvoir s'en servir comme point de départ pour propager une information de qualité selon l'adage « les amis de mes amis sont mes amis ».

Inversement, si je repère quelques voyous, je vais partir du principe que les amis des malfaiteurs sont coupables par association. Ainsi une page de confiance qui fait un lien vers un tiers donnera un boost à ce tiers, et une page de faible qualité qui ferait un lien à un site tiers le plomberait, même légèrement.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 5 pages (format A4 Word)
Auteurs : Sylvain Peyronnet, co-fondateur et responsable des ix-labs, un laboratoire de recherche privé (http://www.peyronnet.eu/blog/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Comment bien gérer les 404 dans une optique SEO ?

   
(English version - machine translation)


 
no way 404

Tout site Internet génère des erreurs 404 ("Page not found"). Ces pages peuvent-elles réellement nuire au référencement naturel, et si oui comment faire pour les traiter efficacement ? Nous verrons dans cet article pourquoi cela peut parfois nuire à votre positionnement ou à l'indexation de vos contenus. Mais surtout, nous allons traiter les différentes méthodes pour en récupérer la liste complète et les différentes façons de les corriger de manière optimale pour votre SEO...

Début de l'article :


Les erreurs 404

En général, une erreur 404 signifie que votre page renvoie le code HTTP « 404 Not Found » en réponse au chargement d'une URL précise. Pour obtenir la liste complète de ces codes d'en-tête HTTP, consultez cette page : http://fr.wikipedia.org/wiki/Liste_des_codes_HTTP

Avoir des pages 404 est une chose courante et normale pour un site Internet, et elles peuvent provenir de plusieurs causes :
• Un fichier ou une page est temporairement indisponible ;
• Vous avez modifié l'URL d'un contenu ;
• Vous avez modifié le nom d'un fichier (image, vidéo…) ;
• Un de vos scripts (PHP par exemple) provoque des bugs et des liens erronés ;
• Un autre site (ou une page de votre site) a fait un lien erroné vers le vôtre ;
• Etc.

En soi, les erreurs 404 ne nuisent pas à votre référencement naturel puisque Google et les autres moteurs de recherche savent parfaitement gérer ce type de code HTTP.

Les problèmes SEO des erreurs 404

Tant que cela reste ponctuel, l'impact sur votre référencement naturel sera donc imperceptible. Mais cela peut poser deux types de problèmes.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Définir la stratégie de contenu de votre site mobile

   
(English version - machine translation)


 
contenu mobile

Définir une stratégie de contenu est essentiel dans la mise en place d'un projet web. Et qui plus est dans le domaine du mobile, où les caractéristiques des terminaux utilisés par les mobinautes (téléphones ou tablettes) génèrent des contraintes dont il est indispensabe de tenir compte. Voici donc une check-list de tous les points à viser afin de mener une stratégie mobile gagnante...

Début de l'article :


Commençons cet article par quelques chiffres, parce que ça fait très bien dans un cocktail mondain et très geek quand on les tweete :
• On dénombre 27,7 millions de mobinautes dans l'Hexagone, soit un Français sur deux ;
• 4 mobinautes sur 5 accèdent à l'Internet mobile quasiment tous les jours ;
• 88 % des utilisateurs de smartphones ont recherché des informations locales ;
• 82 % ont effectué des actions suite à leur recherche sur mobile ;
• 43 % des acheteurs mobiles effectuent au moins un achat par semaine ;
• 64 % des recherches sur mobile concernent des informations sur les produits ;
• Plus de 25 % des mobinautes utilisent leur smartphone en magasin ;
• La prise de photo d'un produit concerne 25 % des actions réalisées en magasin ;
• 70 % des utilisateurs de smartphones regardent des vidéos ;
• 69 % des utilisateurs de smartphones consultent les réseaux sociaux, dont 42 % une fois par jour.

De plus, 26 % des mobinautes renonceraient à la télévision plutôt qu'à leur smartphone. Alors s'il détrône Star Academy, consacrons-lui toute notre attention.

Fixer la stratégie de communication

Avant toute analyse, posez-vous les questions suivantes :
• Quels sont les objectifs de l'entreprise ?
• Quels sont les moyens de communication envisagés : temps, ressources humaines internes, sous-traitants, budgets ?
• Quelle est la clientèle ?
• Quel est l'existant ?
• Que font vos concurrents sur mobile ? Effectuez un benchmark !
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 12 pages (format A4 Word)
Auteur : Isabelle Canivet (épouse Hardy) et Jean-Marc Hardy, 60canards.com (http://www.60canards.com/), agence en stratégie de contenu web et mobile.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Authorship et AuthorRank : et maintenant ?

   
(English version - machine translation)


 
authorship

Raphaël Doucet, éditeur du site « Visibilité Référencement », est un fin observateur du monde SEO dans de nombreux domaines, notamment celui de l'AuthorShip de Google. Suite à l'abandon de cette fonctionnalité cet été, nous lui avons demandé un "billet d'humeur" pour qu'il nous dise ce qu'il pense de cette stratégie du moteur de recherche et de l'avenir de critères de pertinence éventuels tels que l'AuthorRank...

Début de l'article :


Si Google et a fortiori Google + fait / faisait partie de votre stratégie de visibilité, vous n'êtes pas sans savoir que les choses ont considérablement bougé du côté de l'authorship ces derniers mois.

Il est donc légitime de s'interroger sur l'état et le devenir de ces deux notions propres à Google.

Petit historique

Je vous rassure, je vais faire court car j'ai toujours eu horreur de l'histoire à l'école, la seule date qui me reste en tête, c'est 1664 (allez savoir pourquoi !).

Ici, pas question de parler des brevets déposés, mais uniquement de la manifestation de ces deux notions. C'est simplement un choix personnel pour tenter de rester le plus clair possible :

- Juin 2011 : lancement de l'authorship par le biais du déploiement de Google +.
- En octobre 2013, Google - par l'intermédiaire de Matt Cutts - annonce qu'il va réduire le nombre d'affichage des photos d'auteurs dans les SERPs.
- Le 17 décembre 2013, les SERPs sont secouées, la cause en est attribuée à la mise à exécution de l'annonce de Matt Cutts.
- 25 juin 2014 : Mr Google Zurich, autrement nommé John Mueller, annonce la fin prochaine de l'affichage de la photo d'auteur (https://plus.google.com/+JohnMueller/posts/PDkPdPtjL6j).
- 28 juin 2014 : la suppression des photos est officielle et effective. Seul le nom de l'auteur reste comme on peut le voir sur l'image ci-après :
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 4 pages (format A4 Word)
Auteur : Raphaël Doucet, auteur du site « Visibilité Référencement » (http://www.visibilite-referencement.fr/) et organisateur du salon en ligne VLC (http://www.visibilite-camp.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Revue d'outils moteurs et SEO (septembre 2014)

   
(English version - machine translation)


 

Cette rubrique signale chaque mois 5 outils (site web, logiciel, plug-ins Firefox...) qui nous ont parus intéressants (ou parfois étonnants...) pour le référencement naturel ou la recherche d'information. Des outils pas obligatoirement très récents, mais parfois méconnus ou qui gagnent à être utilisés selon nous. Chaque outil est décrit en quelques phrases, sous la forme d'une fiche signalétique vous permettant de le tester au plus vite...

Début de l'article :


Nom : Jaaxy

URL : http://www.jaaxy.com/

Domaine : SEO

Type : Logiciel de recherche de mots clés

Descriptif : Outil de recherche de mots clés pour votre SEO. Ne semble pas avoir de version française hélas... Possibilité de test gratuit sur 30 recherches.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 3 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Revue d'URL (septembre 2014)

   
(English version - machine translation)


 

Les articles de notre veille sur les moteurs de recherche et le réferencement en français et en anglais, ainsi que le dossier du mois...

Début de l'article :

Revue d'URL en français...

-> Les actions manuelles de Google destinées à lutter contre le spam sont-elles justes ?
Sous le coup d'une procédure d'action manuelle de Google contre notre site 1min30.com, j'ai découvert un mode de sanction très sévère qui fait mal au portefeuille mais qui n'applique pas les principes élémentaires du droit. Retour sur les actions manuelles, à quoi servent-elles et comment les rendre plus justes ?...
http://www.journaldunet.com/solutions/expert/58375/les-actions-manuelles-de-google-destinees-a-lutter-contre-le-spam-sont-elles-justes.shtml

-> La pénalité 1min30 : mon avis tranché sur le sujet
Comme d'autres j'ai vu passer l'histoire de l'agence 1min30 qui a été sanctionné par Google pour liens factices le week end du 17 et 18 aout. Je suivais ça de très loin jusqu'à ce que l'agence me contacte pour obtenir un droit d'interview chez moi sur le sujet. J'ai dit ok mais à la seule condition que je puisse m'exprimer librement sur le sujet...
http://www.visibilite-referencement.fr/blog/la-penalite-1min30-mon-avis-tranche-sur-le-sujet

-> Astuce SEO #9 : Quelles pages de votre site ne sont pas indexées par Google ?
La série Astuce SEO vise à partager des conseils simples à appliquer et pouvant contribuer immédiatement à vos stratégies SEO. Ces billets sont donc délibérément concis et visent à stimuler votre créativité...
http://www.davidcarlehq.com/2014/09/astuce-seo-9-quelles-pages-de-votre-site-ne-sont-pas-indexees/

-> Bourrin...
Voici le mot qui me vient le plus souvent à l'esprit depuis le 24 août, date à laquelle Google a lancé une floppée de pénalités manuelles pour liens factices. Google a affaire à des bourrins *...
http://blog.axe-net.fr/bourrin/

-> Selon Google, un backlink issu d'un article plagié est-il artificiel (et donc pénalisant pour le SEO) ?
Si vous êtes sous le coup d'une action manuelle pour liens entrants factices, infligée par l'équipe qualité de Google, devez-vous vous occuper des liens pointant vers votre site issus d'articles totalement recopiés de votre site, sans autorisation ? La réponse est complexe...
http://www.webrankinfo.com/dossiers/strategies-de-liens/backlinks-et-plagiat

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 12 pages (format A4 Word)
Auteur : Rubrique proposée par Olivier Andrieu, éditeur du site Abondance.com.

Formats disponibles : Word, PDF, HTML
Date de parution : 15 septembre 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de septembre 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de septembre 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Comment utiliser intelligemment les Sitemaps XML ?

   
(English version - machine translation)


 
sitemap xml

Les fichiers Sitemaps XML fêteront l'année prochaine leurs 10 ans d'existence. Parfois décriés par certains au niveau de leur utilité pour le référencement, ils s'avèrent pourtant très importants dans de nombreux cas. Encore faut-il bien les mettre en place, dans les règles de l'art, et connaître leurs nombreuses possibilités. Voici un article détaillé sur les bonnes pratiques en la matière qui devrait aider votre site à être mieux crawlé et indexé par Google, Bing et leur confrères...

Début de l'article :


L'utilité des sitemaps XML n'a jamais totalement fait l'unanimité au sein de la communauté des experts SEO. Leur impact sur le référencement naturel des sites a également souvent été remis en question. Pourtant, si on comprend leur objectif réel et si on sait comment les implémenter, un référenceur peut tirer un réel bénéfice de la soumission de ces fichiers d'URL au format XML.

L'objectif de cet article est donc de faire le point sur les fonctions assurées par les sitemaps, sur les gains réels qu'ils apportent, et sur les précautions à prendre lorsqu'on les construit. Au passage, nous rappellerons quelques astuces avancées, parfois méconnues par les webmasters.

Pourquoi le protocole Sitemap a-t-il été inventé ?

Les moteurs de recherche comme Google ont abandonné très tôt le principe de la soumission d'URL aux moteurs, pour leur préférer une exploration automatique des pages du web en suivant les liens découverts dans les pages crawlées.

Mais lorsque l'on utilise ce mode d'exploration, deux défis apparaissent : assurer une "couverture" aussi parfaite que possible du web, et garantir la "fraicheur" des données explorées.

Le problème de la couverture

Une partie des pages se situe dans une zone du web que l'on appelle souvent le "web invisible". Il s'agit de pages que les moteurs de recherche ne peuvent pas découvrir en suivant des liens placés sur des pages explorables. La structure des sites web et de nombreux problèmes techniques peuvent créer des situations (volontaires ou involontaires) où une page n'est liée à aucune page accessible aux moteurs. Le problème s'aggrave si on considère que les moteurs décident aussi d'"oublier" parfois volontairement d'explorer des pages qu'ils considèrent comme inutiles (doublons, pages extrêmement profondes etc.).

La "couverture" d'un robot d'exploration d'un moteur de recherche est caractérisée par le ratio entre les pages web explorées et les pages web intéressantes.

Améliorer la couverture est apparu comme une priorité absolue aux ingénieurs de Google, dès le début des années 2000, tant le volume des pages "ignorées" semblait grand.

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 11 pages (format A4 Word)
Auteur : Philippe Yonnet, Directeur Général de l'agence Search-Foresight (http://www.search-foresight.com).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 juillet 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de juillet-août 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de juillet-août 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Comment bien utiliser l'outil de planification des mots clés de Google ?

   
(English version - machine translation)


 
planificateur mots cles

Depuis le 6 Septembre 2014, Google a définitivement remplacé son « outil de génération de mots clés » par l'« outil de planification des mots clés » (ou « Google Keyword Planner »). Toujours utile pour le référencement naturel, l'outil a cependant fortement évolué. Dans cet article, nous allons aborder toutes les techniques pour réellement tirer parti de cet outil en SEO, notamment la fusion des listes de mots clés, le ciblage géographique ou encore le traitement et l'analyse des données fournies par Google...

Début de l'article :


L'outil de génération de mots clés de Google a toujours été utile pour savoir combien de fois un mot clé était recherché sur Google. Premier problème du nouvel outil (par rapport à l'ancien), disponible à l'adresse https://adwords.google.fr/KeywordPlanner : vous aurez besoin obligatoirement d'un compte Adwords (même inactif) pour y accéder. De même, l'interface a changé et il faudra vous y adapter.

Voyons maintenant ce qu'il est possible de faire avec cet outil dans le cadre du référencement naturel de votre site. Vous trouverez en effet 4 fonctionnalités différentes :

• la recherche de mots clés (ce qui correspond à l'ancien générateur de mots clés) ;
• l'obtention de volumes de recherche pour une liste de mots clés ;
• la prévision de trafic pour une liste de mots clés ;
• un outil pour fusionner des listes de mots clés.

Pour être utile en référencement ou dans un audit, il faut en effet respecter quelques règles de base que nous allons détailler tout au long de cet article :

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 8 pages (format A4 Word)
Auteur : Daniel Roch, Consultant WordPress, Référencement et Webmarketing chez SeoMix (http://www.seomix.fr/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 juillet 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de juillet-août 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de juillet-août 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois

Google a-t-il le droit de 'scraper' nos contenus ?

   
(English version - machine translation)


 
scraping

Google propose de plus en plus dans ses résultats des extraits de pages web, comme il l'a montré récemment en reprenant purement et simplement des tutoriels directement dans ses SERP sans demander l'avis des éditeurs les ayant créés sur leurs sites respectifs. A-t-il juridiquement le droit de mettre en place de telles pratiques ? Peut-il être attaqué pour "vol de contenu", ce à quoi peut être assimilé le "scraping" ? Réponses dans cet article...

Début de l'article :


Le post de Matt Cutts, en décembre 2013, sur le scraping et la mise à disposition d’un formulaire de signalement de ce type de cas (http://www.abondance.com/actualites/20131205-13450-matt-cutts-et-le-scraping-de-textes.html) a rouvert le débat autour de cette pratique. Et ce, d’autant plus étrangement que, concomitamment et de plus en plus, Google recopie quelques lignes de contenu de certains sites (comme Wikipédia) dans le cadre de la fourniture de résultats naturels (http://www.abondance.com/actualites/20140626-14037-knowledge-graph-commence-afficher-tutoriels-scrape-web-vergogne.html). La nature et les risques juridiques de cette pratique sont pourtant précis et ne souffrent pas de discussion. Les exemples de procès perdus par Google Actualités dans le cadre de la reprise de filets d’actualités, sont là pour en témoigner.

Le concept de « scraping »

Le terme « scraping » vient de l’anglais et peut signifier « racler » ou « prélever ». Ce terme est notamment utilisé dans un sens médical.

Il semble exister plusieurs cas de scraping :
- Selon Wikipedia (http://fr.wikipedia.org/wiki/Web_scraping), le Web scraping (parfois appelé Harvesting) est une technique d'extraction du contenu de sites Web, via un script ou un programme, dans le but de le transformer pour permettre son utilisation dans un autre contexte, par exemple le référencement ;
- Le scraping peut concerner uniquement les images ou vidéos, voire des écrans d’impression de sites ;
- Le scraping peut viser une technique d’aspiration de données structurées, dans une base de données, qui peut être réalisée entre deux applications (par exemple, en cas de clusterisation de données).

...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 4 pages (format A4 Word)
Auteur : Alexandre Diehl, Avocat à la Cour, cabinet Lawint (http://www.lawint.com/).

Formats disponibles : Word, PDF, HTML
Date de parution : 15 juillet 2014

- Télécharger l'article au format PDF

- Sommaire de la lettre R&R de juillet-août 2014

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de juillet-août 2014

- Tous les articles de l'année 2014

- Sélection des meilleurs articles des 24 derniers mois


 
Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings