Structures optimisées pour sites (extra) larges

   
(English version - machine translation)


 

Le principal défi des sites à forte volumétrie est de proposer une visibilité équitable à l'ensemble de leurs contenus qui sont clairement inutiles tant qu'ils ne sont pas vus des utilisateurs… et de Google. La plupart des plus grands sites ont trouvé une astuce imparable pour offrir une exposition optimale à leurs contenus : une structure soigneusement optimisée au travers d'un plan de site pour les internautes bien conçu.

Début de l'article :

Catégoristation des contenus vs structure de site

La structure d’un site reflète généralement la façon dont on catégorise ses pages. Cette catégorisation peut avoir des conséquences dramatiques sur sa/son (in)capacité à promouvoir les contenus auprès des utilisateurs. Cette notion est d’autant plus délicate à appréhender que nous avons tendance à confondre catégorisation et structure. Or, si la première influence la seconde, cette dernière représente notamment la traduction des relations (liens hypertextes) entre les différentes pages du site.

Quelle profondeur pour votre site ?

De la structure du site peut-être déterminé un élément essentiel en termes d’expérience utilisateur : le nombre de clics nécessaires pour accéder à une page (depuis la page d’accueil). Nous parlons ici de la profondeur de la page. Ce facteur fait directement référence à la règle bien connue des 3 clics [1, voir références en fin d'article] : Users of a site will become frustrated and often leave if they cannot find the information within the three clicks.

Bien évidemment, se borner à maintenir toutes les pages d’un site à 3 clics de la page d’accueil n’a pas de sens. D’ailleurs, cette règle est régulièrement discréditée par des essais utilisateurs qui, par ailleurs, sont de plus en plus souvent encouragés à utiliser les formulaires de recherches internes aux sites. Toutefois, elle rappelle que le nombre de clics aura toujours, à un moment donné, un impact sur l’efficacité d’une page. Et puisque les crawlers, comme GoogleBot, ne peuvent s’appuyer sur les moteurs de recherches internes pour explorer les sites de façon exhaustive, le nombre de clics demeure un facteur-clé pour le SEO. Sachant cela, combien de clics (ou pages intermédiaires) ne doit-on pas dépasser pour garantir une visibilité optimales aux contenus ? Au cours d’un Google Hangout organisé le 24 octobre 2014, John Mueller a donné de très timides éléments de réponse [2] : Home pages is where we forward the pagerank within your website. Depending on how your website is structured, if content is closer to the Home page, then we’ll probably crawl it a lot faster, because we think it’s more relevant. But it’s not something where I’d say you artificially need to move everything three clicks from your Home page.

A défaut d’une recommandation précise, John confirme ici que le nombre de clics (ou la profondeur) a un impact sur le crawl de GoogleBot et donc sur sa propension à indexer et positionner une page dans les SERP de Google. ...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 6 pages (format A4 Word)
Auteur : Cédric Cherchi, Expert SEM, agence Onelead (http://www.onelead.fr/).

Formats disponibles : Word, PDF
Date de parution : 16 mars 2016

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Mars 2016

- Tous les articles de l'année 2016

- Sélection des meilleurs articles des 24 derniers mois


 
Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings