HTTP/2 : quel impact en SEO ?

   
(English version - machine translation)


 
logo http

Le protocole http est à la base du Web et régit les échanges entre navigateur et serveur. Sa version 1.1, datant de quinze ans, commençait à dater quelque peu au vu de l'évolution actuelle du Web. Sa nouvelle mouture, baptisée http/2, a donc vocation à accélerer les échanges de données sur le réseau. Quelles en sont ses principales caractéristiques ? Et quel en sera l'impact sur le SEO ? Réponses...

Début de l'article :

Une charge historique forte

Le protocole http a été créé en 1990. En 99, il a connu une mise à jour notable, en passant en version 1.1. Depuis, s’il rend au jour le jour de formidables services en permettant notamment à tout un chacun de consulter des sites web en tous genres, il n’a pas connu d’évolution notable. Rien, donc, depuis 15 ans...

Le http a été conçu comme un protocole qui permet les échanges entre un client (le navigateur web) et un serveur (le site web). Le processus est le suivant : lorsque l’on navigue sur le web, qu’on accède, par exemple, à une page web, une requête http est envoyées au serveur hébergeant le site web correspondant, en lui demandant de fournir la ressource ad hoc. Le serveur crée le fichier html demandé, et envoie en retour une réponse http.

Le fichier récupéré contient le code source de la page web consultée, et de nombreuses références à des ressources annexes (en moyenne une centaine par pages) qui permettent de rendre la page plus attrayante : fichiers CSS, images, Javascript, etc.

Pour récupérer ces ressources, le navigateur web envoie une nouvelle requête http. Le serveur web la reçoit et si tout se passe bien (la ressource existe bien à l’emplacement indiqué) il fournit une réponse http la contenant.

Pour chaque ressource utile à une page, on a donc une requête http à faire. Chaque requête à envoyer au serveur web engendrer un délai de quelques centièmes de secondes, du fait de la distance entre le client et le serveur. Ce n’est certes pas grand chose, mais finalement, quand on parle d’une centaine de ressources par page sur le Web récent, l’addition commence à être bien salée et le tout peut devenir très lent à l'usage.

Google entre dans la danse

La consultation des sites web est ainsi, par essence, plutôt lente. Dès lors, lorsque l’on est un gros acteur du web, qu’on parcourt des millions, voire des milliards de pages web chaque jour, on perd beaucoup de temps à récupérer les ressources. Si l’on était capable de diviser par deux la vitesse de chargement des pages, on pourrait parcourir le Web en deux fois moins de temps. Et quand le temps de parcours est proportionnel aux coûts, on a un intérêt non négligeable à inciter tous les webmasters à faire des efforts.
...

La suite de cet article est accessible aux abonnés à la lettre professionnelle "Recherche et Référencement" du site Abondance...


Plus d'infos pour les abonnés :

Taille de l'article : 7 pages (format A4 Word)
Auteurs : Sylvain Peyronnet, co-fondateur et responsable des ix-labs, un laboratoire de recherche privé (http://www.peyronnet.eu/blog/) et Guillaume Peyronnet, gérant de Nalrem Médias (http://www.gpeyronnet.fr/nalrem-medias.html).

Formats disponibles : Word, PDF, HTML
Date de parution : 16 février 2015

- Accès à la zone "Abonnés" du site Abondance.com


Plus d'infos pour les non-abonnés :

- Comment s'abonner à la lettre R&R ?

- Sommaire de la lettre R&R de Février 2015

- Tous les articles de l'année 2015

- Sélection des meilleurs articles des 24 derniers mois


 
Un site du Réseau Abondance  : Information : Abondance - Forums Abondance - Boutique Abondance - Livre Référencement - Formation DVD Référencement | Outils : Outiref - Visiref - Spider SimulatorDivers / Jeux : Googlefight - Googland |  Moteurs de recherche : Mozbot.fr - Mozbot.com - Grifil.net - SearchWings