Financement des réseaux – Net Neutralité : Pourquoi les FAI deviennent CDN ?
Une fois n'est pas coutume... Je la laisse la plume (pardon, le clavier) à mon ami Julien Coulon, qui a écrit un texte sur ce sujet O combien intéressant... Texte très clair.. Même Madame Michu comprend... Julien est intervenu sur le e-billautshow récemment ici...
Le financement de l’Internet et La Net Neutralité font débat. Ces deux thèmes ne sont en définitive qu’un seul et même sujet.
Fort d’une expérience de plus de 18 ans, Cedexis vous propose une photo de la partie immergée de l’iceberg de l’internet (les performances, les réseaux, le routage). Explication nécessaire pour mieux appréhender les changements majeurs en cours et élaborer une vision à court et moyen terme.
Comment ça marche ?
Les éditeurs de contenus hébergent leurs données chez des Hébergeurs, eux-mêmes connectés à un certain nombre d’opérateurs. De leur coté, les Fournisseurs d’Accès à Internet (FAI) se connectent aux opérateurs pour permettre aux internautes d’accéder aux contenus hébergés. Malheureusement, les FAI et les Hébergeurs ne sont pas forcement connectés aux mêmes opérateurs. Il est donc nécessaire pour ces derniers d’établir des accords de peering (interconnexion permettant le transfert symétrique d’information) afin de faciliter l’acheminement des données entre l’hébergeur et l’internaute. Lorsqu’un déséquilibre de trafic entre deux opérateurs se crée, une facture est générée. Ceci explique une des raisons pour laquelle un contenu hébergé en France, consulté par un internaute lui aussi situé en France, peut transiter par les Etats Unis au dépend de la qualité de service.
L’impact performance est double. Plus les informations transitent via de longue distance et de nombreux réseaux, plus le risque de perte d’information est important, et plus le temps de chargement augmente pour l’internaute. Schéma : http://www.digitalsociety.org/files/gou/free-vs-paid-peering.png
Naissance des CDN (Content Delivery Network ou Réseaux de diffusion de contenus)
La croissance du trafic Internet et de l’audience de son site oblige alors l’éditeur de contenu à surinvestir en infrastructure pour absorber un pic d’audience potentiel. En effet le nombre de serveurs nécessaires n’est bien sur pas le même pour soutenir les requêtes simultanées de 10 ou 1000 internautes. De plus, le bon dimensionnement peut s’avérer délicat : un site média ne peut pas anticiper les attentats du 11 septembre. Un site de commerce électronique ne veut pas payer et administrer des centaines de serveurs toute l’année pour supporter la charge de trafic des deux périodes de soldes annuelles.
Ces évolutions comportementales ont fait naître de nouveaux acteurs : les CDN (Content Delivery Network : Akamai – Limelight – Level 3 – Cotendo – CDNetwork...). Leur objectif est de soulager l’infrastructure de l’hébergeur en copiant les contenus des éditeurs sur des serveurs proxy (miroir) déployés à différents endroits du réseau mondial Internet.
L’internaute naviguant sur un site utilisant ce type de service se retrouve sans le savoir vers le serveur le plus proche et/ou le plus disponible (le moins saturé).
Les CDN contractualisent avec différents opérateurs, échange ou achètent à prix compétitif de la bande passante revendue à l’éditeur sous forme de service à valeur ajoutée.
Exemple d’un réseau d’accès traditionnel et d’une architecture intégrant un CDN (Source Velocix)
Certains éditeurs, forts consommateurs de CDN, prennent alors conscience qu’un accès direct au FAI peut être plus économique et plus performant. Ces éditeurs majeurs négocient des accords de peering directement avec les FAI soulageant ainsi leur facture CDN et améliorant leur performance. Ces accords d’échanges, facturés par le fournisseur d’accès, deviennent de plus en plus onéreux.
Les problématiques financières des FAI
Ces sociétés, souvent opérateurs télécom, investissement de manière significative afin de fournir aux citoyens un accès à Internet.
Ces investissements vont de la création de la ligne jusqu’à l’acheminement de la connectivité dans de gros centres de données et l’emploi de personnels qualifiés...
Même si l’on peut considérer que la fibre devrait diminuer les coûts globaux supportés par un FAI, ces derniers varient entre 12 et 18€HT/Megabits par secondes. Sachant que la consommation moyenne sur le mois d’un internaute ne cesse d’augmenter de manière exponentielle et que le prix de vente de l’accès forfaitaire est à 25€HT/mois, on comprend les tensions liées à une augmentation rapide du trafic qui entraine une réduction des marges. De plus le développement de nouveaux services tel que la télévision connectée rendra cette équation toujours plus difficile à résoudre. Les coûts globaux d’un FAI peuvent être décomposés en 3 parties :
- L’accès au backbone de l’opérateur (réseau de transport)
- L’accès intermédiaire (entre le DSLAM et le BAS ou le 1er niveau de réseau de collecte)
- Le dernier kilomètre ou « last mile » (entre l’internaute et l’équipement d’accès au réseau comme le DSLAM)
Chaque maillon intermédiaire a son propre coût et afin de les réduire, les FAI déploient des proxys régionaux. Ces proxys améliorent la qualité de service offerte tout en réduisant les coûts liés à la croissance du trafic moyen par internaute. Les accords de peering sont mis en place au niveau régional et évitent de remonter systématiquement sur un point central.
Les FAI deviennent CDN
Suite au déploiement de leurs proxys régionaux, les FAI se retrouvent enrichis d’une nouvelle solution technique, économique et commercialisable. Ces FAI disposant d’entités techniques de qualité proposent des services d’hébergement, ils peuvent proposer désormais à leurs clients hébergés une solution de CDN régional garantissant à l’éditeur de contenus une qualité de service encore plus performante à un prix très compétitif. (Ces coûts sont déjà amortis par les économies générées au niveau du FAI, donc tout se qui sera vendu est considéré comme de la marge brute).
Un nouveau marché s’ouvre à ces FAI/hébergeurs qui bénéficient d’un marché mature car déjà évangélisé par les CDN historiques.
Le CDN est devenu une commodité.
Remarques : Les CDN historiques ont tendance à disparaître (volontairement ou pas) du réseau de ces opérateurs/FAI. Leurs présences commencent à être considérées comme une concurrence à cette nouvelle activité lucrative pour l’entité business service. Les FAI ont désormais pris pleinement conscience du poids et de la valeur de leurs internautes.
Concernant la Net Neutralité, il est logique de craindre que cette centralisation du pouvoir sur l’accès aux internautes puisse laisser penser qu’un éditeur de contenus qui n’a pas de contrat avec le FAI-CDN pourra être traité différemment (plus lentement) au détriment de sa performance et donc de son chiffre d’affaires et sa viabilité économique.
Cette situation existe déjà si l’éditeur de contenus fait appel à un prestataire dont sa connectivité n’est pas optimisée avec les FAI de son audience. Cependant cette différence ne fera que s’accentuer dans cette situation.
Est-il naif de penser que ces offres entreprises éviteront une augmentation du prix de l’accès à l’internet grand public... Sait-on jamais ?
Association d’Opérateurs pour un CDN commun ?
Un opérateur doit parfois aller chercher des milliers de fois le même paquet d’information dans la même journée chez un autre opérateur. Par souci d’économie et d’amélioration des performances, nous voyons naître des discussions de coopération/alliance pour déployer des solutions CDN inter-opérateurs. Les Cisco, Varnish et autres solutions de caching... vont donc durablement trouver un accueil favorable chez les opérateurs.
Quelles opportunités pour les Editeurs de contenus ?
Le marché du transport des données est en pleine mutation. L’éditeur de contenus a tout à gagner à condition de rester vigilant.
Ceci est fondamentale lorsqu’on connait l’impact des performances sur un site :
- 10 millisecondes (ms) de latence pour le site d’Amazon représente 1% de vente de perdu ;
- 400 ms de latence pour Yahoo = 5,9% de visite en moins ;
- 20% amélioration de performance pour France Télévisions représente 10% de revenus publicitaire complémentaire.
De plus, ces FAI/CDN stimulent la concurrence, situation toujours idéale pour tirer les prix vers le bas ou diffuser plus de contenus à budget ou obtenir de nouveaux services.
Cependant, certaines logiques de fonctionnement sont à revoir. En effet, tout comme un hébergeur se connecte à plusieurs opérateurs, l’éditeur de contenus doit idéalement souscrire à plusieurs CDN ou à un agrégateur de CDN (grossiste en CDN) en plus de son hébergeur, car malheureusement aucun prestataire ne peut être bon, partout tout le temps et pour chaque internaute.
C’est ainsi que certains éditeurs de contenus ont gagné fortement en performance et en coûts en mixant la diffusion de leurs contenus entre leur hébergeur et plusieurs CDN.
Quid du Cloud Computing ?
Le monde des CDN se banalise mais une situation identique est en train d’apparaître dans le monde du Cloud Computing.
En effet la problématique du CDN qui s’apparente à la bande passante, trouve son pendant dans le Cloud Computing avec la puissance de calcul facturée à l’usage. Après Amazon, RackSpace, Gogrid, Google App... pléthore de Cloud régionaux apparaissent au grand bénéfice des éditeurs de contenus.
L’importance de lever le voile sur la qualité de service perçue par les internautes pour optimiser les coûts et diviser les temps d’affichage.
L’utilisation de plusieurs prestataires pour assurer disponibilité et performance à son audience est dénommé « Multisourcing ».
Cette configuration de plus en plus courante invite les éditeurs de contenus à mettre en place le concentré d’intelligence chez leurs hébergeurs et à s’appuyer sur du CDN global, CDN régional, Cloud Computing, Cloud de stockage pour garantir l’absorption des pics de montées en charge et la disponibilité des contenus à tout instant et dans tout lieu.
Le CDN et le cloud sont déjà considérés comme une commodité..
C’est fort de ces enseignements, et afin de diviser les temps d’affichage des sites et des vidéos, d’optimiser les coûts et permettre à l’éditeur de contenus de lever le voile sur la véritable qualité de service de ces prestataires, que des anciens d’Akamai et de DailyMotion ont monté la société Cedexis.
Cedexis : l’aiguilleur du Net Citations de clients de Cedexis :
Eric Pho, Responsable d’exploitation eYeka : " Téléchargement 15 à 17 fois plus rapide alors que nous utilisions déjà un CDN" « Cedexis : liberté de choix, de prix et d’offre » « J’avoue que l'offre de Cedexis m'a immédiatement séduite parce que, nous parlons de solutions d'avenir : Celle notamment qui manquait sur la répartition de charge. Nous avons maintenant une maîtrise parfaite de la performance et nous pouvons reconfigurer les services de nos partenaires de diffusion quand et comme nous le souhaitons. Ceci nous permet ainsi d'assurer une performance toujours au meilleur niveau. La possibilité qui nous est désormais donnée de changer simplement de CDN et de payer leur service à l’usage, quand habituellement nous devions nous engager contractuellement, est géniale ! Nous sommes maintenant armés d'outils pour voir, sélectionner et contractualiser avec les meilleurs prestataires possibles pour nos internautes, peu importe où ils se trouvent dans le monde. Nous pouvons contrôler nos coûts et décider en toute autonomie sur le critère performance de la répartition du trafic entre les prestataires.» « Cedexis : le cercle vertueux, l'écosystème du multi-sourcing » « Cedexis a installé sur le marché un cercle vertueux : la concurrence créée entre les prestataires les poussent à baisser leurs prix et en même temps améliorer leurs services et leurs performances. Les clients tout comme les meilleurs prestataires y gagnent. Les géants du marché ne peuvent donc plus se reposer sur leurs lauriers parce que les mesures objectives et impartiales de Cedexis parlent d'elles-mêmes. On peut assimiler leurs solutions aux sites de comparateur de prix qui proposent une transparence complète sur l'offre des sites marchands. Le ‘multi-sourcing’ en fonction des performances, c’est fantastique. Aborder le marché Chinois m'a semblé a priori problématique et complexe techniquement. Finalement, avec la collaboration de Cedexis, l'adoption de la solution s'est faite, simplement, sans douleurs et a été mis en service dans un délai plutôt court. Je dors désormais sur mes deux oreilles ! »
Cedexis distribue une offre de services en cloud computing pour améliorer les performances des contenus et des applications web. Nos solutions fournissent quotidiennement plus d’un milliard de mesures en temps réel par les vrais utilisateurs à travers 26 000 réseaux depuis 230 pays et 1,7 millions de points géographiques, proposant ainsi le seul service de monitoring communautaire et temps réel. Ce premier service s’adresse aux éditeurs de contenus, hébergeurs, CDN et Cloud qui ont le souhait d’avoir une vision de la performance perçue par tous leurs internautes.
Nous adossons à ces données un service breveté de load balancing DNS applicatif scriptable. Cette plateforme exploite les données de monitoring pour sélectionner en permanence, pour chaque internaute le meilleur diffuseur entre un utilisateur donné et le contenu qu’il souhaite recevoir afin d’améliorer significativement les performances.
Nos clients, parmi lesquels France Télévisions, Euronews, L’Occitane, Allociné, Le Monde.fr, Rue du commerce, Arte, Canal +, Dior..., utilisent une combinaison des services Cedexis pour améliorer leurs performances, optimiser leurs coûts et avoir une comparaison impartiale des performances des CDN, des hébergeurs et des Clouds. Plus d’information sur www.cedexis.com
Kevin Hatry, Co Fondateur et Directeur Technique, Netaffiliation
« La mise en place et l’utilisation des solutions Cedexis a été simple et nous a donné une complète autonomie dans le pilotage de nos stratégies de diffusion. Nous pouvons désormais observer en temps réel les acteurs les plus performants, chose qui nous était parfaitement impossible auparavant. Nous pouvons maintenant facilement répartir la charge là où cela est nécessaire avec agilité pour garantir les meilleures performances. Nous avons en outre aujourd’hui des alternatives en cas de problèmes. La technologie est bonne, innovante et l’accompagnement par des experts lors de la mise en place du projet est particulièrement rassurante. »
Claude Bruyas, Responsable des Développements Euronews :
“ Nous avons totalement atteints tous nos objectifs : celui du gain de performance en premier lieu puisqu’en vérifiant avec nos propres outils (cf. Graph Google webmaster tools ci-dessous) nous avons observé que notre temps d’affichage a été divisé par plus de 2 ! A la clé l’audience s’est immédiatement améliorée.
Notre plateforme utilise désormais 3 canaux de distribution différents, ce qui réduit considérablement les risques de dégradation du service.
Enfin la question des coûts : la réduction acquise par la mise en concurrence de plusieurs types de solutions a été très importante. A tel point qu’avec les économies réalisées, nous avons lancé de nouveaux projets.
Nous sommes donc totalement satisfaits d’autant plus qu’au quotidien la solution mise en place est simple et précise : nous avons la visibilité sur le détail de notre diffusion par réseau et même par ISP ce qui nous permet un meilleur suivi, nous sommes autonomes sur le pilotage et l’administration des prestataires retenus ce qui nous permet de faire évoluer le paramétrage de notre plateforme en toute liberté et de pouvoir nous adapter facilement aux nouveaux acteurs ou aux nouvelles technologies du marché .
Nous sommes presque assurés d’avoir la meilleure plateforme de distribution possible du moment mais aussi à l’avenir. »
Contact : Julien Coulon Phone : +33607136856
Mail : [email protected]
Ce serait intéressant d'évaluer aussi ce que gagnent ou perdent les FAI (et les propriétaires de réseau) suivant les débits que subissent les abonnés.
Faut demander à Julien Coulon si c'est possible.
Rédigé par : Bernard GARRIGUES | 19/11/2010 à 13:24
@Bernard...
Désolé l'ami mais je ne comprends pas la question.. Julien non plus... Si tu peux développer...
Rédigé par : Billaut | 19/11/2010 à 14:40
J'ai vu sur la présentation de Julien Coulon :
10 ms de délai = 1% de perte de vente pour amazon
500 ms de délai = 5,9% de perte de trafic pour Yahoo,
Etc ... (mille excuses, j'ai appris l'anglais, il y a 60 ans et je ne l'ai jamais pratiqué)
La question est de savoir s'il est possible d'évaluer, en fonction des débits symétriques accessibles à l'usager normal les pertes ou gains de PIB comme, par exemple :
10 M/s égale 19 milliards de PIB (+1%);
20 M/s égale n milliars de PIB (+x%) ; etc ...
Rédigé par : Bernard GARRIGUES | 19/11/2010 à 22:49
Il est plus facile d'expliquer la logique en se basant sur les évolutions de chiffres d'affaire par fournisseur et de trouver un moyen de consolider l'ensemble.
Rédigé par : Bernard GARRIGUES | 19/11/2010 à 23:17
@Bernard... Là j'ai compris...
La question est même intéressante... mais je ne sais pas trop s'il y a une réponse...
Rédigé par : Billaut | 20/11/2010 à 09:06
En creusant un peu l'exposé de Julien Coulon, je constate qu'existe une confusion assez générale entre ce que l'on pourrait appeler la puissance d'un réseau mesuré en potentiel de débit (M/s) et le débit mesuré aussi en M/s.
Les contrat de peering correspondent, mutatis mutandis, aux chambres de compensation en matière de flux financiers. A mon avis, la compensation ne peut avoir lieu que sur les débits, pas sur les potentiels de débits disponibles à un instant t.
Par contre, mon expérience des analyses des activités des chambres de compensation montre qu'elles permettent non seulement d'établir les soldes à tous termes mais les flux sur la période unité choisie.
Rédigé par : Bernard GARRIGUES | 20/11/2010 à 09:06
@Bernard
intéressante réflexion.. mais que peut on en faire de pratique ?
Rédigé par : Billaut | 20/11/2010 à 09:26
Bonjour Bernard,
C'est un objectif que j'aimerai atteindre sur Cedexis. Nous commençons déjà à comptabiliser le temps gagné par les internautes en utilisant notre service. Le soucis, c'est qu'ils en profitent pour regarder plus de pages ou regarder plus de vidéos. Pas facile de faire les calculs :-)
Les sites de commerces électroniques sont très discrets sur leurs taux de transfo et le montant du panier moyen. De plus il est toujours difficile de s'assurer que le gain est lié à l'accélération ou à une vente flash particulièrement intéressante.
D'expérience, le taux de transfo augmente entre 0 et 2,1 point mais ca dépend de l'état de la plate forme avant mise en place des solutions de caching CDN (donc prendre ces chiffres avec des pincettes). A ce stade, une société d'étude aura sans doute plus d'info que moi.
De tête j'avais écouté une interview de NKM indiquant que la généralisation du haut débit génèrerait 1% de croissance du PIB pour la France.
C'est un argument de plus pour Jean Michel...
Dès que Cedexis aura des chiffres précis communicables, je serai heureux de les partager.
Julien
Rédigé par : Julien Coulon | 20/11/2010 à 09:42
Julien
A mon avis, le raisonnement de NKM est assez foireux parce qu'il porte sur l'info marchandisable du net (cf le résultat de sa consultation).
Je suppose que les soldes des contrats de peering doivent être trouvés assez facilement. Les difficultés rencontrées en travaillant sur les chambres de compensation portaient sur 1/connaître la réalité des flux d'entrées et de sorties ; 2/la non pertinence des unités de temps.
J'avais tenté de convaincre la Banque de France d'utiliser la semaine comme unité de temps : il est assez facile de trier les semaines anormales des semaines normales sans introduire trop de biais : je n'y suis pas parvenu.
Rédigé par : Bernard GARRIGUES | 20/11/2010 à 10:58
Julien,
Il y a un américain (je ne me rappelle pas de son nom), au 19ème siècle, qui a fait un boulot comme le tien en vue d'optimiser la route des bateaux à voile. En l'espace de quelques années, ses cartes ont divisé par deux les temps de route des bateaux de commerce.
Le gars, il s'est paluché tous les carnets de bord des navires qui naviguaient ou avaient navigué ; sans ordinateur.
Rédigé par : Bernard GARRIGUES | 20/11/2010 à 11:07
J.M.
Comme tu le sais peut-être pas, je suis un chercheur en géographie du développement local (et un mec assez pointu sur la théorie des réseaux). Tu imagines que mes questions ont un intérêt opérationnel important pour moi. Il s'agit de trouver réponse du type :
1/ Comment les débits internet modifient le métabolisme des Systèmes Géographiques Locaux ?
2/ Peut-on démontrer que l'architecture point par point des réseaux locaux est plus efficace que l'architecture normale ?
3/ Quel est l'intérêt d'un serveur local ?
4/ Quel doit être sa capacité de stockage ?
5/ Les connaissances locales sont elles un bien commun ? un bien privé ? un bien public ?
Etc ...
L'entreprise de Julien COULON traite, plus ou moins de ces questions dont je cherche réponse.
Rédigé par : Bernard GARRIGUES | 20/11/2010 à 11:31
@Bernard...
Si tu peux retrouver le nom de ton américain...il a peut etre écrit un bouquin ?
Rédigé par : Billaut | 20/11/2010 à 11:34
@Bernard
Questions intéressantes... j'avoue que je n'ai pas de réponse, et quelles me laissent perplexes... mais je vais y réflechir..
Rédigé par : Billaut | 20/11/2010 à 11:35
Non je ne peux pas. J'ai trouvé cela dans un grimoire datant de 1884 qui faisait le point de toutes les avancées scientifiques qui avaient donné lieu à communication en France. Je ne me souviens même pas du nom de la revue périodique.
L'article m'avait intéressé parce qu'il décrivait une méthodologie efficace afin d'évaluer l'effet de la contingence dans l'évolution spatiale des système géographique locaux.
Peut-être un voileux saura dans "carte des vents dominants" ? Cela doit être numérisé à la BN.
Rédigé par : Bernard GARRIGUES | 20/11/2010 à 13:26