Cloud & hébergement : les infrastructures apportent-elles encore de la valeur ajoutée ?

17/01/2023
Hébergement

Réponse courte : oui. Réponse longue : oooooooooouuuuuuuuuuuuiiiiiiiiiiiiiiii. Blague à part, c’est une actualité qui a de nouveau soulevé une question qui semble (inutilement) cliver le monde du cloud et de l’hébergement : les infrastructures ont-elles moins d’importance que la partie software ?

La révélation de « Bleu », nouvelle tentative de cloud souverain portée par le duo Orange/Cap Gemini et qui concrétise le projet « Cloud de Confiance », a provoqué quelques remous chez les acteurs du cloud hexagonal. En cause, l’approche hybride de « Bleu », qui fait tourner des services cloud américains sur des infrastructures hébergées en France et gérées par des sociétés françaises.

Suite à cette annonce, Arnaud de Bermingham twittait à très juste titre : 

Un agacement que nous partageons en grande partie, notamment parce que la promesse de cloud souverain, sur la base de logiciels américains, est illusoire. Mais cette réaction nous a interrogés sur la perception qu’ont nos pairs de la pertinence ou de la valeur ajoutée des infrastructures. Cantonner les infrastructures au simple fait de « racker des serveurs dans des baies », et attribuer la valeur ainsi que la marge des services cloud à la partie « software » est trop réducteur. 

Il s’agit pourtant d’un discours auquel nous commençons à nous habituer. Une tendance générale à la survalorisation des compétences liées au développement, qui a conduit à un désintérêt dommageable des infrastructures notamment de la part des acteurs du cloud. Alors les infrastructures apportent-elles encore de la valeur ajoutée à l’hébergement et aux services cloud ? Oui, pour des raisons purement techniques, mais aussi pour limiter la chaîne de responsabilité et préserver une précieuse décentralisation des compétences liées aux infrastructures.

La culture infra comme levier de performances 

Cela peut paraître évident, mais l’impact de l’infrastructure va se faire selon la typologie du site web. Derrière cette évidence se cache un besoin souvent occulté : celui d’adapter le type de matériel utilisé à la typologie du site ou de l’application. Pas simplement acheter le dernier équipement tendance le plus puissant en date. Mais pour ça, encore faut-il avoir un minimum de connaissances et culture infra. 

Récemment, les constructeurs se sont lancés dans une course effrénée aux nombres cœurs, créant des processeurs pouvant aujourd’hui aller jusqu’à 256 cœurs. Un indéniable atout technique qui est devenu l’équipement de référence en matière de cloud et d’hébergement. Et nous ne jetons la pierre à personne puisque nous utilisons nous-même ces processeurs. Mais la puissance CPU ne fait pas tout, toutes les problématiques IT ne s’adressent pas simplement avec de la puissance serveur. 

C’est notamment le cas des sites marchands ou e-commerce dont la vitesse est plus tributaire de processeurs haute-fréquence (au-delà de 3 GHz) que du nombre de cœurs. Encore faut-il le savoir car la haute-fréquence coûte cher et est injustement considérée comme une techno vieillissante. L’échelle de gain de temps peut paraître dérisoire puisqu’on parle de passer d’un temps de réponse de 500 ms à 300 ms pour les sites lourds. Mais cela reste un gain de rapidité de 30 % et en e-commerce, plus qu’ailleurs, le temps c’est de l’argent.

Et toutes ces optimisations peuvent être réalisées à tous les niveaux des infrastructures. Un dernier exemple parlant : les fonctions de virtualisation du réseau. Chez certains acteurs du cloud, ces fonctions sont assurées directement par les serveurs, qui allouent en moyenne 15 % de l’espace serveurs (si ce n’est des serveurs complets) pour faire tourner ces fonctionnalités réseaux. Une démarche parfaitement compréhensible puisque le matériel réseau n’était pas capable de gérer directement ces instructions. Or ce n’est plus le cas aujourd’hui, chez Oxeva nous utilisons des cartes réseau capables d’effectuer nativement de la virtualisation sans consommer de ressources serveurs.

Exploiter les serveurs à 100 % de leur capacité c’est une manière de mieux les rentabiliser et de fournir une meilleure qualité de service aux utilisateurs. Tout le monde est gagnant. Encore faut-il s’intéresser un minimum aux infrastructures et surtout… avoir la main dessus. 

Éviter l’effet « patate chaude »

Une tendance que nous observons chez certains concurrents hébergeurs infogérés, c’est de se débarrasser de la partie infrastructures, arguant que leur valeur et savoir-faire réside dans le service, en l’externalisant chez un autre prestataire. 

Chez Oxeva nous avons fait le choix de garder cette compétence en interne pour maîtriser nos infrastructures et les mettre au service de nos exigences en termes de vitesse, disponibilité et performances. Un choix qui paraît naturel pour un infogéreur et qui nous permet aussi de maîtriser un maillon de la chaîne qui peut faire peur dans le monde du cloud et de l’hébergement : celui de la responsabilité. 

La chaîne de responsabilité est l’élément le plus problématique dans la fluidité des résolutions d’incidents. Vous connaissez la chanson si vous avez déjà été en contact avec le support de certains prestataires cloud en cas de défaillance : « C’est pas nous c’est l’infra », puis « c’est pas l’infra c’est le code », puis « Non, non, le problème vient bien de la plateforme », puis… Vous avez saisi l’idée. Pour faire simple, notre métier est de faire en sorte que tout marche, tout le temps et en toutes circonstances. Pas de chercher à qui jeter la pierre en cas de défaillance. Et pour nous, maîtriser la chaîne de responsabilité c’est aussi internaliser toutes les problématiques pour les résoudre au plus vite. 

C’est précisément la raison pour laquelle les promesses de services managés sur des infrastructures externalisées nous laissent songeurs. 

Perdre la main sur les infrastructures, c’est perdre la main sur le service

En matière d’infogérance ou de services managés, perdre les compétences internes en infrastructures n’a rien d’une évolution. C’est même une régression.

Entendons-nous bien, c’est possible de proposer de l’infogérance ou du service managé en externalisant les infrastructures. En revanche c’est un casse-tête à assumer. Entre la gestion du multi-zone chez les pourvoyeurs d’infrastructures et la difficulté de redonder les données quand on multiplie les prestataires et les services, la démarche devient inutilement complexe.

Le nerf de la guerre en matière d’infogérance, c’est de cartographier l’intégralité des risques possibles et imaginables. C’est pour ça que nous répétons souvent que la haute disponibilité est une discipline sans fin, c’est une chasse perpétuelle aux SPOF (Single Point Of Failure). Multiplier les prestataires c’est accroître de manière exponentielle ces SPOF.

De l’utilité de décentraliser les compétences en infrastructures

Pour autant, nous ne cherchons pas à faire l’autruche. La tendance de notre marché est belle et bien à l’externalisation et nous la comprenons. À l’instar du “no-code”, le “no-ops” a sa place sur notre marché et notre secteur d’activité notamment pour des petits projets. Pour les projets, sites et applications à gros enjeux business, nous recommandons plutôt de savoir précisément dans quelles infras vous mettez les pieds pour en comprendre les limites et les sources potentielles de problèmes pour les anticiper un maximum. 

En revanche là où l’externalisation des métiers et compétences liés aux infrastructures nous pose problème, c’est qu’elle s’accompagne d’une centralisation de l’activité autour de quelques prestataires. À tel point qu’aujourd’hui, une toute petite poignée d’acteurs détient une grande partie des infrastructures. Aujourd’hui près de 20 à 30 % du trafic mondial passe par Cloudflare. C’est une excellente nouvelle pour eux, mais un peu moins pour nous. À force de trop centraliser, nous augmentons le risque de pannes globales comme récemment avec Fastly.

C’est une tendance qui, à notre sens, va à l’encontre de la philosophie web, qui a fait de la décentralisation des compétences et la diversité des acteurs un réel moteur d’innovation. La centralisation crée des monopoles qui figent un marché et empêchent l’innovation d’émerger aussi rapidement qu’elle ne le devrait. 

Alors non, l’exploitation des infrastructures ce n’est pas juste « racker des serveurs » et oui, évidemment qu’elles apportent de la valeur ajoutée aux services cloud. Mais la question des infrastructures dépasse le simple débat de leur valeur ajoutée. C’est aujourd’hui devenu une question de dépendance technique et technologique. Et dans l’IT, la dépendance n’est jamais souhaitable.

Vous êtes à la recherche d'un hébergeur infogéreur ayant ses propres infrastructures situées en France ?

Laissez-nous vos coordonnées via le formulaire, nous vous recontacterons rapidement pour discuter de vos enjeux business et techniques.

Vous acceptez notre Politique de données personnelles et le fait d'être recontacté.