A la lecture récente du billet d’Alan Quayle sur le « Realtime Cloud », ou cloud temps-réel, je me suis dit qu’un tour d’horizon des différents aspects de cette nouvelle sous-branche du cloud serait bénéfique. Dit simplement, le cloud temps-réel est basé sur une infrastructure cloud hautes performances supportant des services en temps-réel et des APIs pour tous les terminaux connectés.
agilité, rapidité et adaptabilité
Avant de rentrer dans le vif du sujet, je précise que les évolutions apportées par le cloud visent entre autres à améliorer l’agilité, la rapidité et l’adaptabilité des process dans un monde distribué, évolutif et collaboratif dans lequel l’efficacité des interactions entre les acteurs est cruciale pour l’innovation.
Je vous propose d’utiliser quatre points de vue différents, constituants, complémentaires et essentiels de la construction d’un cloud temps-réel. Voici les 2 premiers …
d'un point de vue « réseau »
Squelette fondamental de toute communication numérique, la qualité du réseau et son aptitude à délivrer bande passante maximale, latence minimale et SLAs optimaux sont à la base de l’efficacité des échanges numériques, quels que soient le nombre de sites et leur éloignement respectif. C’est notre ADN et notre principal atout pour le cloud, et je ne le commenterai pas plus.
d'un point de vue « infrastructure »
La partie infrastructure, basée sur une virtualisation de plus en plus sophistiquée et hypervisée, repose sur des couches matérielles du type serveur et espace de stockage physiques. Issues d’une longue expérience de gestion de la performance chez les constructeurs, ces briques peuvent être plus ou moins optimisées en fonction du besoin, et aptes dans certains cas à approcher le traitement temps-réel. Les spécifications de ces briques doivent être prises en compte lors de la recherche d’une performance visée, dépendante du type de process à mettre en œuvre.
Pour accélérer les transactions sur les bases de données, le calcul « en mémoire » (in-memory) peut également être utilisé, comme par exemple avec SAP qui a introduit HANA et rendu récemment sa suite ERP compatible avec cette technologie. La vitesse de traitement des transactions est alors bien plus rapide, puisque n’utilisant pas les accès disques. AWS a d’ailleurs introduit récemment la possibilité de mettre en place des services cloud EC2 orientés calculs en-mémoire et supportant les clusters conçus pour les applications hautes performances.
Enfin, la partie virtualisation doit être la plus performante possible, tant sur le plan de l’overhead système que sur le plan de l’efficacité de l’orchestration des flux en entrée et en sortie, et de l’interopérabilité avec le monde extérieur, qui peut être composé de clouds de natures différentes.
Dans la suite de l’article, j’observerai le point de vue des "process métiers" avec l’avènement du travail collaboratif et celui de la « mobilité » avec l’arrivée de la 4G.
Gilles Deghilage
crédit photo © Africa Studio - Fotolia.com
Passionné de physique, et spécialisé en simulation numérique, j’ai démarré mon expérience par des simulations de fluide turbulent 3D et de trajectographie spatiale. Pour comprendre les architectures nécessaires au calcul scientifique, toujours plus parallèles, j’ai rejoint des constructeurs aux Etats Unis et en Europe, et ai suivi les évolutions vers le Grid Computing puis le Cloud Computing. Expert technique et commercial des solutions du domaine, je me concentre aujourd’hui au « Business Development » Cloud en m’appuyant sur mon réseau dans l’écosystème IT.