L’avenir dans les nuages?

Numéro dossier: 0

Index de l'article



Beaucoup d’entreprises regardent encore avec détachement le développement du «cloud computing», se posant des questions sur sa pertinence et sa fiabilité. Des études sérieuses tendent, néanmoins, à faire croire qu’au regard de ses avantages, le succès marketing est une question de temps.


Le cloud computing  ou informatique en nuages, est, selon la définition donnée  par l’encyclopédie en ligne Wikipedia, « un concept majeur faisant référence à l'utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier, et liés par un réseau, tel Internet. Les utilisateurs ne sont plus propriétaires de leurs serveurs informatiques mais peuvent ainsi accéder de manière évolutive à de nombreux services en ligne sans avoir à gérer l'infrastructure sous-jacente, souvent complexe. Les applications et les données ne se trouvent plus sur l'ordinateur local, mais - métaphoriquement parlant - dans un nuage (Cloud) composé d'un certain nombre de serveurs distants interconnectés au moyen d'une excellente bande passante indispensable à la fluidité du système. L'accès au service se fait par une application standard facilement disponible, la plupart du temps un navigateur Web ». Le cloud computing fait référence à l'utilisation de la mémoire et des capacités de calcul des ordinateurs et des serveurs répartis dans le monde entier, et liés par un réseau, tel Internet. Les utilisateurs du nuage pourraient ainsi disposer d'une puissance informatique considérable et modulable.

Cette technique est en passe de devenir un business. L'ensemble de puissance de calcul et de mémoire, conçu comme un outil proposé comme un service à des clients par une entreprise est annoncé par certains professionnels du secteur comme l'ultime étape de l'industrialisation des centres de données. A l'image de la puissance électrique il y a un siècle, la puissance de calcul et de stockage de l'information serait proposée à la consommation par des compagnies spécialisées. De ce fait, les entreprises n'auraient plus besoin de serveurs propres, mais confieraient cette ressource à une entreprise qui leur garantirait une puissance de calcul et de stockage à la demande. Le pari commercial n’est pas encore gagné même si les prévisions les plus sérieuses prédisent un succès marketing dans les prochaines années. Les grosses entreprises mondiales sont déjà descendues sur ce terrain.

Amazon a été une des premières entreprises à proposer par l'intermédiaire de ses outils S3 (Simple Storage Service) et EC2 (Elastic Compute Cloud) du stockage et de la puissance de calcul tirée de son infrastructure informatique pour des clients. Le journal le New York Times est par ailleurs client d'Amazon et utilise le S3 pour ses archives en ligne. Google est le grand champion du cloud computing. L'entreprise a débuté ses activités dans ce domaine avec le projet Google 101, et ce de manière à créer un réseau entre des universités à des fins de recherche. Aujourd'hui, le projet de cloud computing, réalisé en partenariat avec IBM, tend à créer des centres de calculs, appelés clusters, d'une puissance jamais atteinte jusqu'alors. IBM, dans le cadre de son programme Blue Cloud annoncé en novembre 2007, est en train d'ouvrir des centres continentaux de cloud computing (celui pour l'Europe est basé à Dublin en Irlande). Trois centres existent aux Etats-Unis, un autre est également installé en Chine et un second est en préparation.  D'autres devraient prochainement être réalisés au Brésil, en Afrique du Sud, en Inde, dans la péninsule arabique, au Vietnam et en Corée. Il s'agit en fait d'immenses centres de données, que l'on appelle aussi data fields, à destination d'utilisateurs extérieurs à l'entreprise, qui seront facturés sur l'usage des ressources informatiques mises à leur disposition. Et certaines grosses firmes du monde de l'informatique se sont décidées à sauter le pas.

Sun Microsystem vient d'annoncer que d'ici à 2015, l'ensemble des centres de calcul de l'entreprise sera virtualisé chez des tiers dans le cadre d'un cloud.  D'autres acteurs, tels EMC Corporation, acteur des logiciels d'infrastructure, s'engagent dans des stratégies de rachat et de croissance externalisée pour mettre au point des offres de cloud computing. EMC vient par exemple de racheter Pi Corporation, un jeune éditeur de solutions de gestion d'informations personnelles en ligne, basé à Seattle. HP quant à lui propose un service d'impression par le biais de son propre nuage, baptisé CloudPrint. Réputé sérieux dans ses analyses, le cabinet d’études de Stamford (Etats-Unis) spécialisés dans les nouvelles technologies, Gartner a publié tout récemment une intéressante prévision sur le futur développement commercial de ce service. Le cabinet d'études estime que le chiffre d'affaires du marché des plates-formes permettant de créer et d'exploiter des services hébergés devraient atteindre 56,3 milliards de dollars en 2009, en hausse de 21,3% par rapport à l'année précédente (46,4 milliards de dollars). A l'horizon 2013, Gartner parie que le cloud computing pèsera 150 milliards de dollars d'ici 2013."La plus grande proportion du business sera lié à un transfert des services IT traditionnels vers un modèle cloud computing. Mais il existe également un champs d'exploration pour de nouvelles activités autour avec des flux de revenus associés", commente Ben Pring, en qualité de Vice-Président "Etudes" chez Gartner. Ce sont les "business process" (ou des services générateurs de revenus) qui tirent profit du cloud. En 2008, ils ont représenté 83% du marché global (38,9 milliards de dollars). On y retrouve des services de publicité, de commerce électronique, de ressources humaines et de process de paiement. Selon les prévisions de Gartner, la croissance de ce segment cloud au vaste périmètre serait de presque 20% cette année.

"Les services, dont le modèle économique est orienté vers la publicité, resteront la composante la plus large du marché des services conçus en mode cloud jusqu'en 2013", assure le représentant du cabinet d'études. En 2009, la publicité fondée sur le cloud devrait représenter 58% du marché global des services "dans les nuages", soit un business de 33 milliards de dollars tiré par des acteurs mondiaux comme Google, Yahoo ou Microsoft. De quoi refondre le paysage de la publicité en ligne, assure Gartner. Mais le mouvement devrait s'amplifier jusqu'en 2013 au regard des champs des possibles en termes d'exploitation de services IT. "Mais tout dépend dans quelle mesure les principaux groupes d'infogérance et leurs clients vont embrasser le cloud computing." Un comportement qui reste pour l’heure dubitatif si l’on se réfère à certaines études menées auprès d’entreprises encore dubitatives, pour ne pas dire ignorante de la chose.


Une récente étude réalisée à la demande de l'hébergeur américain Rackspace, révèle, en effet que « 57 % des entreprises britanniques et américaines risquent de voir les avantages du cloud computing leur échapper pour la simple raison qu’elles ne comprennent pas ce concept, encore souvent mal défini ».Selon Rackspace, de nombreuses entreprises voient le cloud hosting comme des "applications via Internet", environ 14 % l’assimilent à la technologie de virtualisation et 8 % à un système de stockage en ligne. Un tiers des entreprises américaines et 27 % des entreprises britanniques reconnaissent tout simplement ignorer comment utiliser le cloud computing dans leur infrastructure informatique. "Le cloud computing est idéal dans le contexte économique actuel, mais il est essentiel que les entreprises comprennent comment exploiter au mieux cette technologie", explique Lew Moorman, directeur stratégique de Rackspace Hosting. "Rackspace est favorable à l'établissement de directives claires afin d’informer les entreprises sur la manière d’exploiter au mieux cette technologie. Le cloud computing sera au centre de la stratégie des entreprises en 2009. Elle ne se limitera pas uniquement au personnel informatique curieux de connaître ses avantages, mais s’étendra à l’ensemble de l’entreprise."

Pour l’heure subsistent encore certaines craintes nées essentiellement de points faibles. Le principal  risque concerne la gestion des données externalisées. La géolocalisation de ces dernières peut poser des problèmes juridiques comme l’indique Cédric Bravo, MVP virtualisation et co-président du groupe utilisateur sur la virtualisation : « le principe même du Cloud est de faire disparaître les barrières physiques et géographiques. De facto et par son concept même, la localisation physique des données dans le Cloud n'est plus une information pertinente. » D’après lui, le fournisseur du service doit offrir les garanties de contrôle de la localisation des données à l’échelle d’un pays ou d’une zone géopolitique.  Plus grave encore, la perte ou la fuite de données sont des points particulièrement sensibles. Lors de la faille du 10 mars dernier, certains documents stockés sur Google Docs ont été diffusés à leurs contacts sans aucun consentement. L’incident aurait touché 0.5 % de l’ensemble des données. Cédric Bravo se veut néanmoins rassurant : « L'externalisation des données fait peur, même si dans bien des cas, elles sont beaucoup mieux sécurisées dans le Cloud que dans l'entreprise » indique-t-il. « Le principal avantage du "clouding" réside dans le concept d'infrastructure dynamique hautement redondée ». Autrement dit, votre donnée existe en deux, voir, en trois exemplaires disséminés sur plusieurs datacenters. C’est donc aux entreprises clientes d'évaluer l'externalisation de ses données sachant que le risque zéro n'existe pas.

« En pratique » explique Guillaume Ploin « les entreprises n’externalisent jamais l’intégralité de leurs données et gardent avec eux les contenus sensibles. Dans le monde de la banque par exemple, l’externalisation est absolument inenvisageable. » D’autre part, qui dit service sur Internet dit dépendance au réseau. Il est vrai que les entreprises fournissant des SAAS deviennent indispensables à partir du moment où on loue leurs services. Une stratégie risquée lorsque l’on confie des données mais aussi des applications clientes comme c’est le cas pour Windows Azure. Selon Guillaume Plouin, le risque de dépendance est bel et bien avéré mais il ne change pas vraiment la donne «  beaucoup d’entreprises sont dépendantes du réseau. Sans internet, Elles n’auraient quasiment plus d’activité. Le Cloud ne fait qu’accentuer les choses. » Des parades existent cependant pour contrer cette dépendance comme la mise à disposition par certains acteurs du marché, d’API (interface de programmation applicative) qui permettent aux clients de développer des scripts d’extraction de données. Cette dépendance au Cloud Computing pose aussi des questions d’ordre économique. Si les services proposés sont très avantageux, on ne peut pas prévoir comment les prix vont évoluer. « Il y a une guerre des prix qui n’est pas encore terminée » indique Cédric Bravo. Cette surenchère associée à une baisse du prix du matériel profite aux clients. Pour le moment, les seules choses qui n’évoluent pas sont les coûts de maintenance et d’exploitation». 
 
Des normes pour l’interopérabilité ?


En plus de ces risques se pose l’épineuse problématique de l’interopérabilité qui hante les professionnels. Spécialisée dans le stockage des données,  la Storage Networking Industry Association veut convaincre les acteurs du stockage des bienfaits de l’interopérabilité dans le cloud computing.
La volonté de développer l’interopérabilité dans le cloud computing pousse les firmes IT à prendre leur marque. La dernière initiative en date revient à la SNIA (Storage Networking Industry Association), une association qui accompagne les professionnels du monde du stockage.
Au début du mois d’avril, l’organisation composée de 400 membres a mis en place un groupe de travail technique dédié au cloud storage. Autrement dit un pool d’experts chargé de réfléchir aux bonnes pratiques à adopter dans le cadre du "stockage en ligne partagé", selon les termes de la SNIA.
Le groupe aura notamment pour mission "d’identifier, de développer et de coordonner des systèmes et des interfaces standards", en d’autres termes, éviter la multiplication des standards et assurer l’interopérabilité des différents solutions que les différents acteurs du secteur ne manqueront pas de proposer.

Des ratés !

Si la plupart du temps, les entreprises fournissant du Cloud Computing garantissent un usage constant, les faits prouvent qu’elles ne sont pas à l’abri de coupures intempestive. Le 24 février, le service de messagerie de Google Gmail tombait en panne laissant plusieurs millions d’utilisateurs sur le carreau.
Le 10 mars, le service Google docs, qui permet de créer et de partager des documents, a déraillé pendant 2h.  Le 13 mars enfin, c’est la bêta de Windows Azure qui s’est éteinte pendant une journée entière.  Pour sa défense, Google a argué que ses services assurent un taux de disponibilité de 99.9 % de disponibilité. Microsoft de son côté a indiqué que son offre SaaS était encore en cours de rodage. D’après Guillaume Plouin auteur du livre Cloud computing et SAAS, ces pannes sont un risque courant et quasiment inévitable : « en ce qui concerne Azure, le produit est encore en « developers  preview ». Il est donc normal que le service fonctionne mal. Pour Google, l’interruption de Gmail et de Google Docs a effectivement été handicapante mais ce genre de problèmes existe aussi pour les services internes des entreprises. Pour l’instant il n’est pas prouvé que le Cloud Computing ait une moins bonne disponibilité que ce qui se fait en interne».

Source: El Moudjahid