Le stockage dans le cloud : les points clés à connaître pour optimiser son utilisation – Par Joris Dedieu, Ingénieur Technique de NFrance

Avec l’émergence du cloud computing et en particulier des plateformes de RackSpace et Amazon (S3) ainsi que d’acteurs comme Dropbox, le stockage a radicalement changé. Joris Dedieu, Ingénieur Technique NFrance, revient sur ces changements induits par l’évolution des utilisations tout en donnant les clés pour définir un stockage de qualité optimale.

Le stockage est une infrastructure support essentielle à de nombreuses activités allant de la délivrance de contenu multimédia, à la synchronisation des périphériques nomades en passant par l’archivage, le partage et l’échange de données.  Avant de parler des DropBox et autres Icloud, il faut essayer de se figurer ce que représente le stockage dans l’ensemble des activités liés à l’informatique : disques durs d’ordinateur, cartes mémoires dans les téléphones ou les appareils photos, Blue-Ray, les sauvegardes … Le stockage est le moyen de la persistance des données.

Traditionnellement, il est commercialisé sous forme de disques réels ou virtuels que l’on peut ensuite utiliser à sa guise. Dans le cadre d’une unité accessible par le réseau, nous parlerons d’un NAS (Network Area Storage). Cependant, cette approche pose plusieurs problèmes. Le premier, et non des moindres, est qu’un disque, même virtuel, doit être provisionné. Il y a donc un coût fixe incompressible à ce type de solution quel qu’en soit l’usage. De plus, dans le cas des NAS particulièrement, nous sommes souvent contraints par l’intelligence associée à la solution. Un NAS connaît un certain nombre de protocoles, de traitements sur les données  mais uniquement ceux prévus par l’intégrateur de la solution.

Le stockage, une approche redéfinie par l’évolution de l’offre

Le stockage est devenu une abstraction, qui n’a, a priori, ni capacité ni limites. L’image du disque est effacée au profit de celle du service. De ce fait, le coût fixe est remplacé par un coût d’usage. Il n’y a plus non plus de limite à l’intelligence de la solution puisque celle-ci n’est qu’un service parmi d’autres, que le développeur ou l’intégrateur utilise de façon abstraite.

Cependant cette nouvelle perception induit quelques difficultés.

Tout d’abord si le stockage n’a plus d’intelligence, la quantité de transfert à effectuer pour le traitement des données devient beaucoup plus importante. En effet il n’y a plus de traitement là où les données sont stockées. Chaque traitement nécessite donc un cycle téléchargement, traitement, upload.  Fini les unités de stockage qui savent transcoder des vidéo, générer des vignettes, indexer les fichiers bureautiques …

En revanche, cela permet beaucoup plus de souplesse quant à la conception et à l’évolution du service de conversion qui deviennent alors de véritables services génériques pouvant même faire l’objet d’un business séparé.

Cet exemple met ainsi en lumière le fait que la clé du stockage dans le Cloud n’est plus tant le stockage lui-même que le transfert, autrement dit le réseau.

Le second problème provient de l’approche à la demande qui complexifie souvent outre mesure la gestion des coûts. Le réseau, le stockage et les opérations sur les données font alors l’objet d’une tarification distincte dans laquelle il est souvent difficile pour les utilisateurs de s’y retrouver.

Les clés pour définir le stockage de qualité

Face aux problèmes référencés, il faut étudier de manière attentive les différentes offres proposées. Nous pouvons ainsi dégager trois critères principaux, garants de la qualité de l’offre :

  • la redondance des données autrement dit le rapport entre l’évolution de l’architecture et l’évolution du volume de données, et plus explicitement le risque de perdre des données. Ce point est d’autant plus délicat que peu d’acteurs communiquent sur la réalité de leur infrastructure.
  • la disponibilité, c’est à dire la qualité du réseau mis en œuvre. Comme nous l’avons mentionné plus haut, c’est le point essentiel qui détermine la qualité de service.
  • la confidentialité qui ne peut, dans cette approche « as a service », se qualifier qu’en termes de confiance en l’opérateur.

Ces trois critères réunis permettront à n’importe quel acteur de savoir s’il peut se fier à une offre de service saine ou non. A rappeler toutefois que pour tout projet de stockage dans le cloud, il faut bien entendu analyser finement ses besoins et fixer des priorités dans ses objectifs avant de choisir l’offre la plus adaptée.

Corinne
Depuis plus de 25 ans dans le métier de la communication et du marketing, Corinne a démarré sa carrière à la télévision avant de rejoindre une agence événementielle. Curieuse dans l’âme, elle poursuit sa carrière dans l’IT et intègre une société de conseil en éditique puis entre chez un éditeur de logiciels leader sur son marché, SEFAS. Elle est ensuite nommée Directrice Communication chez MGI Digital Graphic, constructeur de matériel d’impression numérique et de finition international coté en bourse. Revenue en 2008 chez SEFAS au poste de Directrice Marketing et Communication groupe, elle gère une équipe répartie sur 3 géographies (France, Etats-Unis et Angleterre), crée le groupe utilisateurs de l’entreprise et lance un projet de certification ISO 9001, ISO 14001 et ISO 26000 couronné de succès. Pendant 7 ans membre du conseil d’administration de l’association professionnelle Xplor France et 2 ans sa Présidente, Corinne a créé dès 2010 TiKibuzz, son agence de marketing et de communication. Elle devient Directrice de la Communication en charge des Relations Presse, du Lobbying et du marketing digital chez DOCAPOST, groupe La Poste, durant 3 ans avant de rejoindre la start-up FINTECH Limonetik, en 2013. C'est cette même année qu'elle crée votre média professionnel, DOCaufutur, l'avenir du document.

More from author

Restez connectez !

Nous diffusons une Newsletter mensuelle incluant des dossiers thématiques, interviewes et investigations réalisées par nos journalistes indépendants.
Vous souhaitez recevoir notre lettre d’informations?