Le stockage dans le cloud : les points clés à connaître pour optimiser son utilisation – Par Joris Dedieu, Ingénieur Technique de NFrance

Cloud Computing

Avec l’émergence du cloud computing et en particulier des plateformes de RackSpace et Amazon (S3) ainsi que d’acteurs comme Dropbox, le stockage a radicalement changé. Joris Dedieu, Ingénieur Technique NFrance, revient sur ces changements induits par l’évolution des utilisations tout en donnant les clés pour définir un stockage de qualité optimale.

Le stockage est une infrastructure support essentielle à de nombreuses activités allant de la délivrance de contenu multimédia, à la synchronisation des périphériques nomades en passant par l’archivage, le partage et l’échange de données.  Avant de parler des DropBox et autres Icloud, il faut essayer de se figurer ce que représente le stockage dans l’ensemble des activités liés à l’informatique : disques durs d’ordinateur, cartes mémoires dans les téléphones ou les appareils photos, Blue-Ray, les sauvegardes … Le stockage est le moyen de la persistance des données.

Traditionnellement, il est commercialisé sous forme de disques réels ou virtuels que l’on peut ensuite utiliser à sa guise. Dans le cadre d’une unité accessible par le réseau, nous parlerons d’un NAS (Network Area Storage). Cependant, cette approche pose plusieurs problèmes. Le premier, et non des moindres, est qu’un disque, même virtuel, doit être provisionné. Il y a donc un coût fixe incompressible à ce type de solution quel qu’en soit l’usage. De plus, dans le cas des NAS particulièrement, nous sommes souvent contraints par l’intelligence associée à la solution. Un NAS connaît un certain nombre de protocoles, de traitements sur les données  mais uniquement ceux prévus par l’intégrateur de la solution.

Le stockage, une approche redéfinie par l’évolution de l’offre

Le stockage est devenu une abstraction, qui n’a, a priori, ni capacité ni limites. L’image du disque est effacée au profit de celle du service. De ce fait, le coût fixe est remplacé par un coût d’usage. Il n’y a plus non plus de limite à l’intelligence de la solution puisque celle-ci n’est qu’un service parmi d’autres, que le développeur ou l’intégrateur utilise de façon abstraite.

Cependant cette nouvelle perception induit quelques difficultés.

Tout d’abord si le stockage n’a plus d’intelligence, la quantité de transfert à effectuer pour le traitement des données devient beaucoup plus importante. En effet il n’y a plus de traitement là où les données sont stockées. Chaque traitement nécessite donc un cycle téléchargement, traitement, upload.  Fini les unités de stockage qui savent transcoder des vidéo, générer des vignettes, indexer les fichiers bureautiques …

En revanche, cela permet beaucoup plus de souplesse quant à la conception et à l’évolution du service de conversion qui deviennent alors de véritables services génériques pouvant même faire l’objet d’un business séparé.

Cet exemple met ainsi en lumière le fait que la clé du stockage dans le Cloud n’est plus tant le stockage lui-même que le transfert, autrement dit le réseau.

Le second problème provient de l’approche à la demande qui complexifie souvent outre mesure la gestion des coûts. Le réseau, le stockage et les opérations sur les données font alors l’objet d’une tarification distincte dans laquelle il est souvent difficile pour les utilisateurs de s’y retrouver.

Les clés pour définir le stockage de qualité

Face aux problèmes référencés, il faut étudier de manière attentive les différentes offres proposées. Nous pouvons ainsi dégager trois critères principaux, garants de la qualité de l’offre :

  • la redondance des données autrement dit le rapport entre l’évolution de l’architecture et l’évolution du volume de données, et plus explicitement le risque de perdre des données. Ce point est d’autant plus délicat que peu d’acteurs communiquent sur la réalité de leur infrastructure.
  • la disponibilité, c’est à dire la qualité du réseau mis en œuvre. Comme nous l’avons mentionné plus haut, c’est le point essentiel qui détermine la qualité de service.
  • la confidentialité qui ne peut, dans cette approche « as a service », se qualifier qu’en termes de confiance en l’opérateur.

Ces trois critères réunis permettront à n’importe quel acteur de savoir s’il peut se fier à une offre de service saine ou non. A rappeler toutefois que pour tout projet de stockage dans le cloud, il faut bien entendu analyser finement ses besoins et fixer des priorités dans ses objectifs avant de choisir l’offre la plus adaptée.

Related Topics
Author
By
@coesteve1
Related Posts

Readers Comments


Add Your Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

In The News

Le stockage dans le cloud : les points clés à connaître pour optimiser son utilisation – Par Joris Dedieu, Ingénieur Technique de NFrance

Cloud Computing 28th janvier, 2014

Avec l’émergence du cloud computing et en particulier des plateformes de RackSpace et Amazon (S3) ainsi que d’acteurs comme Dropbox, le stockage a radicalement changé. Joris Dedieu, Ingénieur Technique NFrance, revient sur ces changements induits par l’évolution des utilisations tout en donnant les clés pour définir un stockage de qualité optimale.

Le stockage est une infrastructure support essentielle à de nombreuses activités allant de la délivrance de contenu multimédia, à la synchronisation des périphériques nomades en passant par l’archivage, le partage et l’échange de données.  Avant de parler des DropBox et autres Icloud, il faut essayer de se figurer ce que représente le stockage dans l’ensemble des activités liés à l’informatique : disques durs d’ordinateur, cartes mémoires dans les téléphones ou les appareils photos, Blue-Ray, les sauvegardes … Le stockage est le moyen de la persistance des données.

Traditionnellement, il est commercialisé sous forme de disques réels ou virtuels que l’on peut ensuite utiliser à sa guise. Dans le cadre d’une unité accessible par le réseau, nous parlerons d’un NAS (Network Area Storage). Cependant, cette approche pose plusieurs problèmes. Le premier, et non des moindres, est qu’un disque, même virtuel, doit être provisionné. Il y a donc un coût fixe incompressible à ce type de solution quel qu’en soit l’usage. De plus, dans le cas des NAS particulièrement, nous sommes souvent contraints par l’intelligence associée à la solution. Un NAS connaît un certain nombre de protocoles, de traitements sur les données  mais uniquement ceux prévus par l’intégrateur de la solution.

Le stockage, une approche redéfinie par l’évolution de l’offre

Le stockage est devenu une abstraction, qui n’a, a priori, ni capacité ni limites. L’image du disque est effacée au profit de celle du service. De ce fait, le coût fixe est remplacé par un coût d’usage. Il n’y a plus non plus de limite à l’intelligence de la solution puisque celle-ci n’est qu’un service parmi d’autres, que le développeur ou l’intégrateur utilise de façon abstraite.

Cependant cette nouvelle perception induit quelques difficultés.

Tout d’abord si le stockage n’a plus d’intelligence, la quantité de transfert à effectuer pour le traitement des données devient beaucoup plus importante. En effet il n’y a plus de traitement là où les données sont stockées. Chaque traitement nécessite donc un cycle téléchargement, traitement, upload.  Fini les unités de stockage qui savent transcoder des vidéo, générer des vignettes, indexer les fichiers bureautiques …

En revanche, cela permet beaucoup plus de souplesse quant à la conception et à l’évolution du service de conversion qui deviennent alors de véritables services génériques pouvant même faire l’objet d’un business séparé.

Cet exemple met ainsi en lumière le fait que la clé du stockage dans le Cloud n’est plus tant le stockage lui-même que le transfert, autrement dit le réseau.

Le second problème provient de l’approche à la demande qui complexifie souvent outre mesure la gestion des coûts. Le réseau, le stockage et les opérations sur les données font alors l’objet d’une tarification distincte dans laquelle il est souvent difficile pour les utilisateurs de s’y retrouver.

Les clés pour définir le stockage de qualité

Face aux problèmes référencés, il faut étudier de manière attentive les différentes offres proposées. Nous pouvons ainsi dégager trois critères principaux, garants de la qualité de l’offre :

  • la redondance des données autrement dit le rapport entre l’évolution de l’architecture et l’évolution du volume de données, et plus explicitement le risque de perdre des données. Ce point est d’autant plus délicat que peu d’acteurs communiquent sur la réalité de leur infrastructure.
  • la disponibilité, c’est à dire la qualité du réseau mis en œuvre. Comme nous l’avons mentionné plus haut, c’est le point essentiel qui détermine la qualité de service.
  • la confidentialité qui ne peut, dans cette approche « as a service », se qualifier qu’en termes de confiance en l’opérateur.

Ces trois critères réunis permettront à n’importe quel acteur de savoir s’il peut se fier à une offre de service saine ou non. A rappeler toutefois que pour tout projet de stockage dans le cloud, il faut bien entendu analyser finement ses besoins et fixer des priorités dans ses objectifs avant de choisir l’offre la plus adaptée.

By
@coesteve1
backtotop