Lutter contre l’ anarchie des données : un défi majeur pour les entreprises aujourd’hui – Par Emmanuel Serrurier, Directeur Général France d’Informatica

Les entreprises les plus performantes ont déjà fait évoluer leur architecture IT pour améliorer l’autonomie des analystes et l’agilité IT, tout en respectant les réglementations en matière de sécurité et de gouvernance. Pourtant, un certain nombre d’irréductibles « anarchistes des données » demeurent sceptiques quant à la pertinence du rôle croissant de la technologie en entreprise. Cette réticence persiste quand bien même les technologies comprenant les « données sur les données » ou métadonnées sont devenues de plus en plus importantes dans un monde marqué par l’importation de données d’énormes volumes de données non structurées et de schémas dynamiques. La technologie détient un rôle majeur en aidant les entreprises à extraire des informations utiles d’ensembles de données volumineux et variés.

La réponse n’est pas l’ anarchie des données, mais la démocratie des données.

Comment, alors, les entreprises peuvent-elles faire évoluer leur architecture IT pour assurer la démocratie des données ?  Emmanuel Serrurier, Directeur Général d’Informatica France propose sept bonnes pratiques spécifiques qui ont abouti à des processus d’analyse décisionnelle plus performants sans l’ anarchie des données.

  1. Automatiser l’importation de données avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances. Avec des plates-formes de données efficaces et évolutives telles que Hadoop, les données non préparées peuvent être ingérées à l’état brut, sans processus manuels et complexes. Le processus d’automatisation d’importation avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances permettent de gagner en agilité et en rapidité.
  2. Adapter les données aux différentes catégories d’analystes. Les nouvelles catégories de data scientists peuvent préférer obtenir très rapidement des données propres à 70 % contrairement aux utilisateurs de systèmes de BI classiques qui sont prêts à attendre des données propres à 100 %. Différentes catégories de données adaptées peuvent être fournies sur des plates-formes telles que Hadoop avec des outils de profilage et de validation des données rapides.
  3. Permettre aux utilisateurs de données d’intégrer facilement des données avec les leurs. La qualité des données ne doit plus être un processus purement IT. Après un nettoyage initial, il faut permettre aux utilisateurs de données techniques tels que les Data Scientists d’accéder directement aux données avec des outils d’intégration de données légers pour qu’ils puissent collaborer dans le processus de curation des données.
  4. Exécuter un processus de curation de données agile avec des fonctions de collaboration multi-utilisateurs et de prototypage rapide. La rapidité et le succès des projets Big Data sont toujours le fruit de la collaboration entre les parties prenantes et le département IT. Les outils multifacettes offrant des fonctions de prototypage rapide font de la curation de données un processus agile qui apporte rapidement de la valeur ajoutée.
  5. Surveiller la qualité des données au lieu d’en assurer la microgestion. La qualité des données ne doit pas être un processus fixe appliqué de la même façon à toutes les données. La surveillance et les alertes fondées sur des règles permettent au département IT de contrôler de manière flexible les processus liés aux données et d’assurer la visibilité de la qualité des différents types de données de manière collaborative.
  6. Permettre d’accéder aux données par le biais de la virtualisation ou du courtage. Avant de connaître la valeur des données, il n’est pas logique de les transférer à partir d’un système source. La virtualisation des données permet de fournir des vues rapides d’ensembles de données sans les transférer. Lorsque la valeur des données est connue, il est possible d’automatiser le transfert et la curation des données avec un courtier en données, qui intègre automatiquement les données dans une plate-forme centrale et permet aux utilisateurs d’y souscrire.
  7. Utiliser un catalogue de métadonnées universel alimenté par une solution d’analyse des données pour optimiser la rentabilité des données. Les nouvelles techniques d’apprentissage automatique et technologies graphiques peuvent être utilisées pour découvrir la structure, le sens et la valeur des données. Ces connaissances sont ensuite mises à la disposition des analystes et des informaticiens pour renforcer leur autonomie, tout en améliorant les processus de sécurité et de gouvernance.

Les avantages offerts par les architectures IT modernes permettent aux entreprises de fournir constamment les bonnes données au bon moment pour effectuer des analyses plus pertinentes et fiables. Ces pratiques constituent la base de la hiérarchisation des données. Les Chief Data Officers (directeurs de données) qui réussiront feront partis de ceux qui utiliseront des architectures IT évoluées pour développer une démocratie des données bien gouvernée et sécurisée.

Related Topics
Author
By
@coesteve1
Related Posts

Readers Comments


Add Your Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

In The News

Lutter contre l’ anarchie des données : un défi majeur pour les entreprises aujourd’hui – Par Emmanuel Serrurier, Directeur Général France d’Informatica

14th décembre, 2015

Les entreprises les plus performantes ont déjà fait évoluer leur architecture IT pour améliorer l’autonomie des analystes et l’agilité IT, tout en respectant les réglementations en matière de sécurité et de gouvernance. Pourtant, un certain nombre d’irréductibles « anarchistes des données » demeurent sceptiques quant à la pertinence du rôle croissant de la technologie en entreprise. Cette réticence persiste quand bien même les technologies comprenant les « données sur les données » ou métadonnées sont devenues de plus en plus importantes dans un monde marqué par l’importation de données d’énormes volumes de données non structurées et de schémas dynamiques. La technologie détient un rôle majeur en aidant les entreprises à extraire des informations utiles d’ensembles de données volumineux et variés.

La réponse n’est pas l’ anarchie des données, mais la démocratie des données.

Comment, alors, les entreprises peuvent-elles faire évoluer leur architecture IT pour assurer la démocratie des données ?  Emmanuel Serrurier, Directeur Général d’Informatica France propose sept bonnes pratiques spécifiques qui ont abouti à des processus d’analyse décisionnelle plus performants sans l’ anarchie des données.

  1. Automatiser l’importation de données avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances. Avec des plates-formes de données efficaces et évolutives telles que Hadoop, les données non préparées peuvent être ingérées à l’état brut, sans processus manuels et complexes. Le processus d’automatisation d’importation avec des connecteurs pré-intégrés ou des moteurs de traitement de données hautes performances permettent de gagner en agilité et en rapidité.
  2. Adapter les données aux différentes catégories d’analystes. Les nouvelles catégories de data scientists peuvent préférer obtenir très rapidement des données propres à 70 % contrairement aux utilisateurs de systèmes de BI classiques qui sont prêts à attendre des données propres à 100 %. Différentes catégories de données adaptées peuvent être fournies sur des plates-formes telles que Hadoop avec des outils de profilage et de validation des données rapides.
  3. Permettre aux utilisateurs de données d’intégrer facilement des données avec les leurs. La qualité des données ne doit plus être un processus purement IT. Après un nettoyage initial, il faut permettre aux utilisateurs de données techniques tels que les Data Scientists d’accéder directement aux données avec des outils d’intégration de données légers pour qu’ils puissent collaborer dans le processus de curation des données.
  4. Exécuter un processus de curation de données agile avec des fonctions de collaboration multi-utilisateurs et de prototypage rapide. La rapidité et le succès des projets Big Data sont toujours le fruit de la collaboration entre les parties prenantes et le département IT. Les outils multifacettes offrant des fonctions de prototypage rapide font de la curation de données un processus agile qui apporte rapidement de la valeur ajoutée.
  5. Surveiller la qualité des données au lieu d’en assurer la microgestion. La qualité des données ne doit pas être un processus fixe appliqué de la même façon à toutes les données. La surveillance et les alertes fondées sur des règles permettent au département IT de contrôler de manière flexible les processus liés aux données et d’assurer la visibilité de la qualité des différents types de données de manière collaborative.
  6. Permettre d’accéder aux données par le biais de la virtualisation ou du courtage. Avant de connaître la valeur des données, il n’est pas logique de les transférer à partir d’un système source. La virtualisation des données permet de fournir des vues rapides d’ensembles de données sans les transférer. Lorsque la valeur des données est connue, il est possible d’automatiser le transfert et la curation des données avec un courtier en données, qui intègre automatiquement les données dans une plate-forme centrale et permet aux utilisateurs d’y souscrire.
  7. Utiliser un catalogue de métadonnées universel alimenté par une solution d’analyse des données pour optimiser la rentabilité des données. Les nouvelles techniques d’apprentissage automatique et technologies graphiques peuvent être utilisées pour découvrir la structure, le sens et la valeur des données. Ces connaissances sont ensuite mises à la disposition des analystes et des informaticiens pour renforcer leur autonomie, tout en améliorant les processus de sécurité et de gouvernance.

Les avantages offerts par les architectures IT modernes permettent aux entreprises de fournir constamment les bonnes données au bon moment pour effectuer des analyses plus pertinentes et fiables. Ces pratiques constituent la base de la hiérarchisation des données. Les Chief Data Officers (directeurs de données) qui réussiront feront partis de ceux qui utiliseront des architectures IT évoluées pour développer une démocratie des données bien gouvernée et sécurisée.

By
@coesteve1
backtotop