L’analyse en temps réel, technologie vedette de 2016 ? Vincent Bieri, Chief Product Evangelist & Co-Founder chez Nexthink

Strategy Development Goal Marketing Vision Planning Business Concept

D’après ZDNet, la veille de données est en passe de devenir une arme concurrentielle-clé en 2016. Toutefois, un paradoxe persiste : alors que 75 % des architectes d’entreprise souhaitent voir la politique d’entreprise orientée par les données, seuls 29 % d’entre eux estiment que leur société est capable de corréler des données d’analyse et des résultats exploitables. Si les investissements motivés par les données devaient se poursuivre au même rythme au cours des douze prochains mois, le point capital reste l’émergence d’une convergence de la science des données et de l’analyse en temps réel qui permettra de réduire le délai entre la requête et la réponse, mais aussi entre l’information et l’action.

Cette nouvelle tendance ne fait pas l’unanimité. Ses détracteurs estiment en effet qu’il existe une limite à la vitesse du relais statique. Que se passe-t-il lorsque les données sont tellement rapprochées dans le temps qu’elles deviennent des images non différenciables de problèmes informatiques ou de relations émergentes ? Si vous êtes suffisamment attentif, vous y verrez la naissance d’une nouvelle approche : les vues de données animées.

Visibilité accrue

Bon nombre d’entreprises perçoivent difficilement la différence entre une véritable analyse des données en temps réel et les techniques d’échantillonnage ponctuel des solutions de veille décisionnelle classiques. Après tout, n’est-il pas suffisant d’obtenir un rapport sur l’emplacement et l’intégrité des données toutes les cinq minutes ? Pourquoi investir dans les 299 secondes restantes ?

Prenons l’exemple d’un vol de voiture. Pour ouvrir le véhicule, faire démarrer le moteur et disparaître dans la nuit, il faut aux criminels bien moins de cinq minutes, deux ou trois tout au plus. Si le garde chargé de vérifier qu’aucune voiture ne quitte le parking possède un système de vidéosurveillance qui se déclenche toutes les cinq minutes pendant seulement quelques secondes, il a un problème. La première fois que la caméra se déclenche, le véhicule est à sa place. La fois suivante, il a disparu sans qu’il sache pourquoi ni comment et encore moins qui le conduisait.

En combinant les données en un flux continu en temps réel, il est possible d’obtenir une vue animée continue au lieu d’une série d’images statiques qui risquent de ne pas relayer certaines informations critiques ou d’induire en erreur vos analystes. Et comme une politique d’entreprise cohérente veut que les décisions prises se basent sur les informations disponibles, les « scènes manquantes » pourraient conduire à des investissements loin d’être optimaux ou à des politiques inefficaces concernant les utilisateurs finaux.

Évolution de la perception

Comme l’a souligné l’université de Washington, les premiers films cinématographiques n’avaient rien à voir ou presque avec les superproductions actuelles. Dans les années 1890, par exemple, les courts-métrages, qui duraient de 15 à 30 secondes seulement, cherchaient essentiellement à montrer le mouvement en temps réel. Des scènes telles qu’un train entrant en gare attiraient des foules de spectateurs parfois effrayés à la pensée de voir sortir le train de l’écran.

Le paysage actuel de l’analyse en temps réel ressemble aux premiers jours du cinéma. Les sociétés et les fournisseurs sont tous fascinés par la capacité à animer les données, même s’il ne s’agit que de courtes séquences prises en dehors du contexte métier plus large. Heureusement, le marché de l’analyse des opérations informatiques (ITOA) évoluera, comme l’a fait l’industrie du cinéma. Si l’on s’en réfère à l’article récent de Tech Target, c’est la qualité des données plutôt que la quantité qui sera bientôt l’élément-clé d’un processus décisionnel efficace, basé sur les données. En d’autres termes, une simple vue des données en temps réel, issue de sources variées et parfois disparates ne suffira plus. Les outils devront être capables de sélectionner intelligemment les informations des utilisateurs finaux les plus appropriées pour produire les vues de données les plus exactes et intéressantes possible.

Cette nouvelle technologie d’analyse des données en temps réel pour une veille continue fait beaucoup parler d’elle et a un potentiel énorme. Toutefois, restez attentif : les solutions vont se multiplier, mais privilégiez les sociétés prêtes à investir dans de nouvelles solutions d’analyse, optimisées par rapport aux produits de première génération.

Related Topics
Author
By
@coesteve1
Related Posts

Readers Comments


Add Your Comment

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

In The News

L’analyse en temps réel, technologie vedette de 2016 ? Vincent Bieri, Chief Product Evangelist & Co-Founder chez Nexthink

Strategy Development Goal Marketing Vision Planning Business Concept 15th janvier, 2016

D’après ZDNet, la veille de données est en passe de devenir une arme concurrentielle-clé en 2016. Toutefois, un paradoxe persiste : alors que 75 % des architectes d’entreprise souhaitent voir la politique d’entreprise orientée par les données, seuls 29 % d’entre eux estiment que leur société est capable de corréler des données d’analyse et des résultats exploitables. Si les investissements motivés par les données devaient se poursuivre au même rythme au cours des douze prochains mois, le point capital reste l’émergence d’une convergence de la science des données et de l’analyse en temps réel qui permettra de réduire le délai entre la requête et la réponse, mais aussi entre l’information et l’action.

Cette nouvelle tendance ne fait pas l’unanimité. Ses détracteurs estiment en effet qu’il existe une limite à la vitesse du relais statique. Que se passe-t-il lorsque les données sont tellement rapprochées dans le temps qu’elles deviennent des images non différenciables de problèmes informatiques ou de relations émergentes ? Si vous êtes suffisamment attentif, vous y verrez la naissance d’une nouvelle approche : les vues de données animées.

Visibilité accrue

Bon nombre d’entreprises perçoivent difficilement la différence entre une véritable analyse des données en temps réel et les techniques d’échantillonnage ponctuel des solutions de veille décisionnelle classiques. Après tout, n’est-il pas suffisant d’obtenir un rapport sur l’emplacement et l’intégrité des données toutes les cinq minutes ? Pourquoi investir dans les 299 secondes restantes ?

Prenons l’exemple d’un vol de voiture. Pour ouvrir le véhicule, faire démarrer le moteur et disparaître dans la nuit, il faut aux criminels bien moins de cinq minutes, deux ou trois tout au plus. Si le garde chargé de vérifier qu’aucune voiture ne quitte le parking possède un système de vidéosurveillance qui se déclenche toutes les cinq minutes pendant seulement quelques secondes, il a un problème. La première fois que la caméra se déclenche, le véhicule est à sa place. La fois suivante, il a disparu sans qu’il sache pourquoi ni comment et encore moins qui le conduisait.

En combinant les données en un flux continu en temps réel, il est possible d’obtenir une vue animée continue au lieu d’une série d’images statiques qui risquent de ne pas relayer certaines informations critiques ou d’induire en erreur vos analystes. Et comme une politique d’entreprise cohérente veut que les décisions prises se basent sur les informations disponibles, les « scènes manquantes » pourraient conduire à des investissements loin d’être optimaux ou à des politiques inefficaces concernant les utilisateurs finaux.

Évolution de la perception

Comme l’a souligné l’université de Washington, les premiers films cinématographiques n’avaient rien à voir ou presque avec les superproductions actuelles. Dans les années 1890, par exemple, les courts-métrages, qui duraient de 15 à 30 secondes seulement, cherchaient essentiellement à montrer le mouvement en temps réel. Des scènes telles qu’un train entrant en gare attiraient des foules de spectateurs parfois effrayés à la pensée de voir sortir le train de l’écran.

Le paysage actuel de l’analyse en temps réel ressemble aux premiers jours du cinéma. Les sociétés et les fournisseurs sont tous fascinés par la capacité à animer les données, même s’il ne s’agit que de courtes séquences prises en dehors du contexte métier plus large. Heureusement, le marché de l’analyse des opérations informatiques (ITOA) évoluera, comme l’a fait l’industrie du cinéma. Si l’on s’en réfère à l’article récent de Tech Target, c’est la qualité des données plutôt que la quantité qui sera bientôt l’élément-clé d’un processus décisionnel efficace, basé sur les données. En d’autres termes, une simple vue des données en temps réel, issue de sources variées et parfois disparates ne suffira plus. Les outils devront être capables de sélectionner intelligemment les informations des utilisateurs finaux les plus appropriées pour produire les vues de données les plus exactes et intéressantes possible.

Cette nouvelle technologie d’analyse des données en temps réel pour une veille continue fait beaucoup parler d’elle et a un potentiel énorme. Toutefois, restez attentif : les solutions vont se multiplier, mais privilégiez les sociétés prêtes à investir dans de nouvelles solutions d’analyse, optimisées par rapport aux produits de première génération.

By
@coesteve1
backtotop