in

Les 5 tendances 2020 – Par Olivier Tijou, Denodo

 

L’Edge Computing

Interrupteurs connectés, assistants vocaux de troisième génération, thermostats autonomes… Des dispositifs intelligents, et toujours plus sophistiqués, prennent une place de plus en plus importante dans notre vie quotidienne. Ces objets connectés se caractérisent notamment par leur capacité d’apprentissage et de réglage automatique pour s’adapter à l’utilisateur et à son environnement.

Pour garantir de telles fonctionnalités, ce type d’appareils doit collecter d’importants volumes de données qui sont par la suite transférées vers le Cloud ou un Data Center afin qu’elles soient stockées et analysées. Le cabinet d’analyse IDC prévoit ainsi que les objets connectés généreront 79,4 milliards de zetaoctets en 2025. Il sera alors impossible qu’un seul référentiel central stocke toutes ces données et les traite de façon suffisamment agile. Les évolutions technologiques telles que l’edge computing répondent à cet enjeu.

L’edge computing, ou traitement des données à la périphérie du réseau, permet de traiter et d’analyser les données au plus proche de la source dont elles sont issues, c’est-à-dire directement sur l’appareil et donc en périphérie du réseau. Par conséquent, cette technologie optimise l’efficacité opérationnelle d’apprentissage et de réglage en temps réel des appareils connectés tout en réduisant le temps de latence, habituellement prolongé par le transfert de données vers un système central.

L’adoption de l’edge computing devrait exploser dans les années à venir. Les analystes du cabinet Gartner estiment ainsi qu’environ 75 % des données devront être analysées et traitées en périphérie d’ici 2022.

La Data Fabric

Dans le contexte du Big Data, les entreprises recherchent désormais une plateforme d’intégration permettant d’accéder aux données issues de sources et d’emplacements hétéroclites, que ce soit dans le cloud ou en local.

Les entreprises ont désormais besoin d’une infrastructure de gestion des données efficace et agile pour répondre aux problématiques posées par les systèmes existants, la sécurité des données, leur cloisonnement, ainsi que l’évolutivité et la fiabilité.

En combinant les jeux de données historiques et en temps réel provenant de multiples silos de données, la Data Fabric offre un environnement de gestion des données unique, sécurisé et cohérent. Elle représente une approche en faveur de l’apprentissage automatique et de l’intelligence artificielle.

La Data Fabric peut par exemple jouer un rôle important dans le secteur des véhicules autonomes. Elle peut faciliter la gestion de volumes importants de données d’apprentissage générées au cours des tests de détection d’obstacles ou d’autres scénarios similaires.

L’analyse conversationnelle

Des commandes vocales telles que « Hey Google » ou « Dis, Alexa » se sont peu à peu répandues dans les foyers des Français. L’utilisation de plus en plus fréquente d’assistants vocaux tels que Siri, Google Assistant, Alexa ou encore Cortana modifie profondément la manière dont les consommateurs interagissent avec les marques. Le fonctionnement de ces outils s’appuie sur les technologies d’intelligence artificielle, et plus précisément sur le traitement du langage naturel.

Le traitement du langage naturel est un domaine de l’intelligence artificielle qui permet aux machines de comprendre, d’analyser et interpréter le langage humain, ainsi que de le convertir en données. Selon le rapport 2019 de Gartner, 50% des requêtes analytiques seront générées cette année par la recherche, le traitement du langage nature (NLP) ou la voix. Les outils qui prennent en charge la reconnaissance vocale grâce au traitement du langage naturel et à l’analyse conversationnelle en basant sur l’intelligence artificielle permettront aux entreprises de personnaliser et d’améliorer l’expérience client grâce à une connaissance plus précise des consommateurs. L’analyse conversationnelle est une technologie qui permet aux machines de comprendre et d’interpréter le langage oral et de le convertir en données. Ces données sont structurées afin d’être analysées et permettent d’en tirer des conclusions. En 2020, les entreprises devraient ainsi adopter l’analyse conversationnelle pour améliorer leurs chatbots et leurs applications vocales. Cela se traduira par de meilleures prises de décisions basées sur les données et une amélioration des performances commerciales.

Le jumeau numérique

Un jumeau numérique est une représentation numérique d’un objet ou d’un système. Il permet de créer une réplique virtuelle d’une ressource physique grâce à des données récoltées par des capteurs installés sur les équipements. Ces données sont par la suite intégrées à des logiciels de modélisation ou de conception assistée par ordinateur (CAO).

Les répliques virtuelles sont utilisées pendant le cycle de vie du produit afin d’effectuer des simulations, d’établir des prévisions, de valider les processus et d’optimiser la performance du produit et des opérations avant d’investir dans des prototypes ou actifs physiques.

De ce fait, en s’appuyant sur les modèles de simulation, l’analyse des données et le Machine Learning, les jumeaux numériques évitent d’avoir recours à des échantillons physiques, réduisent le temps de développement et améliorent la qualité du produit final.

De plus en plus d’analystes s’accordent sur le fait que l’essor du déploiement de jumeaux numériques va de pair avec l’adoption croissante de l’Internet des objets (IoT). Selon une étude récente de Gartner portant sur l’adoption de l’IoT, 13% des entreprises qui mènent actuellement des projets autour de l’IoT utilisent déjà les jumeaux numériques, alors que 62% des sociétés sondées ont indiqué qu’elles travaillaient actuellement sur la mise en place de jumeaux numériques ou qu’elles envisageaient de le faire au cours de l’année à venir.

Le multi-cloud

Le multi-cloud consiste à avoir recours à plusieurs services de cloud computing et de stockage pour une même architecture SI. La mise en place d’une stratégie multi-cloud permet aux entreprises d’adopter les solutions les plus adaptées en fonction de leurs besoins. Le multi-cloud, extension du cloud hybride, associe les opérations sur site aux applications et services hébergés dans des environnements cloud distincts. De ce fait, il permet aux entreprises de tirer profit des avantages de chaque solution tout en limitant autant que possible leurs inconvénients.

À titre d’exemple, une société peut stocker des volumes importants de données non sensibles sur le cloud public tout en hébergeant les données sensibles de ses clients sur le cloud privé, et utiliser une infrastructure sur site pour gérer les charges de travail IA/AA.

En offrant plusieurs points d’accès aux données, l’architecture multi-cloud permet de minimiser les risques. En effet, si une plateforme cloud présente une panne ou des problèmes de connectivité, l’entreprise peut poursuivre ses activités sur d’autres plateformes cloud. Les environnements multi-cloud permettent également aux entreprises de garantir la gouvernance de leurs données, la gestion des risques et leur conformité avec les règlements en vigueur. Ce modèle de déploiement offre aussi la possibilité de rationaliser les pratiques de Shadow IT.

Olivier Tijou, Vice-Président Régional EMEA francophone et Russie de Denodo

Morgane
Morgane Palomo

Diplômée d'un master un brand management marketing, sa curiosité et sa soif de savoir ne sont étanchées. De nature créative, elle a su diversifier ses expériences. De la création graphique, à l'événementiel en passant par la communication interne et le marketing digital, elle s’est construit un savoir pluriel et avant tout polyvalent.

Written by Morgane Palomo

Diplômée d'un master un brand management marketing, sa curiosité et sa soif de savoir ne sont étanchées. De nature créative, elle a su diversifier ses expériences. De la création graphique, à l'événementiel en passant par la communication interne et le marketing digital, elle s’est construit un savoir pluriel et avant tout polyvalent.