Le big data serait-il encore au stade conceptuel? Bien au contraire! Aujourd’hui déjà, nombre de sites web sont capables de gérer d’énormes volumes de données, structurées ou non, avec des temps d’exécution extrêmement courts. Ils offrent par ailleurs des services de prédictibilité sur la base des requêtes effectuées, afin d’anticiper une situation future.
Les technologies sont aujourd’hui disponibles pour nous permettre d’utiliser la masse de données acquises et de mieux gérer la complexité croissante de notre monde moderne en proposant des solutions optimisées à des problématiques multi-contraintes en fonction du contexte et du profil des personnes et des situations concernées.
Ces technologies peuvent être mobilisées aujourd’hui à des coûts abordables grâce à la puissance de calcul croissante des ordinateurs, à la diminution significative des coûts de ces mêmes ordinateurs, ainsi qu’à Internet et à ses capacités d’interconnexions sans cesse plus puissantes.
Pour ces raisons, les entreprises privées et publiques investissent dans les solutions “big data” afin d’analyser systématiquement les données acquises par leurs départements et de mettre en place les dispositifs permettant de déduire et de comprendre les informations se trouvant en filigrane de ces données. A partir de ces informations, de nouveaux services peuvent être créés, une différentiation par rapport à la concurrence se préciser et un meilleur contrôle de la qualité fournie et perçue se mettre en place. A ce titre, le “big data” est un inducteur de changement profond des modèles d’entreprises et constitue une opportunité de croissance intéressante.
Le “big data” est un inducteur de changement profond des modèles d’entreprises et constitue une opportunité de croissance intéressante.
Dans ce contexte général, des applications répondant à des besoins locaux se développent également. Ces applications mettent en œuvre la capacité d’anticiper (de “prédire”) des événements de “big data”. En effet, selon le principe de causalité, si une séquence d’événements liés à des caractéristiques identifiées du contexte considéré entraîne une autre séquence de conséquences, et si cette séquence d’événements se reproduit à un autre moment, alors la probabilité est grande d’assister à la même séquence de conséquences.
Si on dispose d’historiques suffisamment étayées et profondes, il est alors possible de développer un modèle statistique d’apprentissage:
- qui, dans un premier temps, analyse les historiques et les archives disponibles, les contextualise éventuellement avec des sources de données disponibles sur Internet pour détecter ces relations événements-conséquences,
- et qui, dans un second temps, en opération, permet de corréler une séquence de données avec le passé pour permettre de prendre des mesures à temps afin d’éviter les conséquences liées à ces événements.
Fluidifier le trafic, réguler les consommations
Voici deux exemples pratiques d’applications intégrant un modèle statistique d’apprentissage qui tire profit de grands volumes de données.
La gestion de la fluidité du trafic routier en zone urbaine
A partir du suivi “anonymisé” du nombre de téléphones mobiles dans une ville donnée, on peut dans un premier temps créer des historiques sur l’évolution du nombre de téléphones mobiles présents, quartier par quartier, quart d’heure par quart d’heure. Si on corrèle ces historiques avec d’autres sources de données relatives au contexte (par exemple, des données de géolocalisation, de topologie des routes et des rues, de météo ou des informations liées à des activités sportives, culturelles ou industrielles), il devient possible de suivre les différentes étapes de la création d’un embouteillage routier ainsi que d’en détecter leurs causes possibles.
Grâce à des systèmes permettant de mesurer et de détecter des séquences d’événements qui se sont déjà déroulées dans le passé, de nouveaux services peuvent ainsi voir le jour:
- pour informer en amont et suffisamment à temps les conducteurs qu’un embouteillage est en train de se produire en un lieu donné de la ville;
- pour proposer des solutions crédibles d’alternatives pour éviter ces points de contention.
La gestion intelligente de la consommation d’énergie électrique
L’énergie électrique ne sera vraisemblablement plus disponible immédiatement de façon illimitée pour un prix forfaitaire fixé. Dans le même temps, les énergies vertes ont un caractère intermittent qu’il faut gérer. Pour simplifier, limitons-nous à deux acteurs de l’écosystème: le consommateur (qui “demande” de l’électricité) et le gestionnaire du réseau de distribution de l’électricité (qui gère la “réponse” à la demande).
Le “big data” offre une solution pour aider ces deux acteurs à gérer cette nouvelle complexité en faisant un lien immédiat entre la “demande” (calculée par un “thermostat intelligent” capable de réguler la consommation d’énergie des appareils domestiques et de choisir à tout moment la source d’énergie disponible la moins coûteuse en corrélant le contexte présent avec le passé) et la “réponse” (qui est calculée à partir de l’agrégation de toutes les données de mesures des flux au sein du réseau, des condition météorologiques influençant la production d’énergie verte et de la corrélation entre les paramètres du réseau du moment présent avec des situations similaires qui se sont déroulées dans le passé) pour offrir, in fine, le même confort de vie au consommateur dans un monde plus contraint.
Ces deux exemples montrent que “big data” fera de plus en plus partie de notre vie quotidienne et nous permettra de mieux gérer la complexité et les contraintes de notre monde moderne. C’est pour cette raison que “big data” constitue une (r)évolution technologique majeure en plaçant l’information au cœur de nos vies respectives.
Chris de Hous est le directeur général de Trasys.
Découvrez-nous sur Facebook
Suivez-nous sur Twitter
Retrouvez-nous sur LinkedIn
Régional-IT est affilié au portail d’infos Tribu Médias.