On entend aujourd’hui beaucoup parlé de Data Lake, de Big Datas et on peut aujourd’hui réellement se demander si ces nouveaux concepts n’annoncent pas l’obsolescence programmé du 6-Sigmas.
Tout le monde connait la signification des Big Datas qui symbolisent la collecte massive des informations récupérées aujourd’hui via une multitude de canaux : réseaux sociaux, capteurs sur des machines, relevés dimensionnels ou qualitatifs, …
Le concept de Data Lake est un peu moins connu mais pas foncièrement différent. Le Data Lake est une structure plate informatique dans laquelle on va stocker en leur état toutes les informations collectées via les différents supports. Aujourd’hui le stockage classique des informations se fait plutôt via des Data Warehouse qui nécessitent de structurer l’information ce qui rend parfois impossible son exploitation postérieure si la structure choisie empêche l’exploitation des données historiques suivant un modèle juste établi.
Le Data Lake doit permettre de recueillir un maximum d’informations d’origines diverses que l’on stocke en l’état afin de pouvoir les reprendre avec des modèles d’analyses crées au fil de l’eau par des spécialistes (les futurs métiers phare de demain : business analyst, data scientists) Ceci permettra d’en déduire des optimisations futures sur le domaine étudié : rendement d’une machine, maintenance prédictive, …
Tout cela doit nous ouvrir de nouveaux gisements d’optimisation de nos organisations. Ainsi, j’ai pu assister il y a peu à une conférence de Général Electric dédié à leur vision « Data Lake, Big Datas »
Le constat est qu’aujourd’hui beaucoup d’entreprises collectent de la donnée via de plus en plus de capteurs embarqués sur tout type d’équipement mais peu les exploitent vraiment.
Le challenge de demain consiste donc à exploiter les données en temps réels via des modèles adaptés (le challenge est d’ailleurs surtout sur la création de modèles pertinents), d’en déduire des optimisations puis d’adresser via le bon support (smart phone, tablette, …) le bon plan d’intervention à la bonne personne.
Tout ceci parait très théorique mais devient plus concret avec un exemple pratique.
Imaginons des équipements installés chez plusieurs clients, ces équipements sont connectés au Cloud et via différents capteurs remontent une multitude de données caractérisant le fonctionnement de l’équipement. Des modèles validés via les données historiques stockées dans le Data Lake et donc exploitable par les modèles créés détectent un équipement client en cours de déviation par rapport à son rendement optimum.
Aussitôt, une géo localisation des techniciens sur le terrain se met en place et un message est envoyé sur le smart phone du technicien le plus proche du site client avec les consignes exactes de set up pour remettre l’équipement à son optimum.
On voit là la puissance de ce scénario, les techniciens n’interviennent plus sur des pannes mais des optimisations à partir de données en temps réel et sans passer du temps à analyser le problème, ils interviennent avec le plan d’actions adapté… Je vous laisse imaginer la valeur ainsi « offerte » au client final.
Autre dimension importante du concept de Data Lake, il s’agit de la réponse à un phénomène connu : la perte de savoir et de connaissances lors des départs massifs à la retraite.
L’idée est de capturer le savoir des anciens (enregistrements, note avec des hashtags, …), de le stocker dans le Data Lake et permettre aux nouveaux arrivants d’exploiter cette base de connaissances.
La nouvelle génération attend qu’on lui ingère la multitude des informations disponibles pour lui restituer le « quoi faire » face à une situation détectée.
La vision décrite a tendance à donner un petit coup de vieux à nos 6-Sigmas qui paraissent ainsi plus limités : on prend du temps à capturer des échantillons de données, il faut du temps pour les analyser avec des outils limités et in fine l’optimisation de nos process n’est atteinte qu’après tout ce temps écoulé…
Alors les Six-sigmas sont ils en voie d’obsolescence, j’aurai tendance à dire qu’au vue de l’état d’avancement actuelle sur l’exploitation des Big Datas et de la complexité des solutions d’analyses (dont viendront certainement à bout les mathématiciens et les informaticiens) les 6-Sigmas ont encore de beaux jours devant eux car c’est encore eux qui apportent aujourd’hui le plus simplement des optimisations concrètes… mais l’exploitation des Data Lakes et les Bigs Datas constituent certainement l’avenir…