La performance par la donnée
Approcher la data dans sa globalité pour une performance durable
Les démarches autour de la data sont souvent focalisées sur des briques technologiques (Big Data, IoT, IA…) qui font oublier les fondamentaux qui permettent d’atteindre une performance durable. Au travers de cet article, nous allons explorer comment mettre ces technologies au service des actions et processus qui vont ainsi permettre d’améliorer la performance dans le temps.
Quels sont les freins à la performance ?
Si l’on se positionne dans l’usine, on identifie plusieurs freins à la performance liés à la data :
- Accessibilité de l’information au plus proche des besoins et des prises de de décision (bonne information, bonne personne, bon moment, bon endroit…)
- Capacité de traitement et d’analyse pour être en mesure de capturer l’information pertinente et d’identifier les actions à réaliser.
- Mise en oeuvre effective sur le terrain.
Quels leviers d’action sur la performance ?
Pour mieux cerner ces freins et avoir une approche globale sur les interactions entre la donnée et la performance, revenons sur la performance en elle-même. Sur une activité de production, on peut déjà distinguer deux types d’actions possibles :
- La maitrise des procédés de production. Par ce type d’actions on vise à reproduire les meilleures conditions de production passées pour maximiser la performance. On reste dans des niveaux de performance connus tout en appliquant les conditions opératoires optimales. Ceci pour maximiser la productivité, minimiser les consommations de matières et d’énergies, réduire les impacts environnementaux…
- L’amélioration des procédés de production. Dans ce cas, la démarche est différente. On va chercher à mieux comprendre les procédés utilisés pour les améliorer de manière incrémentale ou au travers d’évolutions de rupture. Il s’agit alors d’atteindre de nouveaux niveaux de performance, non atteignables par la simple maitrise des procédés.
Point commun de ces deux approches : la mise en oeuvre d’actions réalisées par les équipes qui, elles-mêmes, découlent d’idées émises par ces équipes ou d’autres.
Si l’on remonte la chaine, il faut pour avoir des idées, disposer des informations nécessaires qui, combinées aux expertises et savoir-faire des femmes et hommes du métier, vont leur donner naissance. Et pour disposer d’informations, il faut être en mesure de combiner et transformer les données disponibles.
Ce qui est synthétisé sur le schéma ci-dessus.
Focus sur la chaîne de valeur de la donnée
Si on reprend le sujet sous l’angle de la data, on se rend compte que le chemin est long entre elle et un impact tangible sur la performance. Les freins évoqués correspondent à des inefficiences sur les différentes étapes visant à transformer les données en actions.
La collecte, la structuration et le traitement des données :
Souvent traitées de manière ponctuelle, ces étapes peuvent représenter un frein majeur à un fonctionnement fluide. Combien de fois des investigations visant à résoudre des problèmes, ou à trouver des pistes d’amélioration, ne vont pas à leur terme car ces étapes sont trop chronophages ou complexes ? Aucune analyse ne peut être réalisée de manière fructueuse sans informations fiables et pertinentes.
L’analyse :
Processus qui vise à traiter les informations pour les transformer en idées. L’expert métier qui la conduit peut-être limité par le volume d’informations à traiter mais aussi par la profondeur d’analyse nécessaire. Mais de quoi a-t-on besoin pour des analyses efficaces ? Pour commencer, il faut être en mesure de visualiser les informations sous différents angles, y compris avec des approches statistiques. La visualisation est une activité clé qui permet de mieux connaitre ses procédés de production. Mais permet aussi d’améliorer la qualité des données en identifiant des anomalies.
Pour aller plus loin, et lever les freins liés à la volumétrie et la complexité, on peut intégrer des approches analytiques plus poussées, basées sur des algorithmes de Machine Learning (IA), des traitements statistiques, des approches déterministes pour identifier les pistes d’amélioration. Et ainsi démultiplier les capacités d’analyse de l’expert métier. L’efficacité de ces analyses sera d’autant plus importante que les résultats sont visualisables et interprétables. Cette interprétation permettra d’enrichir la compréhension des procédés par les experts.
La mise sous contrôle :
Base de la maîtrise des procédés. Cela peut se réaliser au travers de cartes de contrôles, sur les principes des démarches 6 Sigma ou de modèles prédictifs qui permettent de donner les consignes à respecter par les opérationnels. Le risque ici est de trop tarder à mettre en oeuvre les nouvelles consignes et ainsi perdre en performance par manque de réactivité.
L’amélioration des procédés :
L’amélioration des procédés peut passer par une modification significative des conditions opératoires, une évolution des installations au travers d’investissements… et passe donc souvent par une étape d’ingénierie qui nécessite de disposer d’informations précises pour assurer un dimensionnement adéquat.
➔ Automatiser la collecte, la structuration et la transformation des données pour disposer d’informations fiables, à jours et de manière continue est un levier qui aura des répercussions majeures sur l’ensemble de la chaîne.
➔ Mettre en place les outils de visualisation et d’analyse à disposition des experts métier leur donnant de l’autonomie en s’assurant d’une restitution riche et interprétable.
➔ Mettre à disposition des data-analystes / data-scientistes les jeux de données leur permettant d’élaborer et valider leurs modèles.
➔ Mettre en place des outils permettant de gérer les référentiels de consignes ou de modèles pour une mise en oeuvre au plus tôt sur le terrain.
➔ Mettre à disposition des équipes d’ingénieries les informations nécessaires à leurs designs.
Une approche partielle focalisée uniquement sur l’analyse et qui négligerait les éléments amonts de la chaine de transformation de la donnée (collecte, structuration, traitement…) risque d’avoir un impact limité. Il est préférable d’avoir une approche globale qui bénéficiera d’autant plus d’effets démultiplicateurs forts qu’elle vise à toucher et nourrir un maximum d’acteurs dans l’entreprise.
La digitalisation a de ce fait autant à apporter du point de vue technique pour aller plus loin dans la performance, que du point de vue managérial pour fluidifier l’organisation de l’entreprise et la rendre plus agile et réactive.
Ce qu’il faut retenir :
- Avoir une approche globale de la donnée pour fluidifier l’accès et l’usage de l’information.
- Mettre en place des processus de traitement de la donnée en continue pour avoir de l’information disponible immédiatement.
- Considérer que la visualisation fait partie intégrante de l’analyse et est un levier fort de compréhension des procédés et de fiabilisation de la qualité de la donnée.
- Utiliser des outils d’analyse adaptés aux usages et leviers d’amélioration visés.
- Ne pas sous-estimer le suivi de la mise en oeuvre des actions dans le processus. Car ce sont elles qui vont permettre d’obtenir des gains concrets.
Auteur : Mathieu Cura