Malgré la maturité d’outils exploitant la donnée avec une meilleure granularité et l’explosion quantitative des données à disposition des décisionnaires, la plupart des organisations (entreprises, institutions, collectivités, services publics, etc.) continuent d’adopter une approche empirique pour l’analyse et le pilotage des processus opérationnels, selon Jürgen Klein, Platform Lead Data & Analytics chez Prodware. 

L’optimisation continue des processus est une préoccupation fondamentale de toute organisation. Le succès économique japonais d’après-guerre fût notamment expliqué par une pratique basée sur l’amélioration continue des processus. Baptisée “KAIZEN”, elle a été initialement introduite en Occident par Masaaki Imai. Aujourd’hui, le “KAIZEN” est reconnu comme un pilier essentiel de la stratégie concurrentielle d’une organisation, au même titre que le “Lean Six Sigma”, méthode de management de la qualité. 

Si les entreprises, les produits, et les marchés sont devenus plus complexes et segmentés, elles éprouvent deux principales difficultés : partager une définition commune des processus et les répertorier précisément. 

Processus organisationnels et enjeux de la donnée

Malgré l’utilisation d’outils d’aide à la décision et une prise de conscience de l’importance économique des données, les décisionnaires continuent de se limiter au champ de l’observable, ce qui les cantonne à une vision limitée des processus. Par ailleurs, l’analyse des processus continue d’être une activité à la fois chronophage et sujette à l’erreur humaine. Le recours à des consultants spécialisés est donc encore plébiscité par de nombreuses organisations.

Dans la pratique, de nombreux processus demeurent souvent inefficaces, désuets, incompris, ignorés, et différents de ce qu’ils devaient être. Pire, certaines organisations estiment que la mise en place d’un processus est suffisant, ignorant ainsi que les processus sont des systèmes dynamiques qui, comme tels, peuvent rapidement devenir obsolètes, voire nuisibles. Par ailleurs, ne pas mesurer les résultats de l’utilisation des processus peut pénaliser le développement d’une organisation. Sans parler de la nécessité de prévoir des processus centrés sur l’humain.

Cette situation est encore complexifiée par le fait qu’une organisation est régie par un ensemble de processus, travaillant à des niveaux distincts, et parfois issus d’époques différentes. Pour cette raison, il n’y a la plupart du temps pas de méta-processus permettant une lisibilité de l’ensemble de ces niveaux et de leur structure. Du département achat au marketing, la gestion des processus peut rapidement ressembler à un labyrinthe. Les décisionnaires peuvent donc avoir une idée erronée de la manière dont leur organisation fonctionne véritablement et ignorer les méthodes à employer pour identifier des axes de progression.

De toute évidence, les solutions de BI peuvent être un atout précieux en aidant les décideurs à mieux comprendre certains processus. Néanmoins, il faut toujours une hypothèse sur l’endroit où commencer pour voir où les choses fonctionnent bien ou mal. En d’autres termes, le décisionnaire est pris dans une forme de cercle vicieux où il doit savoir à l’avance où se trouvent les sources d’optimisation qu’il est pourtant censé trouver à l’issue de son analyse. En se limitant à une solution BI, il est difficile d’évaluer les gains des processus/plans d’action issus de scénarios d’améliorations, de comprendre les relations entre différentes sources de données hétérogènes, etc. Les outils BI sont conçus pour l’analyse descriptive alors que les entreprises ont désormais besoin de repousser cette frontière. Enfin, ces outils sont capables de répondre à des questions prédéfinies mais ne vont pas au-delà.

Process Mining: comprendre les processus pour les optimiser 

Dans la majorité des organisations, chaque processus génère désormais des quantités de données très importantes. Ces volumes énormes sont généralement sous-exploités par les outils de BI. 

L’une des nouvelles manières de mieux comprendre ces processus se nomme Process Mining, une méthode d’analyse qui vise à découvrir, analyser et améliorer les processus internes d’une organisation en extrayant des données des systèmes de journalisation d’événements (“logs”), souvent disponibles dans les ERP. Le Process Mining occupe une position spécifique et inédite, au croisement de l’extraction de données et de la modélisation. Les organisations doivent aborder le Process Mining comme un outil d’analyse tandis que les outils de BI doivent être utilisés à des fins de suivi et de reporting. Ainsi, l’approche la plus pertinente et exhaustive consiste à utiliser les deux. Une innovation à venir serait alors d’imaginer une hybridation entre les deux systèmes au sein d’un même dispositif, où les aspects complémentaires travailleraient de concert. 

La principale valeur ajoutée du Process Mining est son réalisme : il offre en effet une représentation visuelle claire, de bout-en-bout, basée sur des données quantifiables, des processus tels qu’ils se déroulent réellement dans l’organisation. Il aide ainsi le décisionnaire à aller au-delà des suppositions afin de lui permettre de se poser de nouvelles questions. En d’autres termes, il devient possible de comparer des processus entre eux selon des échelles de temps différentes, d’identifier les goulets d’étranglement, les tâches répétitives, les tâches ignorées, de déterminer la cause précise d’un problème, de quantifier l’efficacité des processus, d’identifier les tâches automatisables, de mettre en place de nouveaux KPI correspondant à la réalité, d’établir des seuils d’alerte, et de trouver les solutions pour améliorer les processus de manière générale, etc. 

Cette idée de compréhension visuelle est primordiale d’autant que les tentatives de modification d’un processus dont la complexité est sous-estimée, sont vouées à l’échec. Le Process Mining repousse les limites en matière d’amélioration organisationnelle et transforme des données à faible valeur en source de compétitivité immédiate. 

Deux exemples illustrent son intérêt. Le premier implique la NASA dont une absence processuelle sur un élément technique a entraîné une erreur provoquant la désintégration du satellite Mars Climate Orbiter, d’une valeur de 193 millions de dollars. Le second est en rapport avec Microsoft Azure. La firme de Redmond a connu 4,46 milliards d’heures d’indisponibilité collective parce que son processus de déploiement standard n’a pas été suivi correctement. 

Process Mining : au commencement était la donnée

Une stratégie visant à exploiter le Process Mining ne peut pas pour autant minimiser l’importance de la donnée. En effet, l’organisation doit être suffisamment évoluée pour savoir quelles données elle a en sa possession, tout en veillant à la qualité de celles-ci. L’existence de silos de data joue aussi un rôle prépondérant dans l’analyse. Ainsi, la représentation des processus sera rendue plus simple par la présence d’une plateforme centralisatrice : Data Warehouse ou entrepôts de données.

Les questions soulevées par le Process Mining dans une organisation ne se limitent pas à la dimension technologique. Elles concernent aussi la compréhension et l’adhésion de toutes les parties prenantes. Sans surprise, l’incompréhension peut mener au rejet. Comment justifier un changement de méthodologie sans en expliquer la raison et l’objectif, sans s’appuyer sur des faits concrets ? Comment s’appuyer sur la donnée si la définition de celle-ci évolue au gré des interlocuteurs au sein de l’organisation ? 

Ainsi, au-delà de la notion d’outils et d’architecture en place, il est nécessaire de développer une culture de la donnée, caractérisée par la capacité à comprendre la donnée, sa définition, son origine, son importance, ses limites, etc. Sans cette culture forte et communément partagée, l’organisation s’expose au risque de modifier des processus pour des raisons que les gens qui la composent ou sont en relation avec elle ne comprennent pas. 

Du réactif au prédictif


Sans Process Mining, les organisations continueront à rester réactives aux problèmes. Il est pourtant essentiel qu’elles repoussent leurs limites. La nouvelle frontière à atteindre est de passer progressivement d’une posture réactive à une approche prédictive. Et pour cela, il est possible d’associer des algorithmes d’apprentissage machine (“Machine Learning”) pour prédire les différentes évolutions possibles des processus. 

Là où le Process Mining se concentre sur l’observation des situations passées et présentes, l’Intelligence Artificielle permet d’aller plus loin en devenant un véritable assistant à l’expert métier chargé d’étudier les processus. Un système intelligent peut analyser la donnée en temps-réel et faire des recommandations avant que les problèmes ne s’accumulent. Ce système est également capable de comprendre la relation entre deux éléments distincts composant un même processus. Ainsi, l’observation de la donnée structurée par les algorithmes permet d’aller au-delà de ce que l’humain est en mesure de comprendre.

L’autre frontière pour les entreprises consiste en l’automatisation des tâches dans les processus. L’objectif est d’aider à se concentrer sur les tâches à haute valeur ajoutée en abandonnant l’aspect chronophage. Cette vision se matérialise dans la pensée de “l’humain augmenté” au travail, développée par Helen Papagiannis, experte en réalité augmentée, dans “Augmented human: how technology is shaping the new reality“.

L’automatisation grandissante et nécessaire pour les organisations n’est pas nouvelle. McKinsey estime que 31% des entreprises ont entièrement automatisé au moins une fonction. Cependant, sans le Process Mining, l’identification de processus simples à automatiser et à grande valeur ajoutée peut s’avérer complexe. L’objectif est d’engendrer de manière rapide des gains de productivité conséquents et, ainsi, de contribuer à créer une dynamique positive dans l’implémentation de l’automatisation au sein de l’organisation.

Le Process Mining doit avant tout être considéré comme un outil de diagnostic complétant les outils de type ERP et BI. 

L’avenir appartient aux entreprises qui disposent d’une vision complète des processus internes, et qui sont en mesure de faire évoluer ceux-ci en temps-réel selon différents critères quantifiables. Ce besoin de compréhension et d’adaptabilité se renforcera dans les années à venir avec le développement des organisations décentralisées autonomes. Elles auront nécessairement besoin d’un plus grand contrôle des processus. Le développement d’une économie où les machines disposent d’une autonomie complète en matière de transaction (Machine-to-machine, M2M) nécessitera aussi une compréhension totale sur la structure et le fonctionnement des processus. 

Le Process Mining peut être considéré comme une version technologique de la devise antique “connais-toi toi-même”. Ce n’est en effet qu’en se connaissant de mieux en mieux soi-même que l’on peut entrer en relation harmonieuse avec les autres. Ce qui vaut pour les personnes vaut pour les entreprises. Ce sont aussi des personnes (morales), après tout. 

Article initialement paru sur TopCom.

Plus de publications

En tant qu‘expert des données et de l'analyse, Jürgen Klein a plus de 30 ans d'expérience. Il a occupé divers postes de direction dans des entreprises telles que Progress, Information Advantage, CA, Qlik et Cosmo Consult.
Il est également spécialisé dans le développement commercial de nouvelles technologies et de nouveaux services. Son objectif : obtenir les meilleurs résultats possibles pour les clients dans des environnements numériques en évolution permanente.

LAISSER UN COMMENTAIRE

Please enter your comment!
Veuillez renseigner votre prénom
Veuillez renseigner votre nom

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.