
Après avoir diagnostiqué et proposé des plans d’améliorations sur la donnée et ses différentes composantes, l’enjeu va être d’adapter ces enseignements et de les transposer à l’échelle de l’entreprise. Découvrez le dernier épisode de notre série de 3 articles dédiée à la gouvernance des données.
Exploiter les informations de l’ensemble des cas d’usage
Pour conforter ces recommandations et ces enseignements réalisés sur les cas d’usage pilotes, il est conseillé d’exploiter et d’analyser les informations de l’ensemble des cas d’usage recensés au démarrage de la démarche.
Cette étape permettra d’avoir une vue d’ensemble des besoins sur les données et contribuera à définir le niveau d’effort et d’investissement en termes d’organisation ou d’architecture du SI.
L’organisation autour des données doit en effet distinguer 2 niveaux : un premier niveau transverse, qui est en charge d’animer la gouvernance, de porter la vision stratégique des besoins métiers d’une entreprise (gouvernance centralisée) ou d’un business unit (gouvernance décentralisée) et un deuxième niveau qui consiste à transmettre les lignes directrices aux acteurs en charge de la gestion des données métiers de référence ou golden data.
S’appuyer sur les responsables données de business units ou sur un data manager
Cette organisation transverse pourra s’appuyer sur un comité de coordination regroupant les responsables données de business units ou sur un data manager. C’est cette organisation qui sera en charge d’étudier et de piloter le déploiement de nouveaux cas d’usage autour de la donnée.
Au 2ème niveau, on retrouvera une organisation propre à chaque golden data ou à chaque donnée de référence (donnée Finance, RH, Client, industrie, etc.) avec pour chaque golden data des acteurs en charge de définir les règles d’utilisation (data officer) ; des responsables du contenu et de la qualité des données (data owner) ; des acteurs en charge de monitorer la qualité des données (data steward) ; d’accompagner les métiers sur l’analyse des données et le reporting (data analyst).
Avoir une réflexion d’ensemble sur l’architecture devant porter la donnée
L’analyse des besoins sur l’ensemble des cas d’usage va également être nécessaire pour avoir une réflexion d’ensemble sur l’architecture devant porter la donnée et permettre d’engager une réflexion sur les outils à mettre en place :
- Data Lake pour enregistrer et stocker toutes les données brutes (que ce soient des données structurées ou non structurées), et les utiliser, le cas échéant, à des fins d’analyse.
- Master Data Management pour organiser l’ensemble de la gestion des données de référence en fonction des golden data à gérer.
- Gouvernance des données pour cartographier les données, définir/caractériser les données, assurer le linéage des données.
- EAI (Entreprise Integration Application) pour gérer les flux inter-applicatifs.
- Data Platform pour gérer l’analyse et le traitement de données et éviter l’utilisation de l’Excel.
Inscrire cette démarche dans la durée
Un autre enjeu va consister à inscrire cette démarche dans la durée, pour améliorer la gouvernance et ses différentes composantes au travers de :
- la poursuite du déploiement des cas d’usage ;
- l’identification et le recensement de nouveaux cas d’usage ;
- l’acculturation.
L’acculturation et la sensibilisation de l’ensemble des acteurs à la data sont en effet une composante clé de cette démarche pour toute entreprise souhaitant être « data driven ». Si dans la première étape de la démarche, l’objectif était de communiquer et de donner du sens, les étapes suivantes vont consister à former chaque collaborateur, quel que soit son métier, et d’identifier des relais en charge de promouvoir l’intérêt de la donnée.
Car aujourd’hui, la data est réservée à quelques happy few (les équipes data) tandis que la très grande majorité des équipes fonctionnelles fait face à des montagnes de données avec le simple tableur Excel. Pour y remédier, nous préconisons :
- La mise en place de Centres d’Excellence (COE), services dédiés à l’acculturation, la formation et l’accompagnement des utilisateurs fonctionnels dans leur exploitation de la donnée ;
- Le déploiement de plateformes data user-friendly qui permettent une exploitation de la donnée par le plus grand nombre, sans avoir à connaître Python ou à avoir un PhD en data science.
Ces préconisations nécessitent un fort sponsorship des directions générales et un rééquilibrage des investissements. Après avoir passé des années à investir sur des projets data porteurs de fortes valeurs ajoutées, il est nécessaire d’activer le levier de l’effet volume et de valoriser la data au niveau de chaque salarié, en les dotant de bonnes pratiques et d’outils adéquats facilitant et automatisant leurs analyses. C’est d’ailleurs la démarche adoptée par une grande banque française qui a décidé d’équiper chacun de ses collaborateurs en charge du réglementaire d’un outil data qui remplace et automatise les processus effectués jusqu’alors sur Excel.
Pour en savoir plus sur Axys Consultants
Participer à la conversation