0

Passer d’un projet de qualité de données à la gouvernance globale de l’information

Aujourd’hui il est clair que la qualité des données est devenue un axe de maturité indispensable pour toutes les entreprises qui désirent améliorer leur efficacité, profitabilité et même leur visibilité. En effet, à l’heure du « Big Data », il parait inconcevable d’intégrer de nouveaux types d’informations (interactions, non-structurées, mobiles, etc.) sans au préalable avoir mis en place une réelle politique de gestion des données.

Le problème est posé – certes – mais comment y remédier dans un système d’informations qui d’une part est devenu extrêmement complexe au fils des années par la multiplication de nombreuses briques logicielles (ERP, CRM, progiciels, décisionnels, etc.) et qui d’autre part s’est bien souvent constitué en silos ? Voilà le SI d’aujourd’hui, un container gigantesque, hétérogène qui éparpille les informations similaires ou pseudo-similaire à travers l’entreprise … voire au-delà (extranet, Cloud, etc…).

Lutter contre ce nouveau fléau devient donc indispensable. Certaines entreprises n’ont même plus confiance dans l’information qu’elles véhiculent. Par exemple il ne sera pas rare de voir un service marketing confier à un tiers spécialisé son fichier client pour le nettoyer. Si on s’amusait à faire une métaphore avec le linge, on pourra alors parler de solution « pressing » : La société confie le dit fichier à la société spécialisée qui rend en retour un fichier (linge) propre quelque temps plus tard.

Pratique certes, mais le souci dans cette démarche (au-delà de la problématique de confidentialité) est que ce type de processus est totalement disjoint du SI de l’entreprise. Par ailleurs comment automatiser ce type d’opération ? De plus si cette méthode fonctionne avec un fichier client, ou adresse il sera impossible d’utiliser ce type de procédé avec des données propres à l’entreprise comme une codification produit par exemple. Bref, cette initiative s’avère donc intéressante comme première approche mais ne peut être envisagée comme une solution pérenne.

Une autre solution est de considérer que les données de son SI sont propres. Il est vrai que dès lors que l’on met en place un ERP ou un progiciel, il est tentant de considérer que ce dernier deviendra garant unique de l’information stockée et donc que la question de la qualité de donnée se posera pas. Mais voilà, même si ces progiciels sont conçus pour gérer des règles et processus métiers complexes ils ne sont pas conçus pour gérer la qualité des informations qu’ils contiennent. De plus, et malgré la promesse d’encapsulation de toutes les fonctions de l’entreprise, il est rare de voire une entreprise avec un seul progiciel. Car si l’un est adapté à la gestion de la comptabilité, il ne l’ai pas pour la gestion client ou encore pour la logistique ou les Ressources Humaines … bref, la multiplication des solutions logicielles semble inévitable. Les informations clients, produits, salariés, transactions, etc… se multiplient donc allégrement au sein du SI malgré la stratégie initiale d’unification et de standardisation.

Ces dernières années bon nombre d’entreprises ont donc décidé de s’attaquer clairement à la qualité des données. Et pour ce faire, tout en évitant de bouleverser le SI, le choix de la mise en place d’un ODS-DQM s’est avéré une solution non intrusive qui pouvait rapidement se mettre en place. Cette passerelle de nettoyage est en effet une approche intéressante pour qui veut gérer de manière non intrusive l’accès à une information sure. Combinée avec une couche de virtualisation (Cf. services/fédération de données) cela peut même devenir un axe intéressant de développement du SI, garantissant ainsi que le modèle logique (ou virtuel) est le seul point d’accès à la bonne information… au bon moment. Cette approche (combinaison de qualité de données sur une couche de virtualisation) propose un double avantage : c’est une solution rapide à mettre en œuvre d’une part, et surtout c’est une solution de type agile, donc très flexible et pouvant s’adapter rapidement aux changements de l’entreprise.

Néanmoins cette initiative a ses limites car si elle garantit l’accès à une information  propre à tout moment elle ne permet pas de pérenniser cette information, ni de fournir des méta-informations comme la liaison logique entre les différentes informations. Et c’est là que le Master Data Management (MDM) devient intéressant ! De type multi-domaine il permettra non seulement d’intégrer et de nettoyer tout type d’information, mais surtout il pérennisera cette même information en la mettant en relief par rapport aux autres du référentiel (ou de l’extérieur bien sûr). C’est par exemple la fameuse vision à 360° du client pour laquelle l’exhaustivité des  données clients sera consolidée, mais aussi et surtout son écosystème, ses informations échangées, ses goûts, …

De l’intégration au MDM, il y a donc un pas à  franchir mais ce pas est capital car sans cette approche qualitative de l’information, la boulimie de données propre à chaque entreprise n’aura de cesse de continuer sans apporter une quelconque valeur.

Share
This entry was posted in Gestion des Données de Référence (MDM), Qualité des Données and tagged , , . Bookmark the permalink.

Leave a Reply

Your email address will not be published. Required fields are marked *

You may use these HTML tags and attributes: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>