mercredi 18 février 2009

En finir avec les préjugés : Le MDM n'est pas un logiciel

L'étendue du MDM est parfois difficile à concevoir pour le néophyte, parceque le message lié aux technologies employées - les "référentiels" - passe beaucoup plus facilement.

Lorsque l'on tente de l'expliquer à quelqu'un, au moment où une illumination semble surgir dans le regard de son interlocuteur, il s'agit rarement de la bonne lumière : il interrompt soudain l'explication et s'exclame : "Ah, donc le MDM, c'est une base de données qui expose ses données sous forme de services. Donc tu mets en place des bases de données, c'est ca ?". Et parfois, il ajoute même : "Mais on pourrait très bien faire ca avec _________" - où l'espace blanc peut être comblé par l'un ou plusieurs des termes suivants :
  • "un SGBD"
  • "un DataWarehouse"
  • "un ERP"
  • Si d'autres exemples vous viennent en tête, merci de me les transmettre pour compléter la liste.
Devant votre appitoiement et sous ses airs satisfaits, le néophyte - bien que bourré de préjugés - n'est pas irrécupérable, loin de là. Tentons une première phase de démystification, sous la forne d'un premier article au sein d'une série sur les préjugés concernant le MDM.

Le MDM ne se résume pas à (la mise en oeuvre d') un logiciel

Le MDM n'est ni une technologie ni un logiciel, mais une démarche, qui se focalise sur la gestion d'un certain type d'informations - en l'occurence celle des données de référence - au sein de l'entreprise dans son ensemble, et dont les ingrédients principaux sont les personnes et la politique de l'entreprise.

Il s'agit ici avant tout de la mise en oeuvre de procédures durables (la gouvernance des données), assurée par une organisation de circonstance, composée d'individus aux tâches précises, et assistée par des outils dédiés en vue d'améliorer la qualité des données envers tous les acteurs-consommateurs de l'entreprise - qu'ils soient applicatifs, processus ou métiers.

Peu importe le logiciel mis en oeuvre - Si les composantes organisationnelles et procédures ne permettent pas de mettre en oeuvre et d'assurer la pérennité de la démarche, alors le logiciel importe peu puisque les investissements consentis partiront en fumée. L'entreprise doit être préparée à traiter de front les problématiques transverses métiers et technologiques liées à la mise en oeuvre d'une stratégie de gestion des données de référence.

Malgré tous les meilleurs logiciels MDM que vous pourrez avoir en votre possession, ils ne préparereront pas votre organisation et vos procédures comme par magie. Rick Sherman confirme d'ailleurs en insistant sur le fait que "Penser que la technologie résoud tout explique pourquoi de trop nombreux projets IT échouent". Les projets d'intégration complexes doivent être initiés d'abord et avant tout par le métier. De l'implication des métiers dépend la réussite du projet, puisque l'integrétation de données et le MDM traitent de problématiques métiers avant tout; la technologie n'est alors qu'un outil comme un autre.


Source:

vendredi 13 février 2009

7 moyens de réduire les coûts IT grâce au MDM

L'éditeur outre-atlantique Siperian nous donne la recette à appliquer, en ces temps de disette, pour réduire les coûts des services IT, à l'aide d'un ingrédient magique : le MDM ! (et en particulier la mise en oeuvre de référentiels centraux de données).

1. Réduire les coûts d'interfaces applicatives en réduisant le nombre de connexions point à point entre applications, et en rationalisant les flux de données partagés par différents processus métiers.

2. Réduire les coûts des redondances de données provenant de fournisseurs externes, en  limitant les acquisitions dupliquées de données, réalisées par les différents départements d'une même entreprise auprès de D&B, Coface et autres Telekurs ou Bloomberg . Le but du référentiel central est de constituer le point unique d'acquisition, de stockage et de distribution de ces données à l'ensemble des acteurs-consommateurs de l'entreprise.

3. Réduire les coûts de nettoyage de données, en centralisant les initiatives d'amélioration de qualité des données. Outre la rationalisation des coûts de nettoyage, la qualité s'en retrouve également améliorée puisqu'au lieu de multiples initiatives spécifiques à une application, le nettoyage centralisé permet l'identification de doublons inter-applications.

4. Réduire les coûts de traitement et nettoyage de données externalisés, souvent réalisés à la demande de différents départements. Il s'agit ici de mutualiser les efforts de nettoyage (comme le dédoublonnage ou la validation postale) - par exemple en utilisant un outil de gestion de qualité des données - et de les mettre à disposition de tous au moyen d'un répertoire central partagé - répertoire qui en outre conserve l'historique des états successifs des modifications de données.

5. Réduire les coûts de licence, de support et de matériel des systèmes redondants, puisqu'un référentiel central partagé permet de réduire le nombre d'entrepôts de données, en rendant obsolètes ceux contenant des données dupliquées: réduction du coût des licences, des coûts de support associés, des coûts liés aux outils de développement pour personnaliser ces applicatifs, des coûts de maintenance liés aux plateformes physiques les hébergeant...

6. Réduire les coûts de développements et de maintenance des déveveloppements spécifiques, en remplacant et concentrant les systèmes légataires, rendus inadéquats aux besoins actuels et dont l'effort d'évolution est trop important, au sein d'une aplateforme MDM configurable et évolutive: réduction non seulement des coûts de développement et de maintenance.

7. Réduire les coûts de livraison d'information, par la mise en oeuvre d'un référentiel central qui délivre la bonne information, une information sûre, à jour et tracable, évitant ainsi les allez-retour entre les métiers et les services IT pour discuter de l'origine, de la pertinence et de la fraîcheur de la donnée.

Liens:

samedi 7 février 2009

AIM Software : étude 2008 sur les tendances de la gestion des données de référence

L'éditeur européen AIM Software publie comme chaque année les résultats de son étude sur les pratiques et tendances de la gestion de données de référence dans le secteur financier, réalisée en 2008 en partenariat avec Interactive Data, sur un panel plutôt représentatif (plus de 300 sondés, principalement des établissements financiers, à travers 58 pays).

L'étude révèle les problèmes principaux auxquels font face les établissements financiers dans la gestion de leurs données de référence: mauvaise qualité des données, manque de standards, incomplétude et coûts élevés - les mêmes que l'an dernier précise l'éditeur, preuve en est de la nécessité de poursuivre les efforts d'amélioration de la gestion des flux de données - ce que confirme la volonté d'un nombre important de sondés de mettre en œuvre d'ici 2 à 5 ans des solutions de traitement automatisé et centralisé des données issues de flux financiers.

Alors que l'année précédente les établissements savaient qu'ils devaient accroitre l'automatisation du traitements de ces flux - sans pour autant positionner un agenda clair pour atteindre ce but - il semblerait qu'en 2008 ces mêmes établissements envisagent le problème à un plus haut niveau, et se concentrent d'avantage sur leurs applicatifs en back-office - les poussant à envisager la mise en œuvre d'applications pour consolider et centraliser la gestion de leurs données de référence. Dans un contexte difficile de crise financière et économique, les établissements financiers sont d'autant plus poussés à réfléchir sur la manière dont ils gèrent et traitent leurs données, afin de se préparer au mieux aux défis de demain.

AIM Software, leader des solutions de gestion des données de référence dans le milieu financier, fait partie de ces spécialistes qui concentrent leurs activités sur un marché de niche à haut niveau de spécificité mais à fort potentiel. Les résultats plus détaillés de l'étude sont disponibles gratuitement sur le site de l'éditeur - moyennant une participation à l'étude 2009 sur ce même thème.

Source: