jeudi 22 octobre 2009

Information Management Forum 2009: en direct sur Twitter


L'Information Management Forum à la Grande Arche de la Défense vient de commencer. Suivez en direct sur Twitter (ci-dessous) ce qu'il s'y passe, en suivant les commentaires et les impressions de ceux qui y sont:



PS: Twittez également vos commentaires en y incluant le tag #IMF2009 dans vos tweets !

mardi 20 octobre 2009

Petit déjeuner MDM à Paris le 29 octobre 2009


A l'occasion de la sortie de son ouvrage "Management des données de l'entreprise - MDM et modélisation sémantique", Pierre Bonnet, Orchestra Networks et le MDM Alliance Group organisent un évènement MDM sur Paris sous forme d'un petit déjeuner Jeudi 28 octobre prochain.

Au programme, une présentation de son ouvrage par Pierre Bonnet lui même, une présentation de l'initiative de Notation des SI (IS Ratings), ainsi qu'une démonstration (30min) de la solution EBX. Platform d'Orchestra Networks.

A noter que les participants se verront offrir un exemplaire du livre de la part les membres du MAG (MDM Alliance Group). L'évènement est gratuit, sur inscription.

Date: Jeudi 29 octobre 2009, de 9h à 11h
Lieu: Hotel Concorde Saint Lazare, Paris 8ème (Plan)
S'inscrire à l'évènement (gratuit)

PS: Et n'oubliez pas également ce Jeudi 22 octobre 2009 l'Information Management Forum à la Défense (Grande Arche) !

mercredi 7 octobre 2009

D&B: une offre nouvelle offre MDM/CDI en mode SaaS

Dun & Bradstreet (D&B pour les intimes), le fournisseurs d'informations B2B, annonce hier la mise à disposition d'une solution référentiel Client en mode hébergée - ou SaaS - permettant aux professionnels du marketing et des ventes de (re)prendre le contrôle de leurs données.

Similaire à l'offre SaaS de Siperian sur SalesForce.com, D&B propose un référentiel de type CDI-B2B doté de fonctionnalités de consolidation et déduplication, d'administration des données (datastewardship), basée sur la technologie Purisma acquise en 2007 - l'évènement avait alors marqué les esprits puisqu'il s'agissait de l'entrée du géant de l'information B2B sur le marché du MDM.
D&B positionne également son offre (puisqu'en mode hébergé) comme un  accélérateur de mise en oeuvre d'un référentiel Client, et comme un premier pas vers une stratégie MDM.

L'offre de D&B se distingue néanmoins par l'integration directe de la solution avec les services de D&B pour l'enrichissement des fiches Clients (ajout d'identifiant unique DUNS, renseignements d'entreprise, etc.) au bénéfice de l'amélioration de la qualité des données du référentiel (enrichissement et vérification des données par D&B facilitant l'identification et l'élimination de doublons).



Sources:

(Merci à Buzz.MDM pour l'info!)

mercredi 30 septembre 2009

mardi 29 septembre 2009

Open Source, MDM & Talend: A New Hope


(Merci à Buzz.MDM pour l'info!)

Talend - le petit génie des solutions Open Source d'intégration de données - rachète la solution MDM (Xtendis MDM) de son compatriote français Amalto, spécialiste des échanges B2B, permettant ainsi à Talend de diversifier son offre à l'ETL (Open Studio), DataQuality (Open Profiler) et aujourd'hui au MDM.

La solution, qui sera rendue OpenSource et disponible début 2010, permettra de proposer une solution MDM à un tarif en rupture avec celui pratiqué par les mastodontes du marché, où comme le rappelle Bertrand Diard, PDG de Talend - le "ticket d'entrée est aujourd'hui à 1M de dollars". Rappelons la recette - simple et à succès - de Talend: on réalise son projet à l'aide de outils open-source, et l'on fait appel au support Talend si nécessaire pour les besoins de production.
Plus de détails sur l'Article de Buzz.MDM.


Update du 1er oct. 2009:
Outre un éventuel impact sur le coût des licences des solutions MDM, Andy Hayler (The Information Difference) y voit quand à lui une confirmation de la tendance des éditeurs de solutions d'intégration de donnée à vouloir également se doter d'une offre MDM, comme les récents rachats et rapprochements d'Informatica l'avaient laissé penser l'an dernier.

On pourra tout de également noter le rapprochement établi par LMI entre Talend et BonitaSoft, éditeur d'une solution BPM Open Source, qui pourrait augurer l'élargissement vers une véritable offre middleware de Talend.

Sources:

vendredi 25 septembre 2009

Information Management Forum, le 22 octobre 2009 à Paris


Enfin un forum francophone dédié à la gestion de l'information d'entreprise !

Organisé le 22 octobre prochain aura lieu à la Grande Arche de Paris la Défense, la première édition de l’Information Management Forum (IMF 09') qui sera dédiée à la compréhension et à la gestion du cycle de vie de la donnée: collecte, intégration, référencement, master data management, gestion de la qualité, stockage, restitution, analyse...mais également organisation (gouvernance), méthodes, et outils.

Au programme: des témoignages clients, des analyses d'experts, et des présentations de solutions des éditeurs SAP, DataFlux, IBM, Orchestra Networks, Information Builders et Tibco seront notamment là pour présenter leurs solutions.

Les inscriptions sont ouvertes depuis hier.

PS: Pour ceux qui auront la possibilité de s'y rendre, merci de penser à twitter vos impression ! (par exemple en incluant le tag #IMF09)

Plus d'informations:
(Merci au site Buzz.MDM pour l'info!)

jeudi 27 août 2009

MDM: Nouvel ouvrage MDM francophone

Un nouvel ouvrage francophone sur le thème du MDM vient de paraitre:
Management des données de l'entreprise, Master Data Management et modélisation sémantique
par Pierre Bonnet, aux éditions Lavoisier (Collection management et informatique).

Moins d'un an après la publication du premier ouvrage francophone sur le MDM, Pierre Bonnet (Orchestra Networks) connu pour ses initiatives "best practices" au sein des communautés MDM Alliance Group ou encore Praxeme, et auteur d'un Guide sur la Modélisation des Données de Référence, et co-auteur d'un  ouvrage sur le SI durable, aborde cette fois-ci le thème de la gestion des données en entreprise à destination des DSI et gestionnaires d'information, en insistant particulièrement la question des données de référence et de l'importance de leur modélisation:

Quatrième de couverture
(source: P.Bonnet, Groupe Méthode SOA)
Dans une économie de plus en plus immatérielle, la maîtrise de la qualité des données est aujourd'hui un enjeu considérable. La nécessité d'une meilleure gouvernance et le renforcement des règles prudentielles internationales (Sarbanes Oxley, Bâle 2, Solvency, IAS-IFRS, etc.) imposent aux entreprises une plus grande transparence et une meilleure traçabilité de l'ensemble de leurs données.

Toutes les parties prenantes de l'entreprise sont concernées et se tournent vers l'informatique pour obtenir des réponses. Or, la plupart des systèmes informatiques développés se sont complexifiés à l'excès.

Mal adaptés et obsolètes, ces systèmes sont devenus une source de fragilité préjudiciable pour l'entreprise. C'est dans ce contexte que la gestion des données de référence ou Master Data Management (MDM) et la modélisation sémantique interviennent pour réorienter la gestion des données de manière progressive et durable.

Cet ouvrage montre comment la direction générale, les directions métier et la DSI doivent prendre en compte les nouveaux enjeux et apports de la gestion des données de référence : quelles fonctions de gouvernance mettre à disposition ? Comment améliorer l'alignement du SI avec les réglementations ? Quel est le retour sur investissement ? Comment valoriser l'actif immatériel SI et ses données ? Quels sont les principes de la modélisation sémantique ? Quelle est
l'architecture technique ? 

Retrouvez le sommaire de l'ouvrage ici.
La traduction de l'ouvrage en anglais est prévue pour 2010.


Sources:

mercredi 1 juillet 2009

Actus MDM: Si vous aviez été sur Twitter...

Si vous aviez été sur Twitter, vous auriez pu être au courant de...
Bref, vous auriez pu être au courant des tendances, l'actualité et les articles en me suivant sur Twitter, et ce plus rapidement que sur le blog In Data Veritas!

Mais bon, vous n'êtes pas sur Twitter, ou du moins, pas encore ! Rien d'irrattrapable, il suffit de vous inscrire, et au passage, suivez moi sur Twitter.

En fait, la communauté MDM du côté analystes, éditeurs, consultants et autres intégrateurs est plutôt active sur Twitter, et présente des articles intéressants, publie des news ou des réflexions. Voici d'autres personnalités du MDM à suivre:

En attendant vos tweets et re-tweets.

jeudi 25 juin 2009

Open Source MDM : Y-a-t'il encore un pilote dans l'avion Mural ?

Qu'en est-il de Mural, communauté MDM/DI/DQ Open Source inititée il y a un an tout juste par Sun, et qui avait bénéficié alors d'une grande publicité dans la presse puisqu'il s'agissait de la première offre Open Source marquetée sous la dénomination "MDM" ? En visitant le forum des utilisateurs de Mural, on peut tâter le pouls de ce projet...

Et aux vues d'un post récent s'inquiétant de l'état du patient, il semblerait que celui-ci n'ait pas une santé de fer. D'autant plus qu'il ait été vraisemblablement laissé à l'abandon par son principal parent, Sun ayant bien d'autres chats à fouetter suite à son phagocytage par le Géant Rouge (preuves en sont les rumeurs d'abandon du programme interne de Gouvernance des Données de Sun, qui a visiblement pati du rachat par Oracle).

Certes Mural peut certes se targuer de quelques points forts :
  • Des projets pilotes en cours pour la version MDM Open Source (au moins 3 projets pilotes dans l'administration publique en France, du côté des universités dont une version de production attendue en fin d'année d'après le forum)
  • Des intégrateurs possédant le savoir, certes au nombre de 3 et oeuvrant en Californie et à Bengalore, 
  • Une robustesse issue en partie des 10 années d'expérience d'eView (SeeBeyond, racheté par Sun)  dont il est issu,
  • Une version commerciale Sun MDM Suite, toujours commercialisée par Sun dans son offre business CAPS,
  • L'enthousiasme de ceux qui l'utilisent déjà ...
Néanmoins, les signes vitaux sont inquiétants :
  • Une communauté dont le dynamisme s'essouffle (l'apparition d'un lien "HelpWanted!" qui ne passe pas inaperçu sur la page d'accueil);
  • Pas d'implémentation en production connue: à priori, les seules implémentation de productions étant soient des versions commerciales MDM de Sun (Sun MDM Suite), soient des implémentations issues de la solution eView de SeeBeyond - rachetée par Sun ayant enfantée la version Open Source;
  • Pas de roadmap officielle clairement définie sur les fonctionnalités à venir;
  • Un site web et une documentation en jachère (on ne compte plus les "en construction" sur le site, sans évolution depuis des mois);
  • L'avenir incertain du produit commercial dont il est issu (ou inversement) depuis le rachat par Oracle - on attent néanmoins une nouvelle release pour la sortie de la version 6.2 de CAPS prévue pour la fin de l'année
  • Une présence, certes, mais discrète lors du récent JavaOne 2009 début Juin (uniquement pour Sun MDM Suite) et aucun échos ni dans la presse, ni dans la blogosphère.
Jusqu'alors, Sun avait initié des programmes universitaires pour aider à la construire de sa solution, mais sans Sun aux commandes, la communauté Murale ne bénéficie plus de cette mâne.
Pas de signes non plus de la part d'Oracle, les spéculations et rumeurs sur le sujet n'apportent pas les éléments suffisants pour trancher sur le sort de cette première offre Open Source MDM.

Références:

lundi 8 juin 2009

Data Quality: Map, Landscape et Carré de solutions

Pour les amateurs de comparatifs visuels et autres visualisation du paysage de solutions de Data Quality, les cabinets d'analyses Bloor Research et Information Difference nous font part de leurs derniers crûs de comparatif des solutions de Data Quality.



Ces cabinets sont certes moins célèbres que d'autres géants, mais spécialisés dans le data management, ils permettent d'aborder d'un autre oeil ou de compléter les évaluations faites par d'autres cabinets plus généralistes (fabricants de carrés  magiques et autres vagues forrestières, dans l'attente de leurs mises a jour 2009). Retrouvez ces analyses plus détaillées ci-dessous:
Edit du 15/05/09:
Gartner vient également tout juste de sortir des presses son dernier carré magique des solutions de Data Quality.
 

Retrouvez le rapport ici:

mercredi 20 mai 2009

Nouveautés chez les éditeurs français Orchestra Networks et Talend

Parmi les éditeurs innovants du marché du MDM, les éditeurs français Orchestra Networks (MDM) et Talend (solutions Open Source d'intégration de données) sortent leurs dernières versions de leurs solutions,  respectivement EBX.Platform et Talend Open Studio.


EBX.Platform: Gestion de Workflows et héritage de valeurs par familles d'objets

Parmi les nouveautés de la version 4.7RC, l'arrivée officielle de la gestion des workflows. Cette fonctionnalité était déjà packagée dès avril 2008 mais n'était ni documentée ni officiellement supportée. Centré sur l'interaction utilisateur, la flexibilité de la modélisation - permettant de modéliser la diversité de workflows utilisateurs sur les données de référence, et sur la tracabilité des actions, ce nouveau module augure la gestion collaborative de données au sein d'EBX.Platform

Un autre point à noter est l'amélioration de l'héritage de valeurs - l'un des fer-de-lance et différenciateur de la solution d'Orchestra Networks - par l'ajout d'une dimension "héritage par famille/catégorie" (en version beta), qui permet à un objet d'hériter de valeurs issues d'attributs définis au niveau de la famille de cet objet.


Cette fonctionnalité automatise ainsi les nécessaires calculs et mises à jour de valeurs communes aux membres d'une catégorie d'objets par simple définition de règles. Une dimension supplémentaire de l'héritage qui pourra trouver de nombreuses applications: fiches produits (comme le montre ci-dessus l'illustration d'Orchestra Networks), clients, instrument financiers ou tout autre type d'objet géré par familles.

EBX.Platform 4.7RC, à télécharger ici (version d'essai).



Talend Open Studio: toujours plus visuel et intuitif

L'éditeur de solution d'intégration Open Source qui monte n'est pas en reste puisqu'il vient de sortir Talend Open Studio en version 3.1, une solution Open Source qui rivalise avec bien des solutions propriétaires. Parmi les nouveautés:
  • Une interface utilisateur améliorée, plus intuitive et moins orientée technique, rendant plus claire la modélisation de workflows de transformation de données . L'interface graphique permet le glisser-déposer d'éléments, de les reliers entre eux toujours à la souris, et de tester workflow modélisé en visualisant son exécution (voir illustration ci-dessous, issue de la vidéo de démonstration).
  • Nouvelles fonctionnalités de scheduling d'exécution de tâches avec dashboard, et de monitoring (compatibilité avec Nagios, solution open source de monitoring d'application).
Talend Open Studio v3.1 est à télécharger ici. Pour l'avoir testé (dans ma recherche d'un outil intuitif et simple de migration one-shot et réutilisable de base à base), je vous invite vivement à faire de même.

mardi 19 mai 2009

MDM et gestion des données financières

Parmi les domaines d'applications de la gestion des données de référence, il est intéressant de noter à quel point celui de la gestion des données financières constitue un monde un peu à part. Venant du monde du MDM et ayant récemment migré dans la gestion des données dans le secteur financier, force est de constater l'avancée de ce microcosme dans les pratiques et l'organisation. Revenons cependant à une introduction des concepts clés.

"Tempus aurum est"

Outre son caractère vital pour l'activité de l'entreprise (dans la dématérialisation de portefeuille ou encore le respect des contraintes réglementaires), la particularité d'un SI financier est son rôle capital dans la nécessité pour l'entreprise d'une prise de décision rapide face à des marchés complexes et fluctuants. Et cette particularité a plusieurs impacts sur la gestion des données de référence, qui doit alors faire face à des problématiques spécifiques au secteur financier.

Diversité et technicités des sources d'information

Outre la grande diversité des sources, et l'extrême technicité des méthodes et formats d'acquisition des données (journaliers et intra-journaliers, temps réel, fichier plats, messages complexes), le MDM dans la gestion des données financières (instruments financiers, opérations sur titres, cours boursier, notations, émetteurs) intervient pour consolider l'acquisition d'informations provenant de plusieurs fournisseurs d'informations financières (Bloomberg, Thomson Reuters, Telekurs, etc.), sources d'informations émanants du marché financier.

Coût de l'information

L'acquisition d'information financière a un coût. Et ces informations alimentent l'ensemble des activités financières de l'entreprise, quand bien mêmes ces sources ont elles-mêmes différents niveaux de qualités en fonction de la couverture géographique ou la type d'information voulue.
L'objectif du MDM consiste donc en la rationalisation des coûts d'acquisition de donnés externes, en centralisant les demandes de données nécessaires aux différents métiers, comme l'évaluation de portefeuille ou encore le calcul d'exposition aux risques de l'entreprise - cette dernière activité consommatrice de données de référence et de relations entre données de référence connait d'ailleurs un certain regain depuis les premiers signes de la crise.

Spécificités des solutions MDM de gestion de données financières

Dans le monde des solutions de gestion des données financières (ou solutions de Reference Data Management - j'y reviens plus tard), les principales problématiques concernent:
  • l'optimisation de logique d'acquisition, pour minimiser les coûts d'acquisition des données auprès des fournisseurs externes et constituer d'une vue complète, fiable et à jour d'un instrument (puisque la couverture des informations varie en fonction de chaque fournisseur);
  • la rapidité d'exécution de traitements volumineux, en minimisant les traitement manuels en faveur de l'automatisation (Straight Through Processing) pour une mise à disposition rapide des informations aux systèmes back-office consommateurs: nettoyage et sélection de prix (Price Scrubbing), ou encore calcul de valeurs dérivées pour les produits financiers dits idoines, en vue d'alimenter les calculs de risques ou autres évaluations de portefeuilles. La solution MDM devient alors point unique de vérité pour la gestion des assets, l'enjeu consistera à répartir judicieusement - en fonction du métier de l'entreprise et de ses impératifs - l'exécution de ces traitement entre les différentes technologies de règles métiers disponibles dans le SI: moteur embarqué (price scrubing et pricing, dérivation), et/ou combiné à un BRMS et/ou à une architecture CEP - Complex Event Processing (calcul de risques liés à des évènement complexes faisant intervenir plusieurs systèmes);
  • l'intégration amont des sources de données, de leur complexité et leur caractère changeant (formats) nécessitant un entretien permanent des connecteurs dédiés;
  •  l'intégration avale vers les systèmes back-office, bien que des solutions standardisées telle Avaloq fasse leur apparition;
  • la complétude et fiabilité de l'information - de la capacité et de l'étendu du modèle de données, gestion relations entre instruments et entre émetteurs - dépend la pertinence et la rapidité des calculs complexes de l'entreprise (en particulier le calcul de risques).
  • la traçabilité de l'historique de l'évolution des données (historique) et des actions ayant conduit à leur modification (audit), et de la nécessaire justification des résultats en traçant également l'historique des évolutions des régles métiers - et ce, dans un soucis de respect des contraintes réglementaires.
À microcosme à part, vocabulaire à part

Alors que "MDM" est un terme qui m'est familier, il semblerait que le terme de "Reference Data Management" (données de titres) soit plus en vogue dans le discours des acteurs (éditeurs, cabinets, analystes) de la gestion des données financières, bien qu'il s'agisse de traiter des données de référence partagés par plusieurs processus et applications de l'entreprise. Il semblerait d'ailleurs que l'utilisation de Reference Data Management soit antérieure à l'apparition de l'expression Master Data Management.


On parlera également de "Market Data Management" pour la gestion des données de valorisations sur les marchés, et on distinguera l'EDM (Enterprise Data Management) pour désigner le domaine dédié à la gestion des informations financières de l'entreprise - un sous ensemble de l'EIM, donc.

Master Data versu Reference Data ?

Un vocabulaire certe légèrement différent, mais l'objectif reste néanmoins le même. On pourra peut être différencier les Master Data des Reference Data par le caractère amélioré de la qualité de ces premières, - dans le sens où les processus de maintien de la données (data stewardshipping) sont passés par là - les Reference Data quant à elles sont des données telles qu'elles, issues de sources externes jugées de qualité, et servent de constituant aux données Master Data.


Dans de prochains articles, j'insisterai plus sur les dimensions architecture, organisation et solution afin de vous faire partager mon nouvel écosystème.

mercredi 6 mai 2009

Récentes acquisitions sur le marché du MDM

Période de crise, période d'acquisitions. Les carnassiers opportunistes se repaissent de menus fretins, et quelques récentes acquisitions sur le marché des éditeurs de solutions MDM méritent un petit commentaire.

Acquisition de Sun Microsystems par Oracle: quel avenir pour Sun MDM Suite et l'open source Mural ?

A la surprise générale, Sun Microsystem a préféré le Géant rouge au Grand bleu (l'éditeur californien Oracle s'est avéré plus convaincant...). Parmi les interrogations et autres spéculations sur le devenir des technologies Sun dans le giron de l'éditeur san-franciscain (hardware, Java, Open Source, MySQL & cie), le sujet de l'avenir de l'offre MDM de Sun (Sun MDM Suite) n'en est peut être pas un.

Habitué des recouvrements d'offres dans ses acquisitions - et ici, l'offre MDM ne déroge pas à la règle - , il est peu probable qu'Oracle fasse grand cas d'une solution qui pourrait nuire à ses produits maisons.

Et jusqu'à présent, pas d'annonce officielle ni même de commentaires sur le devenir de la jeune solution MDM de Sun, qui commençait pourtant à trouver oreilles attentives auprès des partisans du monde libre, s'agissant de la seule offre Open Source dans le paysage des solutions MDM - de ce fait, une offre intéressante pour Oracle. Le salut pourrait venir de l'intégration du projet Mural à l'offre Open Source d'Oracle, mais la digestion de l'ogre rouge devra se trouver à un stade plus avancé - de l'ordre de 9 à 12 mois - pour que paraissent des premiers signes de décisions en ce sens, ou dans un autre. À suivre...


Acquisition de Exeros par IBM: recouvrement ou complément d'Information Server ?

L'acquisition de l'éditeur Exeros par le Big Blue n'a rien d'aussi spectaculaire. L'éditeur spécialiste des solutions d'analyses de donnée peinait à se positionner sur le marché MDM, - à coup de communiqués, publications et sponsorings de communautés MDM - mais doit s'arrêter en pleine course, rattrapé par la fringale d'un plus gros qui a peut être mal digéré qu'Oracle lui vole le pain de la bouche.

Les solutions d'Exeros  - dédiées à la découverte de données (profiling et découvertes de relations entre bases de données disparates) et de validation (audit de la qualité d'entrepôts de données basé sur des règles métiers) - sont en complet recouvrement avec l'offre existante Information Server d'IBM, tant sur les fonctionnalités d'ETL que de profiling. Pourtant l'une est une solution standalone performante, l'autre est une solution d'entreprise performante nécessitant une infrastructure logicielle et matérielle adéquate... Selon Vincent McBurney, il est vraisemblable qu'IBM garde les deux.

Toujours selon V.McBurney, les bénéfices pour les utilisateurs des solutions MDM d'IBM semblent néanmoins possibles: l'utilisation des outils Exeros comme Discovery X-Profiler permettront de faciliter la détection de données de référence dans les systèmes sources (ex. lever une alerte ) puis de faciliter leur intégration intégrer dans MDM Server. MDM Server s'intègre déjà avec QualityStage, ce dernier pourra coopérer avec Exeros Discovery pour disposer de règles de nettoyage et gérer les exceptions provenant de QualityStage.

Les solutions d'Exeros rejoindront néanmoins le giron de la division Information on Demand pour armer - en plus des outils issus des rachats de Cognos et ILOG - la nouvelle activité Business Analytics & Optimization d'IBM.

Sources:

vendredi 1 mai 2009

Lectures de printemps

Avec les beaux jours qui reviennent, voici quelques propositions de lectures (électroniques) pour passer un après-midi à l'ombre de votre arbre préféré :

Mis gracieusement à disposition, ce document décrit les axes d'adoption et une méthode de calculer un retour sur investissement à court terme, illustré par un exemple concret tiré d'un projet. Pour accéder au document, l'enregistrement auprès de Forrester est nécessaire.

Livre blanc disponible en Francais exposant la vision de l'éditeur sur les différents niveaux de maturité d'une gouvernance de données dans l'entreprise.

Données de référence et secteur financier: Une étude sur le secteur financier outre-manche (enregistrement requis) menée par DataFlux qui révèle les attentes relatives à la conformité réglementaire, à l'exactitude et à l'intégration de données depuis de multiples sources.

Le gourou de la globalisation des données (adresses et formats internationaux) propose gratuitement son dernier ouvrage concernant les interfaces d'acquisition des noms et adresses. Référence dans le casse tete des formats de noms et d'adresses à travers le monde, ce dernier ouvrage illustre la vision (fondée) selon laquelle l'amélioration a posteriori de la qualité des données dans les bases de données est trop coûteuse voire vaine: la solution durable consiste en la mise en oeuvre de contrôles adaptés dès la source, en l'occurence ici au niveau des formulaires de saisie (adaptés au contextes nationaux, linguistiques et culturels de l'utilisateur).

mercredi 8 avril 2009

MDM et Mainframes: Moderniser l'existant

Les Mainframes sont certes chers... mais les investissements colossaux consentis pour bâtir ces applications robustes placés au coeur des processus métiers de l'entreprise font qu'il est hors de question de les abandonner. Et "une telle décision devient aberrante en période de crise" ajoute Franck Régnier (Logica Management Consulting), interviewé par Buzz.MDM dans le cadre d'un premier article d'une suite consacrée au rôle du MDM dans la modernisation des Mainframes.

F.Régnier y décrit les rôle complémentaires des solution MDM et des Mainframes: dans cette symbiose, les solutions MDM apportent "de nouveaux leviers de gouvernance pour ces données" et des "fonctionnalités accrues" aux Mainframes, en "limitant l'impact sur l'existant", et "à moindre coût [...] et avec un ROI sensible". L'article illustre ces propos par 3 exemples d'architectures de coexistence entre solutions MDM et Mainframes. L'interview est à lire sur le blog Buzz.MDM.

Source:

mardi 7 avril 2009

L'Affaire Madoff et le MDM

Quelles leçons peut-on tirer de l'affaire Madoff ?

Alors que Bernard Madoff attend sa sentence dans sa confortable cellule de prison, l'éditeur DataQualityFirst illustre les bienfaits de l'approche MDM en analysant les données comptes et clients (titulaires de comptes et leurs adresses) de Bernard L. Madoff Investment Securities LLC à l'aide de sa solution PartyQualityInsight, dopée par l'outil DQM d'IBM: QualityStage (l'étude de cas téléchargeable).

L'illustration s'avère plutôt parlante, puisque l'analyse révèle des données éparses (réparties dans plusieurs systèmes type ERP et DataWarehouses) et souffrant de problèmes de qualité (redondances de données en particulier) - c'est à dire à peu près la même situation que celle l'on retrouve encore dans de très nombreux SI.

Et en analysant qui sont les victimes de ce stratagème pyramidal, on découvre que cette mauvaise qualité de données a probablement contribué à Madoff lui même. Pour preuves: sur plus de 23.076 comptes clients (personnes morales et physiques), seuls 13.561 se sont avérés être des clients uniques et parmi lesquels 41 contiennent les mots "Bernard" ou "Madoff". Combien Madoff en a-t'il créé par lui même ? Quels sont ceux rattachés à ses propres comptes ? Combien de fausses adresses et de relations a-t'il également créé pour faire fructifier son stratagème ?

Et cet exercice pousse plus loin la réflexion: Et chez vous ? Qui dans votre entreprise est responsable des données Client ? Qui est en charge de leur création, et garant de leur validité ? Qui est responsable de la gestion des règles métiers en charge de contrôler ces données ? Quelle stratégie de gouvernance de données avez-vous mis en place pour vous protéger de tels abus ?

L'exercice est plutôt bien mené par l'éditeur, et placé dans un contexte pour le moins parlant. Un article à lire, donc.

Sources:

mercredi 1 avril 2009

Origines du terme "Master Data Management"

Lorsque l'on commence à s'interroger sur les origines d'une discipline, c'est à la fois signe de maturité - un bon signe - et signe d'un certain besoin de recul (en particulier lorsqu'il s'agit d'une introspection) parce que l'on ne sait plus trop où l'on en est, après tant d'agitation - peut être un moins bon signe.

Dans le forum du groupe Méthode SOA, Pierre Bonnet s'interroge sur l'origine du terme "Master Data Management" à l'occasion de la rédaction de son prochain ouvrage "MDM et modélisation sémantique".

La discipline de la gestion des données de référence n'est pas nouvelle, et porte même différents noms suivant le secteur d'activité. Plus connue par exemple sous l'appelation "Reference Data Management" dans le milieu financier (des premiers ouvrages sur la discipline paraissent dès 2000), ou "Master Data Management" ou encore Gestion des données de référence, le terme "Master Data Management" s'est aujourd'hui largement répandu depuis 2004 avec les publications des premiers cabinets d'analystes (Ventana Research, IDC Group, Bloor Research puis plus tardivement Gartner et Forrester), cabinets de conseil (Logica Management Consulting) et éditeurs (Orchestra Networks).

Après quelques recherches perso sur la Toile, l'une des preuves les plus anciennes de l'emploi du terme "Master Data Management" daterait de Juillet 2002, lors d'une campagne de communication interne chez Rohm & Haas (chimie) faisant l'éloge des bénéfices d'un projet de gestion de Master Data - regroupant la gestion des données Client,  Fournisseurs et Matériaux. On est donc bien ici dans un contexte transverses aux processus et entités métiers de l'entreprise, multi-objets et donc loin des approches pures CDI (orienté Client) et PIM (orientées Produit) qui pouvaient déjà exister ailleurs. A noter que l'infrastructure technique sous-jacente est l'ERP SAP/R3 de l'éditeur allemand SAP.

En parlant de SAP, on pourrait noter qu'il s'agit également du premier acteur du marché à communiquer sur le terme "Master Data Management" puisque c'est durant le symposium SAPPHIRE en Septembre 2002 à Lisbonne que l'éditeur communique sur la sortie prochaine d'une solution SAP Collaborative Master Data Management, qui deviendra SAP NetWeaver MDM. Il semblerait d'ailleurs que des développeurs aient déjà rejoint le projet SAP (C)MDM dès Juillet 2001. Selon SAP, ce sont ses clients (Nokia, Motorola Semi-conductors et Dow Chemicals) qui l'auraient poussé à développer ce type de solution. SAP a ensuite intégrer la notion de Master Data Management dans sa stratégie dès 2002.

A preuve du contraire, on peut à ce jour estimer l'origine du terne "Master Data Management" autour de la mi-2001/début 2002, du côté de chez SAP et de ses clients. Si quelqu'un d'autre possède des preuves d'antériorite de ce terme, la communauté MDM serait heureuse de le savoir !

Sources:

dimanche 8 mars 2009

EBX.Platform en version 4.6

Une nouvelle mouture de la solution phare de l'éditeur français Orchestra Networks, j'ai nommé EBX.Platform, vient de paraitre (merci à Buzz.MDM pour l'info!). Parmi les nouveautés, on notera principalement l'arrivée du module Data Model Assistant tant attendu offrant des capacités de modélisation embarquées, permettant ainsi enfin de construire un modèle de données - objets, attributs, règles, documentation, régles de validation, etc.- sans nécessiter de connaissances techniques préalables.

Je vous invite par ailleurs à assister à l'une des nombreuses sessions webinars "Expresso shots of Data Governance" organisé par l'éditeur, ne serait-ce que pour assister à une petite démonstration des capacités de l'outil.

Source:

mercredi 18 février 2009

En finir avec les préjugés : Le MDM n'est pas un logiciel

L'étendue du MDM est parfois difficile à concevoir pour le néophyte, parceque le message lié aux technologies employées - les "référentiels" - passe beaucoup plus facilement.

Lorsque l'on tente de l'expliquer à quelqu'un, au moment où une illumination semble surgir dans le regard de son interlocuteur, il s'agit rarement de la bonne lumière : il interrompt soudain l'explication et s'exclame : "Ah, donc le MDM, c'est une base de données qui expose ses données sous forme de services. Donc tu mets en place des bases de données, c'est ca ?". Et parfois, il ajoute même : "Mais on pourrait très bien faire ca avec _________" - où l'espace blanc peut être comblé par l'un ou plusieurs des termes suivants :
  • "un SGBD"
  • "un DataWarehouse"
  • "un ERP"
  • Si d'autres exemples vous viennent en tête, merci de me les transmettre pour compléter la liste.
Devant votre appitoiement et sous ses airs satisfaits, le néophyte - bien que bourré de préjugés - n'est pas irrécupérable, loin de là. Tentons une première phase de démystification, sous la forne d'un premier article au sein d'une série sur les préjugés concernant le MDM.

Le MDM ne se résume pas à (la mise en oeuvre d') un logiciel

Le MDM n'est ni une technologie ni un logiciel, mais une démarche, qui se focalise sur la gestion d'un certain type d'informations - en l'occurence celle des données de référence - au sein de l'entreprise dans son ensemble, et dont les ingrédients principaux sont les personnes et la politique de l'entreprise.

Il s'agit ici avant tout de la mise en oeuvre de procédures durables (la gouvernance des données), assurée par une organisation de circonstance, composée d'individus aux tâches précises, et assistée par des outils dédiés en vue d'améliorer la qualité des données envers tous les acteurs-consommateurs de l'entreprise - qu'ils soient applicatifs, processus ou métiers.

Peu importe le logiciel mis en oeuvre - Si les composantes organisationnelles et procédures ne permettent pas de mettre en oeuvre et d'assurer la pérennité de la démarche, alors le logiciel importe peu puisque les investissements consentis partiront en fumée. L'entreprise doit être préparée à traiter de front les problématiques transverses métiers et technologiques liées à la mise en oeuvre d'une stratégie de gestion des données de référence.

Malgré tous les meilleurs logiciels MDM que vous pourrez avoir en votre possession, ils ne préparereront pas votre organisation et vos procédures comme par magie. Rick Sherman confirme d'ailleurs en insistant sur le fait que "Penser que la technologie résoud tout explique pourquoi de trop nombreux projets IT échouent". Les projets d'intégration complexes doivent être initiés d'abord et avant tout par le métier. De l'implication des métiers dépend la réussite du projet, puisque l'integrétation de données et le MDM traitent de problématiques métiers avant tout; la technologie n'est alors qu'un outil comme un autre.


Source:

vendredi 13 février 2009

7 moyens de réduire les coûts IT grâce au MDM

L'éditeur outre-atlantique Siperian nous donne la recette à appliquer, en ces temps de disette, pour réduire les coûts des services IT, à l'aide d'un ingrédient magique : le MDM ! (et en particulier la mise en oeuvre de référentiels centraux de données).

1. Réduire les coûts d'interfaces applicatives en réduisant le nombre de connexions point à point entre applications, et en rationalisant les flux de données partagés par différents processus métiers.

2. Réduire les coûts des redondances de données provenant de fournisseurs externes, en  limitant les acquisitions dupliquées de données, réalisées par les différents départements d'une même entreprise auprès de D&B, Coface et autres Telekurs ou Bloomberg . Le but du référentiel central est de constituer le point unique d'acquisition, de stockage et de distribution de ces données à l'ensemble des acteurs-consommateurs de l'entreprise.

3. Réduire les coûts de nettoyage de données, en centralisant les initiatives d'amélioration de qualité des données. Outre la rationalisation des coûts de nettoyage, la qualité s'en retrouve également améliorée puisqu'au lieu de multiples initiatives spécifiques à une application, le nettoyage centralisé permet l'identification de doublons inter-applications.

4. Réduire les coûts de traitement et nettoyage de données externalisés, souvent réalisés à la demande de différents départements. Il s'agit ici de mutualiser les efforts de nettoyage (comme le dédoublonnage ou la validation postale) - par exemple en utilisant un outil de gestion de qualité des données - et de les mettre à disposition de tous au moyen d'un répertoire central partagé - répertoire qui en outre conserve l'historique des états successifs des modifications de données.

5. Réduire les coûts de licence, de support et de matériel des systèmes redondants, puisqu'un référentiel central partagé permet de réduire le nombre d'entrepôts de données, en rendant obsolètes ceux contenant des données dupliquées: réduction du coût des licences, des coûts de support associés, des coûts liés aux outils de développement pour personnaliser ces applicatifs, des coûts de maintenance liés aux plateformes physiques les hébergeant...

6. Réduire les coûts de développements et de maintenance des déveveloppements spécifiques, en remplacant et concentrant les systèmes légataires, rendus inadéquats aux besoins actuels et dont l'effort d'évolution est trop important, au sein d'une aplateforme MDM configurable et évolutive: réduction non seulement des coûts de développement et de maintenance.

7. Réduire les coûts de livraison d'information, par la mise en oeuvre d'un référentiel central qui délivre la bonne information, une information sûre, à jour et tracable, évitant ainsi les allez-retour entre les métiers et les services IT pour discuter de l'origine, de la pertinence et de la fraîcheur de la donnée.

Liens:

samedi 7 février 2009

AIM Software : étude 2008 sur les tendances de la gestion des données de référence

L'éditeur européen AIM Software publie comme chaque année les résultats de son étude sur les pratiques et tendances de la gestion de données de référence dans le secteur financier, réalisée en 2008 en partenariat avec Interactive Data, sur un panel plutôt représentatif (plus de 300 sondés, principalement des établissements financiers, à travers 58 pays).

L'étude révèle les problèmes principaux auxquels font face les établissements financiers dans la gestion de leurs données de référence: mauvaise qualité des données, manque de standards, incomplétude et coûts élevés - les mêmes que l'an dernier précise l'éditeur, preuve en est de la nécessité de poursuivre les efforts d'amélioration de la gestion des flux de données - ce que confirme la volonté d'un nombre important de sondés de mettre en œuvre d'ici 2 à 5 ans des solutions de traitement automatisé et centralisé des données issues de flux financiers.

Alors que l'année précédente les établissements savaient qu'ils devaient accroitre l'automatisation du traitements de ces flux - sans pour autant positionner un agenda clair pour atteindre ce but - il semblerait qu'en 2008 ces mêmes établissements envisagent le problème à un plus haut niveau, et se concentrent d'avantage sur leurs applicatifs en back-office - les poussant à envisager la mise en œuvre d'applications pour consolider et centraliser la gestion de leurs données de référence. Dans un contexte difficile de crise financière et économique, les établissements financiers sont d'autant plus poussés à réfléchir sur la manière dont ils gèrent et traitent leurs données, afin de se préparer au mieux aux défis de demain.

AIM Software, leader des solutions de gestion des données de référence dans le milieu financier, fait partie de ces spécialistes qui concentrent leurs activités sur un marché de niche à haut niveau de spécificité mais à fort potentiel. Les résultats plus détaillés de l'étude sont disponibles gratuitement sur le site de l'éditeur - moyennant une participation à l'étude 2009 sur ce même thème.

Source:

mercredi 14 janvier 2009

Lectures MDM du début d'année 2009

En vous souhaitant à tous au passage une excellente année 2009 - et déjà plus de 2 ans de vie de ce blog ! - , sachez que malgré le contexte économique, l'horoscope 2009 pour le MDM s'annonce des plus favorables.

Pour preuves, ces quelques lectures disponibles en ligne et publiées par BEye-Network et The MDM Institute :

Enterprise MDM Market Review and Forecast for 2008-12
Comme chaque année, Aaron Zornes et son équipe annoncent leur prévisions astrologiques sur l'état du MDM et son évolution pour 2008-2012 :
  • 2009-2010 : les entreprises se focalisent sur la mise en oeuvre de solutions MDM dites de 3e génération (hubs de données spécialisés - tiers, produit, contrats, etc. - , capables de délivrer l'information sous forme de services) autour des données de type Produit, Client, Fournisseurs, afin de concentrer les multiples canaux d'acquisition et les lignes métiers, et d'homogénéiser environnements IT hétérogènes existants.
  • 20011-2012 : convergence des besoins en matière de gestion des données structurées (MDM, BI, DWH) et non structurées (ECM) par la mise en oeuvre de solution dites de 4e génération (Hub généraliste capabale de concilier la gestion des données standardisées et non standardisées - par exemple incluant des technologie sémantiques).
  • D'ici à 2012, plus de 80% des entreprises du Global 5000 auront placé leur politique MDM au coeur de leur stratégie métier, en ayant implémenté au moins une solution MDM autour de la notion de Tiers (Client, Fournisseur, Patient, etc.) ou de Produit.
La tendance est donc à l'accroissement puisque l'institut prédit une hausse de plus de 150% du marché des services d'intégration de solutions MDM (de 510 Millions USD en 2007 à plus de 1.3 milliard USD en 2012).

An Evolutionary Approach to Master Data Management
Dans ce livre blanc édité en partenariat avec DataFlux, IBM et Teradata), Claudia Imhoff (Intelligent Solutions) et Colin White (B-Eye Research) font un état des liex des pratiques et outils pour la mise en oeuvre de projets MDM. Les auteurs notent que depuis aujourd'hui plus de trois ans, le MDM a gagné en maturité, faisant émerger aujourd'hui une industrialisation des projets. Notez au passage la définition du MDM donnée dans ce document :
[Nous définissons le MDM comme étant] un ensemble de disciplines, de technologies, d'applications, de politiques et de procédures employées pour gérer, harmoniser et gouverner les données associées aux principales entités métiers d'une organisation.

Morceau choisi - Les malentendus liés aux MDM

Le MDM est une composante d'un projet de BI ou de DatawareHouse ?
FAUX. Ces types de projets sont probablement parmi les premiers à se rendre conpte de la nécéssité de mettre en oeuvre un environnement intégré de gestion des données de référence. Si l'initiative MDM est immergée dans un projet de BI, la tendance va à construire l'environnement uniqement dans le but de servir les besoins des applications BI - à savoir la dimension historique des données.

Data WarehouseApplication MDM
L'objectif est l'analyse de l'historique des données L'objectif est de maintenir des données de référence de qualité
Contient des données transactionnelles et des données de référenceContient uniquement des données de référence
Les données détenues sont issues d'archives Les données détenues sont à jour, et possiblement archivées
Généralement consommateur de données Consommateur et source de données
Technologie orientée analyse Technologie orientée gestion des données
Dédié à l'agrégation et à la synthèse des données et données de référence Dédié exclusivement À la gestion des données de référence
Les données ne sont pas utilisées par d'autres applications non-BI Les données de rérérence sont possiblement utilisées par plusieurs applications opérationnelles et applications BI

Différences majeures entre DataWarehouse et MDM

NB : D'autres préjugés sur le MDM sont analysés et détruits dans l'article.

Fruit des bonnes pratiques des auteurs, ce rapport aborde quelques différentes approches de mise en chantier d'un projet MDM par l'entremise de plusieurs études de cas, et la revue des offres d'acteurs majeurs de solutions MDM.

Deux articles à lire donc, en ces temps troubles où même si les effets de la crise se font sentir dans certains secteurs, on observe que nombreux sont ceux qui ont pris conscience de la nécessité d'améliorer la qualité de leurs données comme moteur de diminution des coûts - j'en veux pour preuve l'audience croissante de ce blog, et le nombre de projets maintenus et nouveaux liés au MDM, qualité des données et gouvernance des données.

lundi 12 janvier 2009

Buzz.MDM : blog francophone sur l'actualité du MDM & Data Governance

Un nouveau venu sur la scène francophone du MDM en matière d'actualités sur les sujets traitant des données de référence, de la qualité des données et de la gouvernance : Buzz.MDM
 Déjà à ce jour, une synthèse des tendances du MDM pour 2009 d'après des analystes renommés du domaine (Gartner, Forrester, The MDM Institute, etc.) qui prédit que cette nouvelle année sera une fois de plus placée sous le signe du MDM.

Souhaitons donc un accueil chaleureux à ce nouveau blog de référence en la matière !