mardi 23 décembre 2008

Série d'articles sur les problèmes actuels des solutions de Data Quality

Philip Howard, du cabinet Bloor Research, pousse la grogne contre l'état actuel du marché des solution de Data Quality (gestion de la qualité des données), dans une série de cinq articles (voir plus bas) plutôt pertinents.

Selon lui, les solutions leaders du marché sont basés et construites sur des technologies anciennes et dépassées, et qui ne permettent pas de relever les nouveaux défis liés en particulier à ceux levés par la gestion des données de référence :
  • algorithmes inefficaces de matching (détection de doublons) par comparaison de masques (patterns),
  • algorithmes inadaptés dans un contexte de données internationales,
  • l'incapacité des outils de comprendre le contexte dans lequel s'applique une donnée, et la traitant sans en prendre compte,
  • Le manque d'automatisation avancée tant dans le nettoyage (cleansing) que dans le profilage (profiling) de données.
Il invoque ainsi l'arrivée de nouveaux entrants pureplayers, approchant le marché avec des approches innovantes tels Silver Creek, Exeros (allié à CA), Zoomix (racheté par Microsoft) ou encore Netrics, basées sur la compréhension sémantique, sur la contextualisation des données et l'importance des relations entre elles (même entre applications) - grâce à la résolution d'identités complexes, sur la modélisation mathématique avancée en lieu et place de la comparaison par pattern, et sur des techniques automatisées avancées de profiling de données.

Vous trouverez cette excellente suite de cinq articles ci-dessous :
(ainsi que leur traduction automatique approximative, pour les non-anglophones - merci g00gle)

Aucun commentaire:

Enregistrer un commentaire