Selon lui, les solutions leaders du marché sont basés et construites sur des technologies anciennes et dépassées, et qui ne permettent pas de relever les nouveaux défis liés en particulier à ceux levés par la gestion des données de référence :
- algorithmes inefficaces de matching (détection de doublons) par comparaison de masques (patterns),
- algorithmes inadaptés dans un contexte de données internationales,
- l'incapacité des outils de comprendre le contexte dans lequel s'applique une donnée, et la traitant sans en prendre compte,
- Le manque d'automatisation avancée tant dans le nettoyage (cleansing) que dans le profilage (profiling) de données.
Vous trouverez cette excellente suite de cinq articles ci-dessous :
(ainsi que leur traduction automatique approximative, pour les non-anglophones - merci g00gle)
- The problem with data quality solutions - part 1 (Traduction)
- The problem with data quality solutions - part 2 (Traduction)
- The problem with data quality solutions - part 3 (Traduction)
- The problem with data quality solutions - part 4 (Traduction)
- The problem with data quality solutions - part 5 (Traduction)