Les données sont le rouage essentiel des systèmes d'informations. À l'âge de l'information, la qualité des données gérées par ces derniers est une exigence fondamentale de la sûreté de fonctionnement de notre système socio-économique. Dans un monde massivement informatisé, où des données de toute nature prolifèrent, comment peut-on s'assurer que l'information qu'elles représentent a toujours un sens, qu'elles restent cohérentes avec d'autres données, qu'elles puissent évoluer et s'adapter à un monde en mouvement à un rythme de plus en plus rapide.

La qualité des données revêt un double aspect :
- La gestion des données, au sens classique du terme, qui consiste à répertorier toutes les données manipulées par un système, à en dresser la nomenclature, les duplications sur différents sites, les évolutions, etc. L'an 2000 nous a rappelé que le problème bien connu n'était pas si simple à régler dans la pratique.
- La gestion du sens des données, c'est-à-dire la sémantique, qui consiste à évaluer dans quelle mesure tous les acteurs potentiels des données, acteurs humains et/ou acteurs systèmes, interprètent les données de la même façon. La question de la sémantique est au cœur des problèmes que doivent affronter les magasins de données, les outils de data mining, la gestion des connaissances, etc.
La maîtrise de la sémantique est une condition nécessaire à la bonne interopérabilité des systèmes, et au bon fonctionnement de l'interface homme-machine. Cette maîtrise passe par la gestion exhaustive du processus constituant le cycle de vie de la donnée, depuis sa création jusqu'à sa disparition.

La qualité des données est aujourd'hui une préoccupation majeure, tant au niveau des praticiens que d'instituts de recherche aussi prestigieux que le MIT. Le Composite Information System Laboratory, Sloan School of Management, MIT, a initialisé un programme de recherche sur le thème Total Data Quality Management ; la conférence MIT Conference on Information Quality se tient annuellement. Les publications de praticiens sont nombreuses : Information pay-off et The politics of information systems, de P. Strassmann, qui fut directeur des systèmes d'information du DOD, restent des classiques du genre. J.-P. Corniou, président du CIGREF et directeur des SI chez Renault, a publié récemment un ouvrage intitulé " La société de connaissance ", où l'information joue un rôle fondamental. L'enjeu étant véritablement stratégique et vital, l'information warfare est devenue une préoccupation des états-majors. Les enjeux économiques et sociétaux de la qualité de l'information sont donc considérables. On peut s'attendre à ce que XML et ses dérivés y tiennent une place importante.

Récemment, TDWI (The Data Warehousing Institute), un organisme se consacrant à l'avancement des entrepôts de données, a publié les résultats d'une étude faisant apparaître un large fossé entre la réalité et la perception qu'ont les entreprises de la qualité des données : les problèmes dus à une mauvaise qualité de données entraîneraient pour les seules entreprises américaines un coût de plus de 600 milliards de dollars.

Organisé par le Centre pour la Maîtrise des Systèmes et du Logiciel (CMSL) du CNAM et d'une durée de deux jours, le présent séminaire d'étude a pour but d'analyser, au travers d'un ensemble d'exposés didactiques et de descriptions de retours d'expérience du terrain donnés par des praticiens issus d'entreprises, les divers volets de la qualité des données et leurs relations avec la conception, l'architecture et la mise en œuvre des systèmes informatisés.

La première journée (le 11 mars) sera consacrée à un tutorial sur la problématique de la qualité des données et de l'information ainsi que sur les approches pratiques de ses contrôle et assurance. La seconde journée (le 12 mars), au travers d'exposés de retours d'expérience, fournira une analyse critique des techniques et méthodes en usage ainsi qu'un éclairage sur la pratique dans les entreprises.


Copyright (C) CNAM-CMSL 2003, Tous droits réservés.