Les innovations fulgurantes des NTIC acquises ces dix dernières années permettent de concevoir des applications et des systèmes d'information répondant beaucoup mieux aux besoins de convivialité réclamés par tous les usagers de l'informatique qui depuis longtemps ne sont plus majoritairement les informaticiens. Le dilemme pour les maîtres d'ouvrages et les directions informatiques est simple dans sa formulation, mais à haut risque : refaire ou adapter le parc des applications pour exploiter ou introduire le potentiel d'évolution des NTIC. C'est une façon de conserver, ou de gagner, un avantage compétitif cher à Michael Porter grâce à ces nouvelles facilités technologiques.

Dans le premier cas il faut mettre sur pied des projets complexes de très grande taille dont les budgets se chiffrent en centaines d'hommes(années de réalisation et donc accepter un risque d'échec considérable : on a encore en mémoire les démêlés étalés dans la presse entre EDF et ses sous-traitants à propos d'OPTIMIA, ainsi que les résultats de l'étude Chaos du Standish Group.

Dans le second cas, il faut procéder à une chirurgie de grande précision de façon à isoler dans les applications, ce qui est dépendant d'une plate-forme " main-frame " pour le remplacer par une architecture client-serveur, ou identifier la fonction métier que l'on pourra aller chercher comme un service dans un PGI, voire comme un service disponible en libre sur le réseau. Il faut pour cela une vision très claire de l'entreprise et de sa chaîne de valeur, là encore chère à Michael. Porter.

Dans les deux cas il faut définir, ou reconstruire, une architecture qui va fonctionner comme une infrastructure d'intégration, un " framework ", qui va être le garant de la pérennité des investissements sur le long terme. Il est donc essentiel de standardiser la description de l'architecture, et ceci à un niveau beaucoup plus générique, adaptabilité oblige, que ce qui avait été fait à travers des technologies comme IDL et CORBA, au demeurant peu utilisées. C'est l'objectif avéré des approches MDA (Model-Driven Architecture), MOF (Meta Object Facility), et autres... en cours de définition à l'OMG. Dans le cas d'une rétro-conception, la question fondamentale qui se pose est celle de l'équivalence sémantique entre le modèle rétro-conçu en vue de la migration /adaptation et de l'application " legacy " initiale. Nous savons tous que ce type d'équivalence est ce qu'il y a de plus difficile à garantir à 100% sans faire diverger l'application " portée " de l'application initiale.

Organisées les 24 et 25 septembre 2003 par le  CMSL " Centre pour la Maîtrise des Systèmes et du Logiciel ", ces journées ont pour but d'analyser les promesses et les risques des technologies MDA promues par l'OMG et de ce qu'en ont fait des industriels comme Sodifrance, ici contributeur, dans le montage de projets de migration de grande ampleur. Une première journée (24 septembre) sera consacrée à des exposés didactiques pour que chacun des participants puisse s'approprier la problématique. Une seconde journée (25 septembre) sera consacrée à des retours d'expérience et à un premier bilan lucide des possibilités de ces nouvelles approches pour résoudre des problèmes bien concrets de migration des parcs d'applications.


Copyright (C) CNAM-CMSL 2003, Tous droits réservés.