Depuis 1994, le Standish Group mesure l’efficacité de milliers de projets informatiques dans le monde et synthétise ces enseignements dans le rapport Chaos.
Le constat est sans appel :
- Succès: Moins de 30% des projets atteignent leurs objectifs de coûts, fonctionnalités, délais et satisfaction utilisateur
- Projet challengé: afin d’être mené à terme, 50% des projets ont nécessité une augmentation budgétaire ou des délais, ou une réduction des fonctionnalités initialement prévues
- Échec : Près de 20% des projets sont annulés pendant le cycle de développement
Les projets informatiques de l’Etat sont particulièrement sensibles à ces risques : les projets couvrent souvent des périmètres importants et inscrits dans la durée. Afin de juger de l’intérêt des projets et de mieux maîtriser les risques, une méthode spécifique aux projets publics a donc été développée en 2005 : la méthode MAREVA 1.
Dans cet article nous présenterons les principes de la méthode MAREVA 1 par des exemples concrets, puis nous tâcherons d’identifier ses apports comme ses limites.
Présentation de la méthode MAREVA 1
La Méthode d’Analyse et de REmontée de la VAleur a été développée en 2005 par le cabinet Bearing Point pour le compte de l’ADAE (Agence pour le Développement de l’Administration Electronique), l’ancêtre de la DISIC (Direction Interministérielle des Services d’Information et de Communication). La méthode MAREVA 1 est un tableur méthodologique qui permet de sélectionner ou refuser des projets de systèmes d’informations.
Les critères d’analyse de la méthode MAREVA 1
Les critères d’analyse de MAREVA 1 sont adaptés au secteur public et tiennent compte de ses spécificités. La méthode repose sur 5 catégories de critères, soit une cinquantaine de questions. L’utilisateur attribue à chaque question une valeur allant de 0 (valeur nulle) à 4 (valeur très importante). Les résultats sont synthétisés dans un diagramme « radar » de la performance attendue du projet.
- Rentabilité : Quel sera le retour sur le capital investi (ROI) ?
Une estimation est réalisée à partir d’hypothèses sur les coûts de « build » (pilotage, développement, infrastructure, AMOA, …) et les coûts de « run » (maintenance, infogérance, formation …)
« Quels sont les gains de productivité, quels sont les revenus additionnels ? »
- Nécessité: Quel est l’objectif du projet ? Doit-on répondre à des aspects législatifs, techniques ou marketing ?
En terme concurrentiel, l’équipe évalue le risque de faire ou de ne pas faire un projet.
« Le non lancement du projet menace la continuité du service ? Le projet est un prérequis à d’autres projets ? »
- Maîtrise des risques: Quels sont les risques du projet et leur probabilité ?
Les risques sont principalement liés aux objectifs du projet, à sa gouvernance, au budget, aux délais et à la réglementation qui l’entoure. Une attention particulière est portée à l’impact sur les ressources humaines pendant et après le projet.
« Les équipes en interne ne disposent pas d’une culture projet ? Le projet mobilise-t-il des solutions non éprouvées ? »
- Bénéfices internes : Quels seront les impacts sur les méthodes, la qualité ou l’intérêt du travail dans l’organisation concernée ?
« Le projet va-t-il générer de nouvelles synergies entre les directions en interne ? Le projet va-t-il rendre le travail plus intéressant et permettre de développer de nouvelles compétences ? »
- Bénéfices externes: Le projet permettra-t-il de simplifier ou enrichir l’offre, d’innover et de faciliter l’utilisation ou encore de fidéliser et conquérir de nouveaux utilisateurs ?
« Le projet va-t-il contribuer à l’amélioration de la fidélisation des clients ? Quel va être l’impact du projet sur l’image de l’organisation ? »
Le résultat de cette étude est une synthèse « radar » qui offre une vue managériale du projet. Les graphiques permettent de comparer des projets entre eux par la simple superposition des radars MAREVA 1. Lors d’arbitrage, la comparaison des impacts du projet et de la valeur attendue constitueront des aides précieuses à la sélection des projets qui seront retenus ou non. Enfin, en cas d’incertitude sur certaines variables du projet, différents scénarios de performance peuvent être définis : haut, moyen, bas.
L’utilité de la méthode MAREVA
La méthode MAREVA 1 apporte une réelle plus-value car elle prend en compte des critères spécifiques aux projets publics ; la mission de service public des institutions et organismes d’État allant souvent au-delà de la simple rentabilité unitaire. La méthode MAREVA 1 ambitionne d’accroître la performance de l’administration, pour y parvenir les dépenses doivent être maîtrisées grâce à une plus grande responsabilisation des utilisateurs, dès le début du projet. La diffusion de cette méthode permet également la comparaison des projets dans le cadre d’une approche de Portefeuille de projet (voir l’article PMO, définition et rôle dans l’entreprise) ou lors d’un arbitrage entre différentes entités.
Signe de la pertinence de l’évaluation des avant-projets informatiques, des méthodologies similaires existent au Royaume-Uni, au Canada et dans le privé sous la forme de dossier d’investissements.
Les limites de MAREVA 1
Néanmoins, certains projets d’envergure menés par des ministères ont laissé apparaître des limites à la méthode MAREVA 1.
Au début des années 2000, les projets Louvois et ONP avaient pour objectifs d’administrer la paie de centaines de milliers de fonctionnaires. Après plusieurs années de développement et des millions d’euros investis (respectivement 470 millions d’euros pour Louvois et 1,3 milliard d’euros pour l’ONP), ces projets ont été abandonnés.
Pour ces deux projets pharaoniques, les échecs s’expliquent notamment par une mauvaise appréciation de la complexité d’intégration des différents systèmes entre eux. La fiche d’opportunité de MAREVA 1 ne tient pas compte de la compatibilité des systèmes d’information des différentes armées et de leur capacité à échanger des informations ; ces questions étant pourtant au cœur du projet.
A travers la grille d’évaluation, on peut saluer l’aspect novateur de la prise en compte des impacts sociaux, liés aux ressources humaines ou à l’image de l’organisation. Néanmoins, la place des risques techniques et SI a été sous-évaluée, avec des critères absents ou manquants de profondeur (parmi les 17 questions de l’onglet « Risques », seulement 2 questions y sont dédiées). La méthodologie MAREVA 2 détaillée dans cet article, est venue renforcer la prise en compte des risques SI, en rééquilibrant le poids des impacts utilisateurs, bénéficiaires et techniques.
Conclusion
Les projets SI entrepris par l’Etat sont singuliers autant par leurs dimensions que par leurs objectifs. Ils nécessitent des méthodes de travail adaptées.
La méthode MAREVA 1 sans être exclusive constitue une aide à la décision ; mais d’autres problématiques existent. En 2014, le cabinet de conseil Gartner a identifié 3 raisons d’échecs des projets informatiques, qu’ils soient publics ou privés. L’article révèle qu’au-delà de l’analyse amont du projet et de sa préparation, il est également indispensable de porter un œil attentif aux facteurs humains. Une gouvernance claire du projet, avec un dialogue régulier entre les acteurs, ainsi que la mise en place d’une méthode de travail agile permettront d’obtenir plus de réactivité en cas d’incertitude et in fine une efficacité optimale.
La description et les guides d’utilisation de la méthodologie MAREVA 2 sont disponibles sur le site du Ministère des Finances – Forum de la performance.
Pour plus d’informations, n’hésitez pas à nous contacter
Sources : Zdnet.fr, Silicon.fr, Gartner.com
MAREVA2 est opérationnelle depuis 2014. Nous n’encourageons plus l’utilisation de MAREVA1.
Merci pour votre commentaire, nous avons rajouté un lien en fin d’article vers les guides Mareva 2. Nous publierons prochainement un article sur les évolutions apportées par Mareva 2. N’hésitez pas si vous avez des documents à nous partager.
Bonjour,
L’article sur le méthode Mareva 2 est désormais disponible, vous pouvez le retrouver en suivant ce lien
http://www.redsen.com/fr/inspired/portefeuille-projet/de-mareva-1-a-mareva-2-accroitre-lefficacite-pilotage-portefeuilles-de-projets-informatiques
Bonne lecture !