Contenu du sommaire : Malaise dans l'évaluation : quelles leçons tirer de l'expérience du développement ?

Revue Revue d'économie du développement Mir@bel
Numéro volume 26, no 4, décembre 2012
Titre du numéro Malaise dans l'évaluation : quelles leçons tirer de l'expérience du développement ?
Texte intégral en ligne Accessible sur l'internet
  • Remerciements - Robert Peccoud p. 5-6 accès libre
  • Introduction - François Bourguignon p. 7-9 accès libre
  • Évaluer les politiques de développement : Evaluating Development Policies - James Mirrlees p. 11-25 accès libre avec résumé avec résumé en anglais
    L'article met l'accent sur les questions en jeu et les difficultés impliquées dans l'évaluation des politiques au niveau « macro ». Bien que l'évaluation soit un domaine complexe où le consensus est difficile à obtenir, elle reste toutefois un instrument indispensable et nécessaire pour éclairer la prise de décision. En ce qui concerne l'évaluation au niveau « macro », les décisions qui ont besoin d'être éclairées sont celles qui conduisent à la croissance, et on utilise le PIB comme le principal critère pour évaluer la croissance. L'article soutient que, bien qu'il soit facile à utiliser, le PIB se heurte toutefois à de nombreux problèmes techniques et conceptuels qui font qu'il n'est pas satisfaisant pour évaluer ce que l'économie produit. On aurait besoin de mieux prendre en compte, sur le plan des investissements, d'autres déterminants de la croissance (comme le capital humain, les coûts liés à l'environnement, la valeur de l'expertise requise pour l'évaluation) afin de fournir une mesure plus fidèle de la valeur économique des politiques. L'article conclut sur les autres utilisations qui peuvent être faites de l'évaluation, et rappelle que cette dernière peut être aussi un instrument efficace pour estimer et récompenser la performance des gestionnaires et des preneurs de décision en encourageant la mise en œuvre des résultats de développement attendus.
    This paper focuses on the issues at stake and difficulties involved in the evaluation of “macro”-level policies. Although evaluation is a complex area where consensus is hard to reach, it nonetheless remains an indispensable tool that is largely recognized as necessary to enlighten decision-making. From the perspective of “macro”-level evaluation, decisions that need to be informed are those conducive to growth, and GDP is used as the main yardstick to evaluate growth. The paper argues that although it is easy to use, GDP nonetheless entails a host of both technical and conceptual problems, which lead it to become a rather unsatisfactory way of evaluating what the economy produces. Other determinants of growth (such as human capital, environmental costs, value of the expertise required to evaluate) would need to be better taken into account, on the side of investments, to provide a more faithful measure of the economic value of policies. The paper concludes on the other uses that can be made of evaluation, and recalls how evaluation can also be an efficient tool for assessing and rewarding the performance of managers and decision-makers to encourage the achievement of expected development outcomes.
  • Évaluations d'impact : un outil de redevabilité ? Les leçons tirées de l'expérience de l'AFD : Impact Evaluations: A Tool for Accountability? Lessons from Experience in AFD - Jean-David Naudet, Jocelyne Delarue, Tanguy Bernard p. 27-48 accès libre avec résumé avec résumé en anglais
    Cet article rend compte de l'expérience de l'Agence Française de Développement (AFD) en matière d'évaluations d'impact. Il s'agit d'apprécier dans quelle mesure ces études peuvent, quand elles sont conçues avant la mise en œuvre d'un programme, fournir les données probantes sommatives que les bailleurs de fonds cherchent à obtenir en préconisant une telle démarche. Nous nous appuyons plus spécifiquement sur trois essais contrôlés randomisés (ECR) à grande échelle, afin de voir s'ils peuvent nous apporter des réponses en termes d'impact du programme considéré – « sur qui », « sur quoi » et « de quoi ». Nous parvenons à la conclusion que ces études expérimentales sont tout à fait indiquées pour des problématiques de type « tunnel », caractérisées par un nombre limité d'intrants homogènes bien spécifiques, un processus éprouvé et testé, une chaîne causale d'événements et de preuves courte et extérieure, une appropriation rapide et durable par les bénéficiaires, une participation large et stable et un ensemble de résultats (outcomes) quantifiables à court terme. Si bon nombre de ces problématiques, bien réelles, méritent d'être étudiées de manière expérimentale pour apporter des éléments qui seront pris en compte dans les ­politiques futures de développement, rares sont les interventions de développement qui réunissent ces conditions, de sorte que leur utilisation à des fins sommatives est réduite.
    This paper relates the Agence Française de Développement's experience in the area of impact evaluations. Our purpose is to assess to what extent such studies, when designed before actual programme implementation, can provide the type of summative evidence that donors still seek when promoting them. Specifically, we rely on three large-scale randomised control trials and scrutinise their capacity to answer questions about the programme's underlying impact “on whom”, “on what” and “of what”. We conclude that experimental studies should be promoted to clarify the “tunnel-type” issues characterised by a limited number of well-specified homogeneous inputs, a tried-and-tested process, a short and external-event-proof causal chain, a rapid and stable take-up rate, a high and stable level of participation, and a set of outcomes measurable in the short run. While a number of such issues exist and are well worth studying experimentally to inform future development policies, few development interventions satisfy the required conditions, and summative use thus remains limited.
  • L'histoire du développement revisitée : mesurer pour gérer : History Revisited: Measurement for Management in Development - Jodi Nelson p. 49-65 accès libre avec résumé avec résumé en anglais
    Cet article réfléchit à l'utilisation optimale de la gestion par indicateurs dans le développement. Face au « malaise dans l'évaluation », au cœur de cette conférence, l'auteur avance que l'incapacité de la communauté du développement à apprendre n'est pas tant liée à l'échec de l'évaluation ou des systèmes de mesure au sens large qu'à un manque de clarté stratégique. Elle commence par une rapide analyse de l'approche du cadre logique, de l'expérience de la gestion axée sur les résultats dans le développement, des critiques entourant les objectifs du Millénaire pour le développement (OMD) et d'un ouvrage récent sur la mesure de la performance dans les entreprises. Tous ces exemples tendent vers la même conclusion : les indicateurs ne sont des instruments de mesure utiles qu'à partir du moment où ils sont la partie visible d'une stratégie de développement tendue vers l'obtention de résultats. Les indicateurs « indépendants de toute stratégie », pour paraphraser David Apgar, n'ont pas d'intérêt. L'auteur suggère que c'est bien cette absence de clarté stratégique qui empêche la communauté du développement de tirer les enseignements de la pratique et non le système de mesure en tant que tel (dans le cas précis, le suivi des indicateurs).
    This paper considers the optimal use of indicators-based management in development. Situated within the conference's focus on evaluation and its “discontents”, the premise is that the development community's failure to learn is not a failure of evaluation or measurement more broadly, but instead a failure of strategic clarity. I provide a brief and necessarily cursory analysis of the logical framework approach, the experience of results-based management in development, relevant critiques of the Millennium Development Goals and a recent book about measuring performance in business. All of these stories point to the same lesson – that indicators are only helpful measurement tools if they reflect an underlying strategy to produce development results. Indicators that are “strategy independent” – in David Apgar's words – are irrelevant. I propose that the real challenge to the development community's ability to learn from practice is not in measurement per se (in this case, the use of indicator tracking), but in the rarity of our strategic clarity.
  • Le sens de la mesure. La gestion par les indicateurs est-elle gage d'efficacité ? : How Much is Enough? Does Indicator-Based Management Guarantee Effectiveness? - Catherine Paradeise p. 67-94 accès libre avec résumé avec résumé en anglais
    La conduite d'une politique fondée sur les indicateurs est fermement intégrée à une approche technique sous-jacente et à une philosophie gestionnaire qui s'appuie sur une vision simplifiée des relations organisationnelles entre concepteurs, utilisateurs, conseillers et contrôleurs des politiques. Ce modèle de gouvernance reposant sur le principe de la responsabilité pose deux questions. L'une concerne l'efficience – sa capacité à améliorer la productivité en termes d'outputs. L'autre concerne sa contribution à l'effectivité des politiques publiques – en d'autres mots, leur capacité à produire les outcomes (les objectifs ultimes) visés par ces politiques, souvent liés au bien-être social ou à la croissance économique.Après avoir examiné la place que tiennent maintenant ces indicateurs dans la décision publique et après avoir identifié leurs propriétés, leurs vertus et leurs effets pervers, l'article analyse leur performance en termes d'efficience des organisations publiques et d'effectivité de la politique publique. L'article conclut en soulignant les conditions pour une utilisation adaptée des indicateurs dans la prise de décision et la gestion du secteur public.
    Indicator-based policy steering is staunchly embedded in an underlying technical approach and a management philosophy that draws on a simplified vision of the organisational relationships between policy designers, users, advisors and overseers. This governance model grounded in the principle of accountability raises two questions. First, as regards its efficiency – its capacity to improve productivity in terms of outputs. Second, as regards its contribution to the effectiveness of public policies – or in other words, its ability to produce the outcomes (final objectives) targeted by these policies and which are often linked to social wellbeing or economic growth. After examining the place that indicators now hold in public sector decision-making and identifying their properties, virtues and perverse effects, the article goes on to analyse their performance in terms of the efficiency of public organisations and the effectiveness of public policy. It concludes by listing the conditions for an appropriate use of indicators in public sector management and decision-making.
  • Dimensionner l'aide au développement : ce que nous enseigne l'évaluation : Dimensioning Development Aid: Some Lessons from Evaluation - Ruerd RUBEN p. 95-123 accès libre avec résumé avec résumé en anglais
    La plupart des discussions sur l'efficacité de l'aide en termes de développement se concentrent généralement sur les flux agrégés d'aide, sans prêter attention aux diverses catégories d'aide ni aux différents mécanismes d'acheminement. Nous affirmons pourtant que la question centrale n'est pas de savoir si l'aide fonctionne, mais bien quel type d'aide fonctionne. L'impact potentiel de l'aide – positif ou négatif – semble résulter principalement des modalités selon lesquelles l'aide est délivrée. Cet article répond à deux questions : quelle forme d'aide fonctionne et comment est-elle acheminée ? Alors que la confiance de la société dans l'aide publique s'étiole et que l'intérêt pour la nouvelle architecture de l'aide s'accroît, ces questions ont une pertinence croissante.Nous abordons trois aspects fondamentaux – et pourtant souvent sous-estimés – qui sont déterminants pour l'efficacité du développement : (a) les complémentarités de ressources entre les différents volets d'un programme ; (b) les effets de substitution entre les différentes activités ; et (c) les effets d'entraînement influençant l'efficacité de l'aide au niveau global. Nous présentons plusieurs exemples empiriques de ces mécanismes, en montrant leur pertinence spécifique pour les nouveaux types de dispositifs institutionnels qui caractérisent les réformes à venir de l'architecture internationale de l'aide (partenariats public/privé, fonds fiduciaires multidonateurs et fonds d'appui à la société civile).
    Most discussions on the development effectiveness of aid tend to focus on aggregate flows and neglect the various categories of aid and different aid delivery mechanisms. We emphasise, however, that the key question is not whether aid works, but which aid works. The potential effects – both beneficial and adverse – of aid appear to be mainly the consequence of how aid is provided. This paper therefore addresses two questions: which aid works and how aid is delivered. These issues are becoming increasingly relevant given the declining societal trust in public aid and against the background of the growing interests in the new aid architecture. We discuss three basic, albeit usually underestimated aspects that critically influence development effectiveness: (a) resource complementarities between different programme components, (b) substitution effects between different activities, and (c) spillover effects that influence aid effectiveness at aggregate level. We present some empirical examples of these mechanisms and indicate their particular relevance for the new types of institutional arrangements that characterise upcoming reforms of the international aid architecture (public-private partnerships, multi-donor trust funds and civil society support funds).
  • Appliquer l'évaluation à l'aide au développement : une solution pour combler le fossé micro-macro de l'efficacité de l'aide ? : Applying Evaluation to Development and Aid: Can Evaluation Bridge the Micro-macro Gaps in Aid Effectiveness? - Leonce Ndikumana p. 125-153 accès libre avec résumé avec résumé en anglais
    Sous l'effet notamment des tensions croissantes sur les équilibres budgétaires dans le sillage de la crise économique et financière mondiale, bailleurs de fonds et gouvernements des pays bénéficiaires de l'aide sont sous pression, obligés de démontrer l'efficacité de l'aide. Les données recueillies sur la question dressent un tableau au mieux mitigé : alors que les interventions spécifiques ciblées semblent produire des effets positifs, l'impact macroéconomique reste limité. En outre, les rapports sur les réalisations concrètes des interventions sont inadaptés et alimentent ce faisant des doutes sur l'efficacité de l'aide. Cet article s'attache à cette double problématique du fossé micro-macro de l'efficacité de l'aide et de l'établissement de rapports. Il indique comment des évaluations bien conçues et soigneusement mises en œuvre pourraient contribuer à réduire ces écarts et comment des rapports de meilleure qualité ainsi que la transparence sur les résultats de l'aide pourraient faire progresser l'ordre du jour de l'efficacité de l'aide.
    Donors and governments in aid recipient countries are under pressure to demonstrate the effectiveness of aid, especially given the growing stress on fiscal balances in the context of the global financial and economic crisis. The evidence on aid effectiveness remains mixed at best: while individual targeted aid interventions appear to produce positive results, the impact of aid at the macroeconomic level remains limited. Furthermore, the reporting on concrete outcomes of aid interventions remains inadequate, thus perpetuating doubts as to aid effectiveness. This paper discusses these micro-macro gaps in aid effectiveness and the reporting problem. It proposes some ways in which well-designed and carefully implemented evaluations can help bridge these gaps, and how better reporting and transparency on aid results can advance the aid effectiveness agenda.
  • Appliquer l'évaluation aux politiques de développement : Applying Evaluation to Development Policy - Miguel Székely p. 155-174 accès libre avec résumé avec résumé en anglais
    Cet article examine deux questions qui, ces dernières années, ont pris une importance croissante dans la littérature consacrée aux politiques de développement et aux politiques sociales : d'une part, on considère que l'on manque de données probantes et de connaissances sur les effets des différents types d'interventions politiques sur les résultats du développement. D'autre part, les données disponibles ne sont que rarement exploitées afin d'améliorer les politiques. Nous démontrons que plusieurs raisons sont à l'origine de ce paradoxe apparent : (i) les évaluations produisent des informations limitées et n'ont qu'une portée réduite ; (ii) les incitations et les objectifs de l'ensemble des acteurs impliqués dans les processus de production et d'utilisation de l'évaluation sont fondamentalement différents ; (iii) il existe des différences importantes en termes de capacités à utiliser et à produire de l'information afin d'améliorer la conception des politiques. Nous mettons en évidence que, pour progresser, il convient d'examiner ces éléments et d'adopter des approches plus intégrées afin d'aller au-delà de l'approche prédominante actuellement, qui consiste à rechercher des données probantes en se focalisant uniquement sur l'offre ou sur la demande.
    This paper addresses two concerns that have gained attention in the development and social policy literature in recent years: on the one hand, it is perceived that the amount of evidence and knowledge on the effects on different types of policy interventions on development results is still scarce. On the other, there are also documented perceptions that the available evidence is being used to a very limited extent for improving policy. We argue that some of the reasons for this apparent paradox are: (i) the limited scope and information that can be provided by evaluations; (ii) the differences in the incentives and objectives of the different actors involved in the evaluation generation and use process; and (iii) the differences in capabilities to use and produce information for improving policy design. We argue that in order to move forward it is necessary to examine these elements and go beyond looking separately at the supply and demand for evidence, which appears to be currently the prevalent view, and visualize more integrated approaches.
  • L'affrontement entre les objectifs de développement et l'évaluation d'impact : The Collision of Development Goals and Impact Evaluation - Michael A. Clemens p. 175-205 accès libre avec résumé avec résumé en anglais
    Deux courants ont récemment refaçonné l'aide au développement. Le mouvement en faveur des objectifs a unifié et inspiré les acteurs de l'aide avec des objectifs quantifiables ; le mouvement en faveur de l'évaluation a émis des normes pour mesurer les effets réels de l'aide. Ces deux courants semblent complémentaires, mais dans certains projets de l'aide ils se sont heurtés de manière improductive. Je passe en revue un tel affrontement, dans le projet Villages du Millénaire (MVP) mis en œuvre par les Nations Unies. L'histoire nous donne des leçons sur la façon dont les nouveaux objectifs de développement et les évaluations d'impact à venir pourraient davantage se renforcer mutuellement.
    Two movements have recently reshaped development aid. The Goal Movement has unified and inspired aid actors with quantified targets; the Evaluation Movement has raised standards for measuring the aid's true effects. These two movements can complement each other, but in some aid projects they have instead unproductively collided. I review one such collision, in the United Nations-sponsored Millennium Villages Project. The story offers lessons on how new development goals and future impact evaluations could do more to reinforce one another.