Les organisations de défense des droits peuvent-elles se livrer à un exercice d’introspection peu contraignant en matière d’évaluation ?

Récemment dans openGlobalRights, Emma Naughton et Kevin Kelpin ont écrit que le travail dans le domaine des droits de l’homme ne se prête pas facilement aux évaluations quantifiables  axées sur les résultats. Leurs commentaires font écho à ceux d’un autre expert qui a étudié l’évaluation au sein d’Amnesty International ainsi que chez d’autres organisations en 2014, et qui a également conclu que les évaluations linéaires sont mal adaptées à leur travail.

La complexité généralisée est peut-être le plus grand défi. Les problématiques liées aux droits de l’homme recouvrent une multitude de facettes avec de nombreuses parties concernées, de causes, de solutions potentielles et de résultats. Les partenaires et les coalitions des organisations de défense des droits de l’homme ainsi que les victimes dont elles se préoccupent sont très divers. Nous travaillons avec ces acteurs, et avec d’autres, en vue d’influencer le comportement de nombreuses parties concernées, de décideurs politiques et de responsables. La manière dont nous menons notre travail est complexe, avec des méthodes de recherche très diverses et des outils de communication conçus pour une multitude d’audiences, de stratégies de plaidoyers et de cibles.

La culture organisationnelle, les  ressources et la hiérarchisation des préoccupations ainsi que la nature spécifique d’une grande partie de notre travail comptent parmi les autres défis qui se posent à la mise en œuvre de stratégies d’évaluation de l’impact standardisées chez HRW.


Shutterstock/iQoncept (All rights reserved)

"Useful evaluation is not simply filling in boxes next to the impact objectives in a logical framework. Learning comes from taking the time to reflect on how work was done, what actions were successful and why, and whether these steps could, and should, be replicated."


Bien qu’il existe un véritable consensus au sein de HRW sur le fait que l’évaluation est importante et que nous devons l’améliorer, nous cherchons encore des solutions viables et efficaces. Nos services et nos programmes géographiques et thématiques possèdent un degré  d’autonomie élevé et ne partagent pas une similarité de vue, de sémantique ou de méthodologie en matière d’évaluation. Nous travaillons à l’identification de processus d’évaluation pouvant s’appliquer plus largement. Devant ce constat, voici quelques thèmes importants qui guident notre réflexion aujourd’hui :

« Le chemin du changement »

Naughton et Kelpin ont décrit un « chemin du changement » qui reflète ce que nous pensons de l’impact. Ce chemin peut simplement commencer par attirer l’attention sur une problématique et faire en sorte qu’elle figure à l’ordre du jour des acteurs, et conduise, via une série d’étapes vers un but ultime : l’évolution de la situation des droits de l’homme pour les populations sur le terrain. Les objectifs qui jalonnent ce chemin peuvent inclure le fait de définir les conditions de l’aide internationale, de faire évoluer la législation ou les politiques, d’aider les défenseurs locaux des droits, et ainsi de suite.

Ensuite il y a les activités et les succès qui nous font progresser sur ce chemin, par exemple programmer des réunions de sensibilisation, diffuser des articles d’opinion, assister à des audiences de tribunal ou recueillir des déclarations officielles. Le travail qui entre en compte dans la recherche, la communication et les actions de plaidoyer est en effet un impact en soi, et mérite d’être documenté. L’accepter peut être un soulagement : ce qui importe n’est pas seulement le fait que nous ayons stoppé les exécutions extrajudiciaires dans un pays donné mais aussi notre efficacité pour progresser vers ce but ultime.

La quantification ou la preuve du lien de causalité

Le terme « contrôle et évaluation » est profondément lié, dans l’esprit des gens, à la notion de gestion axée sur les résultats, aux essais de contrôle aléatoire ou aux consultants externes coûteux. Peut-être étonnamment, il peut être difficile pour les gens de concevoir une forme d’évaluation légère, agile et qualitative.

Cependant, la documentation qualitative est précisément le type d’évaluation qui est le plus adapté à la majeure partie de notre travail. Changer simplement le ton et le paradigme de ce qu’est une « évaluation » a été important pour moi et pour mes collègues. Nous n’avons pas besoin de prouver le lien de causalité en évaluant l’impact. Nous ne travaillons pas dans une bulle et nous n’avons pas besoin de générer des données empiriques prouvant qu’une activité donnée ait entraîné un résultat donné. Nous avons simplement besoin de documenter ce que nous savons, ce qui inclut nos propres activités, ce qui s’est passé en dehors de nos activités, et comment nous avons fait pour progresser vers les objectifs que nous essayions d’atteindre.

L’évaluation consiste à apprendre

Nous orientons actuellement notre discussion sur l’évaluation davantage en terme « d’appren-tissage » et moins sous l’angle de « l’impact ». 

La perception que le contrôle et l’évaluation d’un projet de recherche peuvent être utilisés pour évaluer le personnel est bien réelle, ce qui a pour effet de refroidir les ardeurs, en particulier lorsque les gens craignent que des ressources soient en jeu. Il est essentiel d’obtenir l’adhésion du personnel, et il n’existe pas de solution aisée. Nous orientons actuellement notre discussion sur l’évaluation davantage en terme « d’apprentissage » et moins sous l’angle de « l’impact ». Chaque membre du personnel d’un programme de Human Rights Watch a la volonté d’être plus efficace dans son travail, donc cette idée n’est pas difficile à faire passer. L’utilité d’une évaluation ne se résume pas simplement au fait de remplir des cases à côté d’objectifs d’impact dans un cadre logique. Apprendre revient à prendre le temps de réfléchir sur la manière dont le travail a été effectué, quelles actions furent un succès, pourquoi ce fut le cas, et si ces étapes peuvent et doivent être reproduites.

Cette réflexion est déjà menée quotidiennement chez HRW. Nos collègues cherchent constamment des moyens d’atteindre plus facilement des objectifs de plus en plus élevés. Nous savons ce que nous avons fait, comment cela a fonctionné, et ce que nous aurions pu faire différemment. Notre défi est de transposer les informations les plus essentielles, qui sont dans nos têtes et dans nos conversations, sous une forme nous permettant de construire une base de connaissance institutionnelle.

Simplifier

Les processus complexes et fastidieux ne vont tout simplement pas marcher pour notre organisation. Le fait que l’évaluation nécessite un niveau spécifique de documentation rigoureuse est une idée dont nous nous passons. La perfection n’est pas une nécessité. Saisir une partie de notre réflexion est mieux que rien. Pour l’instant, nous essayons de développer une méthode d’apprentissage et d’évaluation qui soit simple et qui mobilise peu de ressources, en particulier en terme de temps consacré par le personnel. L’idée est de documenter, de manière légère et agile, les principaux accomplissements et enseignements. Comment transformer de brèves conversations en connaissances généralisables, accessibles et utiles ? Comment le faire systématiquement et de manière à ne pas nous détourner de notre activité principale ?

Plutôt que d’instituer un processus obligatoire dicté par la direction, nous explorons des idées avec notre personnel enthousiaste. Nous cherchons à consolider un langage commun sur l’impact et le « chemin du changement ». Nous essayons de développer des outils pour documenter les réflexions dont nous discutons d’une manière qui nous permette de partager les leçons pertinentes avec les autres. En simplifiant la manière dont nous conduisons nos évaluations, nous pouvons en apprendre davantage sur la manière de réussir dans notre travail.