Die Evaluierungsberichte der Gesellschaft für Internationale Zusammenarbeit (GIZ) und der KfW-Entwicklungsbank sehen seit Jahren immer gleich aus: Rund 70 Prozent der Projekte sind erfolgreich, gut 20 Prozent sind teilweise gelungen, der Rest ist teilweise oder ganz gescheitert. Zufall?
Das ist nicht allein bei der GIZ und KfW so, aber es kann nicht mit rechten Dingen zugehen, wenn immer die gleiche Erfolgsquote gemessen wird – weitgehend unabhängig davon, ob es um Projekte in Asien, Afrika oder Lateinamerika geht. Offenbar spielt bei diesen Ergebnissen auch eine Rolle, was politisch akzeptabel scheint. Oder aber die hohe Erfolgsquote ist ein Hinweis darauf, dass die Organisationen nicht genug Risiken eingehen. Denn dass drei Viertel der Vorhaben in Hochrisikoländern erfolgreich sein sollen, ist nicht plausibel.
Welche von den beiden Erklärungen halten Sie für richtig?
Ich glaube, dass beides eine Rolle spielt. In Projekten wird häufig ein vorgegebenes Design bis zum Ende durchgezogen, um nicht ein Scheitern einräumen zu müssen. An den dann bereits reduzierten Vorgaben gemessen sind solche Projekte durchaus erfolgreich. Angemessener wäre es in solchen Fällen aber, zu sagen: Das bringt nichts, wir versuchen jetzt mal etwas anderes. Dazu kommt, dass viele Erfolgsquoten nicht auf echten Wirkungsanalysen beruhen. Sie spiegeln im Wesentlichen, ob die Projektleistungen erbracht wurden. Es wird nicht präzise ermittelt, was das für die sozioökonomische Entwicklung zum Beispiel der Region gebracht hat. Wenn die Organisation sauber gearbeitet hat, sind bei solchen Prüfungen natürlich hohe Erfolgsquoten garantiert.
Ihr Institut soll frei von politischen Einflüssen arbeiten, bekommt aber jedes Jahr fünf Millionen Euro vom Entwicklungsministerium. Wirklich unabhängig sind Sie nicht, oder?
Unabhängigkeit bedeutet nicht, völlig losgelöst zu sein. Wir arbeiten nachfrageorientiert, weil wir ja auch das Lernen fördern sollen – und zwar sowohl aus guten wie aus schlechten Ergebnissen. Wir nehmen deshalb als erstes die Vorschläge des Ministeriums entgegen, welche Instrumente oder Programme evaluiert werden sollten, aber natürlich auch Anregungen aus dem gesellschaftlichen und politischen Raum. Die Probe der Unabhängigkeit besteht darin, ob wir die Evaluierungen frei durchführen und veröffentlichen können. Minister Niebel hat bei der Eröffnung des Instituts noch einmal unterstrichen, dass uns da niemand reinreden wird.
Das Ministerium will, dass Sie die Fusion der deutschen technischen Zusammenarbeit zur GIZ evaluieren. Was halten Sie davon?
Das BMZ geht ein Risiko ein, wenn es sein zentrales Reformvorhaben einer unabhängigen Prüfung unterzieht. Ich finde das sehr, sehr anerkennenswert. Mir persönlich ist diese Evaluierung ein bisschen unheimlich – nicht so sehr wegen der politischen Risiken, die sich damit vielleicht auch für das Institut verbinden, sondern wegen der methodischen Fragen. Meine Meinung zu der Fusion ist lange bekannt, weil ich sie schon vor vielen Jahren gefordert habe. Aber darum geht es nicht. Die Frage ist, wie wir das methodisch sauber aufarbeiten können.
Entwicklungsorganisationen rechtfertigen eigene Evaluierungen gern damit, dass sie aus ihnen mehr lernen können als aus einer Prüfung, die ein unabhängiger Gutachter von außen durchführt. Was halten Sie von dem Argument?
Zunächst einmal: Man muss ein großes Fragezeichen setzen, ob Evaluierungen, die die GIZ oder die KfW bei einem externen Gutachter in Auftrag geben, wirklich unabhängig sind. Denn auch ein Gutachter von außen ist vom Auftraggeber abhängig, und dieser hat natürlich ein Interesse daran, dass seine Arbeit nicht zu scharf kritisiert wird. Zu Ihrer Frage: Aus methodischer Sicht scheint der Gutachter der beste, der möglichst weit weg vom Projektgeschehen ist und einen unbeeinflussten, unabhängigen Blick darauf werfen kann. Aber für die Sachnähe und die Frage, was eine Organisation aus Ergebnissen lernen kann, ist der Prüfer aus Maximaldistanz nicht unbedingt der beste. Insofern ist es vielleicht eine ganz gute Wahl, dass mit mir jemand an der Spitze dieses Instituts steht, der die Entwicklungszusammenarbeit gut von innen kennt und dem trotzdem zugetraut wird, in seinen Urteilen Distanz zu wahren.
Wie wollen Sie es schaffen, dass Ihre Ergebnisse von den Organisationen beachtet werden?
Voraussichtlich wird es zu unseren Aufgaben gehören, das zu beobachten. Wie genau, ist noch nicht geklärt, aber ich bin mir sicher, das BMZ richtig verstanden zu haben, dass es uns in einer solchen Funktion sieht. Wir müssen nachprüfen können, ob unsere Schlussfolgerungen und Empfehlungen umgesetzt werden.
Machen Evaluierungen die Entwicklungspolitik wirklich besser? Grundlegende Schwächen wie der Mangel an Abstimmung zwischen Gebern und Hilfsorganisationen oder entwicklungshemmende politische und wirtschaftliche Interessen in den reichen Ländern lassen sich doch nicht mit noch mehr Prüfungen beheben.
Das stimmt; wir werden in unserer Arbeit oft zu dem Ergebnis kommen, dass zentrale Hindernisse für eine wirksamere Entwicklungsarbeit nicht in den einzelnen Projekten liegen, sondern dass Rahmenbedingungen nicht stimmen – und zwar nicht nur die Bedingungen, welche die Partnerländer setzen, sondern auch die, für welche die Geber selbst verantwortlich sind. Solche Ergebnisse werden möglicherweise bestätigen, was wir aus der Debatte um mehr Wirksamkeit – um „aid effectiveness“ – schon wissen, aber können die Beweislage noch stärken.
Vor allem nichtstaatliche Hilfsorganisationen treibt die Sorge um, künftig nach zunehmend rigiden wissenschaftlichen Standards evaluieren zu müssen, die möglicherweise gar nicht zu ihrer Arbeit passen. Zu Recht?
Wir nehmen diese Sorge ernst. Aber unsere Antwort ist klar: Nichtstaatliche Organisationen können nicht einfach sagen, wegen besonderer Nähe zu den Projektpartnern evaluieren wir nicht rigoros. Das geht nicht. Es kann sein, dass in bestimmten Vorhaben, zum Beispiel mit kleinen Partnern, bestimmte Verfahren nicht funktionieren, weil sie auf große Stichproben angewiesen sind. Oder dass sie aus anderen Gründen nicht angewendet werden sollten, um zum Beispiel das Vertrauensverhältnis zum Partner nicht zu gefährden. Man kann darüber diskutieren, was angemessene Methoden sind, aber nicht darüber, auf strikte Evaluierung zu verzichten.
Methoden, die zum Beispiel mit Vergleichsgruppen arbeiten, sind also kein Muss?
Nein, solche Methoden eignen sich nicht für alle Vorhaben. Aber auch das sollte nicht als Ausrede dafür genommen werden, sie per se abzulehnen: Eine Organisation, die irgendwo im südlichen Afrika mit drei Genossenschaften arbeitet, könnte die Ergebnisse doch mal mit 30 anderen Genossenschaften vergleichen, die nicht Teil des Projekts sind. Wenn die Daten einigermaßen ausreichen, könnte sie durchaus zu aussagekräftigen Ergebnissen kommen.
Das Gespräch führte Tillmann Elliesen.
Neuen Kommentar hinzufügen