Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!
Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!
Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!

Dietrich Dörner: Die Logik des Misslingens

Jetzt bei Amazon ansehen!*

 


Die Top 100 besten Sachbücher und Ratgeber (Liste)


Über Dietrich Dörner

Prof. Dr. Dietrich Dörner (Jahrgang 1938) ist ein deutscher Psychologe und emeritierter Professor an der Universität Bamberg. Im Rahmen seiner Forschung zum Lösen komplexer Probleme setzte der Leibniz-Preisträger computersimulierte Realitäten ein. Was Laien aus diesen Experimenten lernen können, erklärt Dörner in seinem sehr zu empfehlenden Buch Die Logik des Misslingens: Strategisches Denken in komplexen Situationen.

Zusammenfassung

Die Evolution hat einen Menschen hervorgebracht, der dazu in der Lage ist, einfache Probleme ad hoc zu bewältigen. Doch heutzutage sind wir häufig mit Problemen aus einer anderen Kategorie konfrontiert, die uns große Schwierigkeiten bereiten. Die Rede ist von komplexen Problemen.

Dörner und seine Kollegen wollten herausfinden, wie menschliche Planungs- und Entscheidungsprozesse an komplexen Problemen scheitern. Dazu haben die Wissenschaftler Planspiele entwickelt, die sie als computersimulierte Realitäten oder auch Mikrowelten bezeichnen.

Ein solches Planspiel trägt den Namen »Tanaland«. Die Teilnehmer des Experiments erfuhren, dass Tanaland ein fiktives Land in Ostafrika ist, das an einem Fluss liegt, der in einen See mündet. Tanaland wird von den Tupis bewohnt, einem Stamm, der Ackerbau und Gartenwirtschaft betreibt. Außerdem gibt es die Moros, Hirtennomaden, die von Viehzucht und der Jagd leben. Die Versuchspersonen erhielten den Auftrag, das Wohlergehen von Tanaland zu steigern. Alle denkbaren politischen und baulichen Eingriffe waren erlaubt. Während der zehn Jahre, die im Laufe einer Sitzung im Zeitraffer simuliert wurden, hatten die Versuchspersonen insgesamt sechsmal die Gelegenheit, Informationen zu sammeln, Maßnahmen zu planen und Entscheidungen zu treffen. Die Versuchspersonen waren dazu angehalten, laut zu denken, damit ihre Gedankengänge von den Wissenschaftlern ausgewertet werden konnten. Diese interessierten sich für die Merkmale des Denkens, Entscheidens, Planens und der Hypothesenbildung.

Neben Tanaland kamen noch weitere Planspiele zum Einsatz, darunter die fiktive Kleinstadt Lohhausen, die von den Versuchspersonen regiert werden sollten, eine fiktive Fabrik, deren Profit maximiert werden sollte, sowie ein defektes Kühlhaus, dessen Temperatur kontrolliert werden musste, damit die dort gelagerten Waren nicht verderben. Neben diesen fiktiven Realitäten analysiert Dörner in seinem Buch auch reale Szenarien wie die Reaktorkatastrophe von Tschernobyl.

Was zeichnet komplexe Realitäten aus?

Als komplex werden solche Systeme bezeichnet, bei denen die verschiedenen Variablen nicht unabhängig sind, sondern sich wechselseitig beeinflussen. Ein Eingriff, der nur einen Teil des Systems betreffen soll, hat daher immer auch Auswirkungen auf andere Teile des Systems (Vernetztheit). Viele komplexe Systeme zeichnet außerdem aus, dass sie sich auch ohne Eingriffe von außen ständig verändern (Dynamik). Dies erschwert das Sammeln von Informationen. Letzteres wird durch Intransparenz noch zusätzlich behindert – man kann nicht alles sehen, was man gerne sehen würde.

Dörner erklärt, dass die Komplexität besonders hohe Anforderungen an die Akteure stellt, Informationen zu sammeln, zu integrieren und Handlungen zu planen. In komplexen Realitäten kann man nie nur eine Sache tun, sondern man tut immer mehrere Sachen, ob man will oder nicht. Die Lösungen kurzfristiger Probleme können eine Fernwirkung haben; linear anwachsende Einflüsse können an anderer Stelle exponentielle Entwicklungen anstoßen.

Wie sieht der ideale Prozess aus?

Dörner skizziert, wie man sich einem komplexen Problem idealerweise annähern sollte. Er betont, dass die sechs unten stehenden Schritte eine starke Vereinfachung darstellen. In Wahrheit handele es sich um keinen geradlinigen Prozess, den man Schritt für Schritt befolgt – vielmehr gebe es in der Praxis häufig Rücksprünge.

So sieht der (vereinfachte) ideale Prozess aus:

  1. Sich Klarheit über das Ziel verschaffen. Erst wenn das Ziel klar definiert ist, hat man einen Maßstab, an dem man die Geeignetheit oder Ungeeignetheit von Maßnahmen beurteilen kann.
  2. Modellbildung und Informationssammlung. Man muss etwas über die Struktur des Systems wissen. In der Praxis hat man oftmals nur eine begrenzte Zeit zur Sammlung von Informationen. Außerdem ist oftmals unklar, wann man genug Informationen gesammelt hat.
  3. Prognose und Extrapolation. Wie ist der Status quo? In welche Richtung strebt das System? Geht es gerade aufwärts oder abwärts?
  4. Planung. Was soll man tun? Soll man überhaupt etwas tun?
  5. Entscheidung. Bei komplexen Problemen gibt es viele verschiedene Handlungsmöglichkeiten. Es muss eine Auswahl getroffen werden.
  6. Tun. Ausführung des ausgewählten Plans (mit ständiger Selbstkontrolle).

Wie gingen die Versuchspersonen tatsächlich vor?

Der Autor erklärt, dass es – etwas vereinfacht gesprochen – ungefähr gleich viele gute wie schlechte Versuchspersonen gab. Und das haben die guten Versuchspersonen besser gemacht:

  • Sie erzeugten mehr Entscheidungen als die schlechten Versuchspersonen, weil ihnen mehr Entscheidungen einfielen.
  • Sie betrachteten bei ihren Maßnahmen und Entscheidungen nicht nur das konkrete Ziel, sondern auch mehrere andere Aspekte des Systems.
  • Sie versuchten, ihre Absichten nicht nur mit einer Maßnahme, sondern mit mehreren parallel laufenden Maßnahmen zu erreichen.
  • Sie beschäftigten sich von Anfang an mit den entscheidenden Aspekten des Systems, während viele schlechte Versuchspersonen zunächst prokrastinierten.
  • Sie stellen in etwa gleich viele Hypothesen auf wie die schlechten Versuchspersonen, aber im Gegensatz zu diesen überprüften sie ihre Hypothesen häufiger durch Nachfragen.
  • Sie stellen mehr Warum-Fragen und weniger Gibt-es-Fragen.
  • Sie gingen bei ihren Analysen mehr in die Tiefe und ließen sich weniger von Unwichtigem ablenken.
  • Sie fanden einmal die richtigen Beschäftigungsbereiche und widmeten sich ihnen dann kontinuierlich.
  • Sie macht sich häufiger Gedanken über ihr eigenes Verhalten (Selbstreflexion) und strukturierten dieses vor.
  • Sie behielten häufiger die Verantwortung und delegierten diese nicht an andere.

Das Verhalten der schlechten Versuchspersonen bringt Dörner so auf den Punkt:

»Schlechte Versuchspersonen produzierten statt Hypothesen Wahrheiten.«

Einen starken Zusammenhang zwischen dem IQ einer Versuchsperson und ihrem Abschneiden in den Planspielen konnte Dörner interessanterweise nicht feststellen. Wichtiger als der IQ schien die Fähigkeit zu sein, Unbestimmtheit zu ertragen und nicht in (falsche) Sicherheit zu flüchten.

Zielsetzung

Zunächst erklärt der Autor, was man über Ziele wissen sollte und welches Vorgehen sich bei der Zielsetzung bewährt hat.

Es gibt positive und negative Ziele. Mit einem positiven Ziel möchte man etwas Bestimmtes erreichen, und mit einem negativen Ziel möchte man, dass etwas Bestimmtes nicht (mehr) der Fall ist. Vermeidungsziele sind in der Praxis häufig unspezifisch (global).

In komplexen Situationen kann man nicht nur ein Ziel anstreben. Neben den expliziten Zielen, die man »auf dem Schirm« hat, gibt es immer auch implizite Ziele, die einem vielleicht gar nicht bewusst sind. Die verschiedenen Ziele können positiv oder negativ miteinander verknüpft sein. Letzteres bedeutet, dass sich die Ziele gegenseitig ausschließen.

Der Autor empfiehlt, Vermeidungsziele ins Positive zu wenden und globale Ziele zu spezifizieren, damit man eine Chance hat, zu merken, wann man das Ziel erreicht hat. Unklare komplexe Ziele müssen »dekomponiert« werden, d. h., man muss herausarbeiten, was man im Einzelnen genau meint. Dabei zerfällt ein solches Ziel oftmals in mehrere unterschiedliche Ziele. Auf diese Weise gewinnt man Klarheit.

Wenn man mehrere Ziele bzw. Probleme hat, dann lassen sich diese oftmals in Zentralprobleme und periphere Probleme aufteilen. Als Beispiel für ein verbreitetes Zentralproblem nennt der Autor die Beschaffung von Geld. Zentralprobleme sollten als Erstes gelöst werden. Wenn es keine Zentralprobleme gibt, kann es helfen, die Probleme nach »Wichtigkeit« und »Dringlichkeit« zu klassifizieren.

Wenn man es mit negativ verknüpften Teilproblemen zu tun hat, muss man diese in Balance bringen, d. h. einen Kompromiss schließen; die optimale Lösung beider Probleme ist dann nämlich unmöglich. In komplizierten Situationen sind widersprüchliche Teilziele eher die Regel als die Ausnahme. Da sich unvereinbare Ziele verbal leicht formulieren lassen (z. B.: »freiwillige Wehrpflicht«), besteht die Gefahr, dass Widersprüche unentdeckt bleiben.

Implizite Probleme seien besonders gefährlich, weil wir sie im Augenblick nicht auf dem Schirm haben. Um uns ihrer bewusst zu werden, sollten wir nicht nur an das denken, was wir ändern möchten, sondern auch an die Merkmale, die wir beibehalten wollen.

Endziele sollte man am Anfang noch nicht zu weitgehend festlegen. Besser seien Zwischenziele, die dadurch gekennzeichnet sind, dass sie viele verschiedene Optionen mit hoher Erfolgswahrscheinlichkeit bieten. Als Beispiel nennt der Autor die Beherrschung der mittleren Felder beim Schach. (Der Fachbegriff lautet: maximale Effizienz-Divergenz).

Nachdem die Theorie geklärt ist, beschreibt Dörner, wie seine Versuchspersonen in der Praxis vorgegangen sind.

In einem Planspiel hatten die Versuchspersonen die Aufgabe, das »Wohlergehen« der Dorfbewohner zu steigern. Hier wäre es sinnvoll gewesen, den unklaren Begriff »Wohlergehen« zu konkretisieren. Das taten viele Versuchspersonen aber nicht. Stattdessen suchten sie nach Missständen und machen sich deren Beseitigung zum Ziel. Dörner spricht von »Reparaturdienstverhalten«. Wer nach dieser Methode vorgeht, wird immer diejenigen Probleme auswählen, die auffällig sind oder sich mit Methoden lösen lassen, die man gerade zur Hand hat. Mängel und Missstände, die im Augenblick noch keine sind, bleiben so unentdeckt. Außerdem besteht die Gefahr, dass sich Ziele verselbstständigen und dass Zwischenziele zu Endzielen entarten. Eine besonders große Gefahr gehe von unwichtigen Problemen aus, deren Beseitigung intrinsisch motivierend bzw. reizvoll ist.

Was sind die Gründe für die mangelnde bzw. mangelhafte Ausarbeitung der Ziele?

  • Mangelnde Kenntnis der Realität. Wer über gar kein oder ein zu grobes oder ungenaues Realitätsmodell verfügt, kann keine sinnvollen Ziele ausarbeiten.
  • Kein Zutrauen in die eigenen Fähigkeiten. Wer sich die Lösung des Problems nicht zutraut, wird nach Sicherheit suchen und diese im Reparaturdienstverhalten finden. Ehe man gar nichts tut, ist dieses Vorgehen natürlich sinnvoll. Auch Verschwörungstheorien können Sicherheit bieten.
  • Das Prinzip des »Übergewichts« des jeweils aktuellen Motivs. Dies erklärt der Autor an einem einleuchtenden Beispiel: Wer gerade Kopfschmerzen hat, wird bereitwillig ein Mittel gegen die Kopfschmerzen einnehmen, auch wenn es als Nebenwirkung Bauchschmerzen verursacht. Und wer gerade Bauchschmerzen hat …. Es besteht die Gefahr, in einen Dauerzustand zu geraten, der in einem Hin- und Herkippen zwischen zwei Problemzuständen besteht.

Information und Modelle

Um Maßnahmen planen zu können, muss man etwas über die Struktur des Systems sowie die aktuellen Parameter wissen. Wie hängen die Variablen zusammen? Dörner spricht von Strukturwissen. Die Gesamtmenge der Annahmen dieser Art ist das Realitätsmodell des Akteurs. Realitätsmodelle können explizit oder implizit sein.

Implizite Realitätsmodelle findet man häufig bei Fachleuten. Sie gehen nach Gefühl bzw. Intuition vor und liegen damit oftmals richtig. Aber sie können nicht erklären, wie sie das machen.

Dörner erklärt, dass Realitätsmodelle in der Regel sowohl falsch als auch unvollständig sind. Das liegt schlicht und einfach daran, dass die Realität so komplex ist. Um das zu veranschaulichen, greift Dörner zu einer Analogie: Wir haben es mit einem Schachspiel zu tun, bei dem die Figuren mit Gummifäden verbunden sind und sich ständig von selbst bewegen – nach einem Muster, das wir nicht kennen. Zwar empfehle es sich, die Unzulänglichkeit der eigenen Realitätsmodelle stets vor Augen zu haben, aber diese Weisheit haben die meisten Menschen nicht.

Die folgenden Elemente komplexer Systeme sind besonders interessant:

  • Positive und negative Rückkopplungen
  • Abpufferungen
  • Kritischen Variablen
  • Indikatorvariablen: Variablen, die von vielen anderen Variablen beeinflusst werden, die aber das System selbst kaum beeinflussen. Sie geben Auskunft über den Zustand des Systems.

Wie man Informationen über komplexe Systeme gewinnt

Um Informationen über das System zu gewinnen, muss man Daten sammeln und diese über die Zeit integrieren. Wenn die sinnfälligen Elemente des Systems nicht erkennbar sind, kann es helfen, sich die Bestandteile des Systems anzusehen, d. h. zu schauen, woraus es besteht. Die Bestandteile bestehen ihrerseits wieder aus (kleineren) Bestandteilen. Indem wir auch diese betrachten, erhöhen wir den Auflösungsgrad der Betrachtung.

Für jedes komplexe Problem gibt es einen optimalen Auflösungsgrad, der aber nicht unbedingt a priori erkennbar ist. In der Praxis kommt es daher häufig vor, dass der Auflösungsgrad während der Betrachtung des Systems mehrmals verändert werden muss. Optimal ist ein möglichst niedriger Auflösungsgrad, bei dem die Abhängigkeit der Zielvariablen klar wird.

Dörner verdeutlicht diesen Sachverhalt am Beispiel eines Gartenteichs, in dem es Fische, Wasserpflanzen, Insekten und natürlich auch Bakterien gibt. Je nachdem, worin das Problem genau besteht, kann es ausreichend sein, das Ökosystem des Teichs als einen Bestandteil des Systems zu betrachten. Es kann aber auch erforderlich sein, jede einzelne Spezies oder sogar jedes einzelne Individuum zu betrachten.

Wer ein komplexes System kennt, das dem zu untersuchenden System ähnelt, kann das entsprechende Modell übernehmen und die Hypothesen bei Bedarf anpassen. Dieses Vorgehen wird als Analogiebildung bezeichnet.

Was die Versuchspersonen tatsächlich getan haben

Die schlechten Versuchspersonen, die an Dörners Planspielen teilgenommen hatten, verwandelten sich bald von Philosophen in Tatmenschen. Das Ausmaß des Fragenstellens und Reflektierens nahm schnell ab, während die Anzahl der getroffenen Entscheidungen zunahm. Daraus, so der Psychologe, könne geschlossen werden, dass die Versuchspersonen nach viel zu kurzer Zeit bereits glaubten, dass sie bereits alles Wissenswerte über das System wussten.

Die schlechten Versuchspersonen hatten blinde Flecken, aus denen Fehlverhalten resultierte. Sie betrachteten das System als eine Ansammlung unabhängiger Teilsysteme. Indem sie (fälschlicherweise) davon ausgingen, dass die einzelnen Probleme voneinander isoliert waren und eins nach dem anderen gelöst werden konnten, sparten sie kognitive Energie. Dörner spricht von reduktiver Hypothesenbildung. Diese Vorgehen wählen Menschen, um die Ängste zu reduzieren, die sich aus Unübersichtlichkeit und Unbestimmtheit ergeben.

Eine damit zusammenhängende Verhaltensweise ist die hypothesengerechte Informationswahl. Da sie uns (vermeintlich) Macht über die Situation verleihen, neigen wir dazu, uns an einmal aufgestellte Hypothesen zu klammern. Dies äußert sich zum Beispiel dadurch, dass wir neue Informationen, die nicht zu unseren Hypothesen passen, einfach ignorieren.

Je mehr Informationen man hat, umso unklarer erscheinen viele Sachverhalte. Um Entscheidungen treffen zu können, braucht man aber Klarheit. Dörner erklärt, dass bei Entscheidern ein wenig Dummheit daher durchaus funktional sei; die Klugen trauen sich oftmals nicht, folgenschwere Entscheidungen zu treffen.

Ein typischer Fehler bei der Hypothesenbildung, der nicht nur bei den schlechten Versuchspersonen in Dörners Planspielen, sondern bei allen Menschen auftritt, ist die Übergeneralisierung. Aus einer Handvoll zutreffender Beispiele folgern wir, dass unsere Hypothese immer zutrifft. Dieses Vorgehen hat sich evolutionär bewährt. Es ist der Grund, warum Kinder z. B. zuverlässig Kühe und Pferde auseinanderhalten können, nachdem sie jeweils nur ein paar wenige verschiedene Exemplare gesehen haben. Computer haben damit große Schwierigkeiten. Doch in komplexen Situationen kann unser evolutionärer Vorteil zum Nachteil werden.

Tatsächlich hingen die Probleme in den Planspielen natürlich miteinander zusammen, d. h. sie konnten nicht eins nach dem anderen gelöst werden. Und wenn man sich um die Probleme, die man nicht, nicht kümmert, dann hat man sie irgendwann.

Im Umgang mit hochgradig interdependenten Systemen muss das Handeln auf den jeweiligen Kontext abgestimmt und diesem immer wieder angepasst werden. Der gekonnte Umgang mit solchen Systemen ist keine reine Wissenschaft, sondern auch eine Kunst. Erst wenn man vollständige Informationen über ein komplexes System hat, kann man die optimalen Entscheidungen ausrechnen. In der Praxis wird man aber niemals vollständig informiert sein.

Der Psychologe stellt fest, dass die guten Versuchspersonen die Kunst des Umgangs mit komplexen Systemen durchaus gut beherrschten. Sie fragten in den verschiedenen Planspielen jeweils genügend nach. Hingegen neigten die schlechten Versuchspersonen dazu, unter Zeitdruck zu wenig und bei ausreichender Zeit zu viele Informationen zu sammeln. Diese grundverschiedenen Verhaltensweisen seien zwei Seiten der gleichen Medaille – sie dienten der Bekämpfung von Unsicherheit. Schlechte Versuchspersonen, die ihre Unsicherheit auf diese Weise nicht unterdrücken konnten, flüchteten häufig in Zynismus oder gaben auf.

Außerdem noch erwähnenswert:

  • Wir tendieren dazu, dynamische Systeme zu übersteuern, weil wir den Zustand des Systems und nicht den Prozess steuern. Das Eigenverhalten des Systems wird dann von den Steuereingriffen überlagert. Wohin das führen kann, lässt sich zum Beispiel in den Analyseberichten über das Reaktorunglück in Tschernobyl nachlesen.
  • Wir neigen dazu, Projekte, die ihren Sinn verloren haben, zum Selbstzweck weiterzuführen oder gar zu forcieren.
  • Wir neigen dazu, einen Faktor zum eigentlich Bestimmenden zu machen und den Rest des Weltgeschehens auf ihn zu beziehen (Zentralidee-Tendenz).
  • Unter Zeitdruck neigen wir dazu, Maßnahmen zu überdosieren.

Zeitabläufe

Dörner erklärt, dass es neben sogenannten Raumgestalten (Gegenständen) auch Zeitgestalten gibt: Melodien, Choreografien, Schwingungen usw. Aus nahe liegenden Gründen fällt uns Menschen sowohl das Erkennen als auch der Umgang mit Zeitgestalten schwer.

Katastrophale Wendungen wie ein Börsencrash treten daher scheinbar plötzlich ein, aber in Wahrheit werden sie von »im Untergrund« verlaufenden Entwicklungen vorbereitet. Diese Entwicklungen belasten die Weiterentwicklung des Systems immer mehr, bis schließlich gar nichts mehr geht und das System zusammenbricht.

Wie Menschen mit Zeitabläufen umgehen

Wir simulieren ständig die Zukunft, um zeitnah reagieren zu können. Da unsere Simulationen auf unseren Gedächtnisinhalten basieren, tendieren wir stark dazu, uns die Zukunft als Fortschreibung der Gegenwart vorzustellen.

  • Momentanextrapolation: Wir schreiben einen augenblicklichen Trend monoton weiter; wir gehen nicht davon aus, dass sich die Richtung und/oder Geschwindigkeit ändern wird. Da wir auch ein emotionales Gedächtnis haben, überschätzen wir die künftige Bedeutung von Zuständen, die uns im Augenblick ärgern oder erfreuen.
  • Strukturextrapolation: Der Denkmechanismus, der Bilder von der Zukunft erzeugt. Wir stellen uns einen neuen, bislang unbekannten Sachverhalt so vor wie den entsprechenden bereits bekannten. Strukturelle Brüche sind schwer vorstellbar (der Autor spricht von einem »Erwartungshorizont«).

Der Umgang mit nichtlinearen Entwicklungen fällt uns ganz besonders schwer; exponentielles Wachstum unterschätzen wir deutlich, insbesondere wenn wir keine ständige Rückmeldung bekommen. Hier empfiehlt Dörner, auf einen Computer zu setzen und/oder den Umgang mit nichtlinearen Verläufen zu trainieren.

Außerdem sollten wir Zahlen nicht nur nach ihrer Größe beurteilen – wir müssen auch den Prozess beachten, der sie erzeugt.

Natürliche Systeme reagieren oftmals zeitlich verzögert. Und bei schwingenden Systemen muss der Mittelwert berücksichtigt werden, um den das System schwingt. Das fiel den Versuchspersonen in entsprechenden Planspielen schwer; sie neigten dazu, die Zeitverzögerung zu ignorieren und zu häufig einzugreifen.

Im Vergleich zu Laien können Experten viele künftige Entwicklungen besser einschätzen, denn sie haben nichtlineare Modelle zur Verfügung. Wenn es aber darum geht, ein solches Modell aus mehreren geeigneten Modellen auszuwählen, sind auch die Experten auf ihr Gefühl und ihre Intuition angewiesen. Ein potenziell großer Einflussfaktor, der Experten große Probleme bereitet, sind Fiktionen und Narrative. Auch die vielen ärgerlichen Detailprobleme, die in der Praxis auftreten, können Experten oftmals nicht einkalkulieren.

Welche Fehler die Versuchspersonen machten

Dörner erklärt, dass die schlechten Versuchspersonen dazu neigten, die Unsicherheit, die sich aus dem schlechten Umgang mit Zeitabläufen ergab, durch abenteuerliche Hypothesen zu kompensieren. Diese Arten von Hypothesen konnten beobachtet werden:

  • Magische Hypothesen: Zum Beispiel: »23 ist eine gute Zahl!« oder: »Ungerade Zahlen sind gut!«
  • Sequenzhypothesen: Die Vorstellung, man müsse einen Parameter nicht auf einen bestimmten Wert einstellen, sondern eine bestimmte Choreografie von Werten durchlaufen. Mit der Zeit werden solche Hypothesengerüste immer komplizierter.
  • Metahypothesen: Verschwörungstheorien wie etwa die Vorstellung, dass die Simulation korrupt ist und/oder der Computer schummelt.

Oftmals befanden sich die schlechten Versuchspersonen in einer aggressiv-hilflosen Stimmung, die sie zu kompensieren versuchten, indem sie immer wieder das gleiche taten, aber offenbar andere Ergebnisse erwarteten.

Planen

Dörner bezeichnet Planen als Probehandeln. Planen bedeutet, sich zu überlegen, was man tun könnte. Man führt sich die Konsequenzen bestimmter Handlungsoptionen oder Aktionsketten vor Augen und prüft, ob sie den gewünschten Erfolg versprechen.

Man kann vorwärts und rückwärts planen, wobei Letzteres nur möglich ist, wenn man ein klares Ziel hat. Auch in Situationen, in denen es möglich und sogar sinnvoll wäre, so Dörner, tendieren Menschen wenig dazu, rückwärts zu planen.

Was ist schwierig am Planen?

In der Praxis besteht das Hauptproblem darin, dass es so viele Verzweigungen gibt, dass ein Absuchen des gesamten Möglichkeitsraumes gänzlich unmöglich ist. Man kann nicht jede mögliche Strategie in Betracht ziehen.

Dörner erklärt, dass es verschiedene Heuristiken gibt, mit denen sich der Suchraum einengen lässt:

  • Kombination von Vorwärts- und Rückwärtsplanung: Gleichzeitig vom Startpunkt sowie vom gewünschten Ziel aus planen.
  • Hill-climbing: Man zieht nur solche Aktionen in Betracht, die einen sofortigen Fortschritt in Richtung auf das Ziel versprechen. Der Nachteil dieser Methode ist, dass man auf einem Nebengipfel bzw. lokalen Maximum stranden kann.
  • Orientierung an Zwischenzielen: Gute Zwischenziele sind Situationen, von denen aus man effizient in verschiedene Richtungen handeln kann (Effizienz-Divergenz Methode).
  • Frequency-gambling: Dinge tun, die sich in der Vergangenheit bewährt haben. Hier besteht die Gefahr von Methodismus. Methodismus ist gefährlich, weil die Einzigartigkeit der Situation ignoriert wird.

Wann sollte man welche Heuristik anwenden? Bei unklaren Zielen empfiehlt Dörner die Effizienz-Divergenz Methode. Bei vollkommener Orientierungslosigkeit sei Hill-climbing zu empfehlen. Die Gefahr, auf einem lokalen Maximum zu stranden, lasse sich mit einer kleinen Prise Versuch-und-Irrtum abwenden.

Wenn die Suchraumeinengung keinen Erfolg bringt, muss der Suchraum erweitert werden. Der Psychologe nennt diese Methoden zur Suchraumerweiterung:

  • Versuch-und-Irrtum: Alles probieren, was möglich ist.
  • Ausfällen des Gemeinsamen: Die gemeinsamen Merkmale aller bisher erfolglos versuchten Methoden ermitteln und dann etwas tun, was diese Merkmale nicht aufweist.
  • Analogieschluss: Zum Beispiel mit der Kaufhausmethode, bei der man durch ein Kaufhaus geht und sich bei den ausliegenden Waren fragt, was sie vielleicht mit dem Problem zu tun haben könnten.

Weitere Tipps für die Planung:

  • Wenn die Details der Situation nicht antizipierbar sind, sollte man nicht zu viel planen. (Napoleon: »Man fängt einfach an, und dann sieht man schon, was man machen kann.«)
  • Ratschläge sollte man nicht beherzigen, um sich nicht allzu sehr an Regeln zu binden und den vorurteilsfreien Blick zu bewahren.
  • Im Alltag brauchen wir oft keine Pläne zu machen, weil wir sie schon haben: Automatismen.
  • Man sollte die Mathematisierbarkeit der Realität nicht überschätzen und dem Versuch widerstehen, die Sachverhalte so weit zu reduzieren, bis sie in ein bestimmtes formales Gerüst passen.

Welche Fehler die Versuchspersonen machten

Unsichere Versuchspersonen zeigten die Tendenz, zu genau zu planen. Dahinter steckt das Bedürfnis, Unsicherheit zu reduzieren. Wer aber versucht, alle Unsicherheiten, die eine komplexe Problemsituation bietet, im Vorhinein zu beseitigen, wird dabei schnell an Grenzen stoßen und die Unsicherheit so noch zusätzlich vergrößern.

Dörner erklärt, dass sich die guten Versuchspersonen nicht nur in ihrem Verhalten, sondern auch in ihrer Sprache von den schlechten Teilnehmern unterschieden. Schlechte Problemlöser benutzten beim lauten Nachdenken eher starke Wörter wie zum Beispiel: immer, jederzeit, alle, ausnahmslos, absolut, gänzlich, restlos, total, eindeutig, einwandfrei, fraglos, gewisse, allein, nichts, nichts weiter, nur, weder … noch …, müssen und haben zu. Gute Problemlöser benutzten stattdessen eher diese Wörter: ab und zu, im Allgemeinen, gelegentlich, gewöhnlich, häufig, ein bisschen, einzelne, etwas, gewisse, besonders, einigermaßen, allenfalls, denkbar, fraglich, unter anderem, andererseits, auch, darüber hinaus, dürfte, können in der Lage sein.

Aus ihrem Vokabular lässt sich schließen, dass gute Problemlöser an Bedingungen und Sonderfälle denken und beim Betonen von Hauptrichtungen auch Nebenrichtungen zulassen. Das Vokabular der schlechten Problemlöser weist hingegen auf Schwarz-Weiß-Denken, Rechthaberei und Feststellungen anstelle von Analysen hin.

Insbesondere die schlechten Problemlöser neigten auch zu etwas, was Dörner als »Rumpelstilzchenplanung« bezeichnet: Sie versäumten, die Bedingungen, von denen die Ausführung ihrer Operationen abhängt, bei der Planung zu berücksichtigen. Sie gingen von optimalen Bedingungen aus. Dabei sind es gerade die kleinen, sich anhäufenden Reibungsverluste, die in der Praxis dazu führen, dass Pläne nicht funktionieren.

Außerdem:

  • Unter Stress neigen Menschen eher dazu, zu Diktatoren zu werden und alles selbst regeln und entscheiden zu wollen.
  • Planung kann auch eine Form von Realitätsflucht sein. Wer immer nur plant, ohne den Plan jedoch in die Tat umzusetzen, vermeidet Misserfolg.
  • Die Verfügbarkeit von Methoden und Werkzeugen kann zu Planungsoptimismus führen. Aber: »Hochmut kommt vor dem Fall!«

Aus Fehlern lernen?

Die Betrachtung und Analyse der Folgen, die sich aus getroffenen Maßnahmen ergeben, bietet eine hervorragende Möglichkeit, falsche Hypothesen und Verhaltenstendenzen zu korrigieren. Aus Fehlern lässt sich etwas lernen!

Insbesondere die schlechten Versuchspersonen vermieden es jedoch, mit den (oftmals negativen) Folgen ihrer Maßnahmen konfrontiert zu werden. Sie zeigten ein Verhalten, das Dörner als »ballistisch« bezeichnet: Sie schossen ihre Entscheidungen wie eine Kanonenkugel ab. Dörner erklärt, dass Verhalten nicht ballistisch sein sollte – es währe besser, die Maßnahmen wie eine Rakete abzuschießen, die man während ihres Fluges steuern kann. Doch in den Planspielen taten viele schlechte Versuchspersonen genau das nicht; sie erkundigten sich nicht nach den Folgen ihrer Handlungen. Auf diese Weise konnten sie ihre Kompetenzillusion aufrechterhalten. Wer nicht mitbekommt, dass er danebengeschossen hat, kann sich einbilden, getroffen zu haben.

Und wenn sich die Realität nicht leugnen lässt, kann man immer noch zur Fremdattribuierung greifen, d. h. die Umstände – notfalls eine Verschwörung – für das Scheitern der Maßnahmen verantwortlich machen. Eine ähnliche Form des Selbstbetrugs ist die sogenannte immunisierende Marginalkonditionalisierung: Man bildet sich ein bzw. erklärt, dass die getroffene Maßnahme eigentlich schon den gewünschten Effekt hat, aber dass ausgerechnet in diesem Moment bestimmte Umstände eingetreten sind, durch die die Maßnahme einen anderen Effekt hatte. Mit anderen Worten: Nicht unfähig, sondern nur Pech gehabt!

Die Gruppe

Dörner erklärt, dass wir Menschen das Bedürfnis nach Affiliation und Gruppenangleichung haben. Ob wir bereit sind, etwas zu leisten, hängt stark von der Gruppe ab, in die wir eingebunden sind. Unsere Gruppe kann uns Kraft geben.

Aber Gruppen können auch negative Auswirkungen haben, wie Dörner an einem anekdotischen Beispiel zeigt. Konflikte können eine Gruppe so verschrecken, dass die Mitglieder fortan jede kritische Diskussion unterlassen und die Solidarität über alles andere stellen. Diese Dynamik wird als Gruppendenken (Groupthink) bezeichnet.

Dörner beschreibt noch eine weitere interessante Dynamik: Dumme Leute, die keine eigenen Ideen haben, sind dazu gezwungen, der Führung unverbrüchliche Treue zu zeigen. Gleichzeitig ist die Führung dazu gezwungen, Prinzipientreue zu zeigen, weil die Dummen sonst abspringen. Auf diese Weise, so der Psychologe, kann es zur Einbetonierung einer einmal gewählten Strategie kommen.

Auch in Gruppen gilt: Je mehr man bereits in bestimmte Maßnahmen investiert hat, umso größer ist das Bestreben, an diesen festzuhalten.

Was kann man verbessern?

Gleich zu Beginn des letzten Kapitels erklärt Dörner, dass es keine einfachen Lösungen gibt, denn wir scheitern ja nicht aus nur einem Grund, sondern weil wir viele verschiedene kleine Fehler machen, die sich aufsummieren. Man müsse hart an sich arbeiten, um die kleinen Unzulänglichkeiten im eigenen Denken zu erkennen und zu vermeiden.

Es ist wichtig zu verstehen, dass unser Denkapparat viele dieser Fehler aus guten Gründen macht, etwa um die Langsamkeit unseres Denkens zu kompensieren. Außerdem lassen sich viele Fehler auf die Notwendigkeit der Bewahrung eines positiven Bildes von der eigenen Kompetenz und Handlungsfähigkeit zurückführen.

Doch es gibt Hoffnung: In einem Planspiel ließ Dörner erfahrene Manager gegen Studenten antreten. Welche der beiden Gruppen würde das komplexe Problem besser in den Griff bekommen? Tatsächlich schnitten die erfahrenen Manager hinsichtlich sämtlicher Kriterien besser ab. Dörner erklärt, dass sie über etwas verfügten, was er als »operative Intelligenz« bezeichnet. Es geht darum, die richtigen Dinge im richtigen Moment und in der richtigen Weise zu tun und zu bedenken: Manchmal sollte man genau analysieren und manchmal nur grob hinschauen. Manchmal sollte man aus der Vogelperspektive schauen und manchmal muss man heranzoomen. Manchmal sollte man viel Zeit und Energie in die Planung investieren und manchmal sollte man es bewusst bleiben lassen. Manchmal sollte man sich die Ziele genau klar machen und manchmal sollte man einfach »loswursteln«. Hier trafen die erfahrenen Manager deutlich bessere Entscheidungen als die (unerfahrenen) Studenten.

Schließlich nennt Dörner dann doch noch eine Art Wunderpille: Selbstreflexion. Über das eigene Denken in Problemsituationen nachzudenken, habe durchschlagende Wirkung; es führe zu einer deutlichen Verbesserung des eigenen Denkens.

Doch in der Realität ergeben sich für die meisten Normalsterblichen nur selten Problemsituationen, aus denen sie etwas lernen können. Simulationsspiele, wie Dörner sie im Rahmen seiner Forschung genutzt hat, könnten daher hilfreich sein.

Den Menschen schöne Begriffe beizubringen führe hingegen zu »Eunuchenwissen«. Die Verbalintelligenz schlage nicht auf die Handlungsintelligenz durch. Zu wissen, wie etwas geht, bedeutet nicht, dass man es kann.

Fazit

Die Logik des Misslingens ist eines der besten Bücher, die ich bisher gelesen habe. Obwohl es in den 1980er-Jahren geschrieben wurde und die letzte Aktualisierung im Jahr 2003 erfolgte, ist das Buch immer noch aktuell. Die beschriebenen Verhaltensauffälligkeiten lassen sich auch heute praktisch überall beobachten. Und die psychologischen Mechanismen, die dem Fehlverhalten zugrunde liegt, sind ohnehin zeitlos.

PS

Meine Zusammenfassung von Die Logik des Misslingens ist Teil von Persönlichkeitsentwicklung Jumpstart – Teil 3*, einem 184-seitigen Buch-Bundle mit meinen 14 beliebtesten Buchzusammenfassungen zum Thema Erfolgspsychologie (persönlicher, sozialer und finanzieller Erfolg), das in gedruckter Form (Taschenbuch) exklusiv bei Amazon erhältlich ist.

Deine Unterstützung hilft mir, diese Website zu betreiben.

Wenn du dich für meinen kostenlosen E-Mail-Service anmeldest, schenke ich dir Persönlichkeitsentwicklung Jumpstart – Teil 1 als PDF-Datei. Außerdem wirst du keine neue Buchzusammenfassung verpassen.

Jetzt bei Amazon ansehen!*

 


Die Top 100 besten Sachbücher und Ratgeber (Liste)


Dr. Jan Höpker ist Wissenschaftler und Gründer der Websites HabitGym und Der perfekte Ratgeber. Mit seinem Buch Erfolg durch Fokus & Konzentration hat er bis heute mehr als 20.000 Leser erreicht und ihnen dabei geholfen, fokussierter zu leben, zu lernen und zu arbeiten.

Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!
Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!
Wir senden dir neue Zusammenfassungen kostenlos per E-Mail zu!
>