3. Probleme sind komplex!

 

Der Komplexitätsanstieg und seine Folgen

Dass wir heutzutage in einer Welt leben, die stetig komplexer wird, liest man heute fast in jedem Buch über Design aber auch in der Literatur auf anderen Gebieten. Aber was bedeutet Komplexität überhaupt im Kontext der Designdisziplin und wodurch entsteht sie? Jonas schreibt dazu: »…Komplexität entsteht als Folge fortgesetzter gesellschaftlicher Arbeitsteilung (funktionale Differenzierung im Gegensatz zur früheren segmentären Differenzierung). Sie führt zu einer Zunahme wechselseitiger Abhängigkeiten zwischen den Teilen…« – Diese erwähnte Arbeitsteilung entstand sicherlich massiv während der Industrialisierung und deren Produktionsweise der Fabrik, in der die Arbeitsschritte aufgespalten und aufgeteilt wurden.

Arbeitsteilung & Spezialisierung

Der einzelne Arbeiter, der am Fließband jeweils nur sehr wenige Arbeitsschritte ausführte (gemessen an den Arbeitsschritten, die erforderlich sind, um das gesamte Produkt herzustellen) und so eigentlich überhaupt nicht wusste, wie das von ihm im Detail hergestellte Produkt überhaupt in der Gesamtheit produziert wurde. Aber die Industrialisierung mit ihrer Fließbandarbeit war nur der erste Schritt zu einer Erhöhung der Komplexität: Die Geschwindigkeit der Erhöhung verläuft mittlerweile rasend schnell, da durch Vernetzungen verschiedener Produkte und Funktionen neue Probleme und damit neue Produkte entstehen, die wiederum die Komplexität auf mehreren Ebenen erhöhen.

Vernetzung erzeugt Komplexität

Nicht nur die Produktion wird komplexer, auch die Bedienung und Interaktion mit anderen Produkten bzw. der gesamten Umwelt bietet neue Möglichkeiten, die wiederum die Komplexität erhöhen und den Benutzer vor eine Auswahl an Möglichkeiten stellt, die er ohne Hilfsmittel kaum bewältigen kann. Man kann hier spekulieren, dass die Erhöhung der Komplexität eine expotentielle Funktion im mathematischen Sinne ist, denn »…Komplexität wird recht vage als »Grad der Vielschichtigkeit, Vernetzung und Folgelastigkeit eines Entscheidungsfeldes definiert…«. Je mehr Produkte also, umso mehr Vernetzung und umso mehr Komplexität.

Komplexität nach Luhmann

Um den Begriff der Komplexität besser zu verstehen, muss man sich peripher auch mit Luhmann und seiner Systemtheorie beschäftigen. Er revolutionierte ältere Systemtheorien, die ein System vorsahen, das aus einer Menge von Bestandteilen besteht und deren gegenseitige Beziehungen zueinander. Luhmann hingegen abstrahierte diese alten, meist sehr gegenständlichen Systeme soweit, dass die technische Vorprägung der Begriffe komplett abgestreift werden konnte.

Die Systemtheorie nach Luhmann

 

philosophisch-soziologische Kommunikationstheorie

Die Systemtheorie nach Luhmann ist eine philosophisch-soziologische Kommunikationstheorie, mit der die Gesellschaft universell erklärt werden kann. Die Theorie soll die soziologische Struktur in seiner gesamten Komplexität erfassen. Das System besteht dabei nicht aus seinen Elementen, sondern aus den Relationen der Elemente zueinander. So gilt die Kommunikation nach Luhmann als gesellschaftskonstituierender Prozess. Ein System kann zum einen selbst herstellen, verfolgt also das Konzept der Autopoiesis, zum anderen kann es sich und andere Systeme im abstrakten Sinne beobachten. Das Beziehungsgeflecht der Elemente untereinander ist dabei nicht beliebig, sondern unterliegt dem Prozess der Steuerung. Luhmann nennt dies Konditionierung.

Komplexitätsproblem

Wenn die Verknüpfungskapazität eines Elementes sein Maximum erreicht, entsteht ein Komplexitätsproblem, welches das System durch Selektion der wichtigen Verbindungen löst und so seinen Fortbestand sichert. Alles was sich außerhalb des Systems befindet, nennt man Umwelt – dies allerdings nicht im Sinne von Bäumen und Vögeln, sondern im abstrakteren Sinne. Das System besteht dabei durch seine Differenz zur Umwelt. In der Umwelt können wiederum andere Systeme auftauchen. Umwelt und Systeme bedingen sich gegenseitig. Soziale Systeme bestehen also aufgrund von Kommunikation.

Kommunikation als selektiver Vorgang

Nach Luhmann ist ein dreistelliger, selektiver Vorgang vonnöten: Im ersten Schritt erfolgt die Wahrnehmung und Selektion der Information durch »Alter«. Alter muss danach eine Information zur Kommunikation auswählen und eine Form bestimmen. Im dritten und letzten Schritt muss »Ego« verstehen, dass es sich um einen Kommunikationsprozess handelt, dabei wird nicht vorausgesetzt, dass er das Kommunizierte inhaltlich versteht.

Unwahrscheinlichkeit von Kommunikation

In drei Punkten erläutert Luhmann auch die Unwahrscheinlichkeit von Kommunikation: Da wäre zum ersten das Verstehen des Prozesses der Kommunikation. Zweitens: Das Erreichen des richtigen Adressaten und letztendlich drittens: Erfolg der Information – also die Akzeptanz und Annahme der Mitteilung und der Anschluss weiterer Kommunikation.

Unwahrscheinlichkeitsreduktion

Um die Unwahrscheinlichkeit zu vermindern, hat die Gesellschaft mehrere Einrichtungen (Systeme) geschaffen: Die Unwahrscheinlichkeit des Verstehens wird dabei durch Sprache reduziert, Medien zur Verbreitung von Informationen mindern die Unwahrscheinlichkeit, seinen Adressaten zu erreichen. Die Unwahrscheinlichkeit des Erfolgs der Information wird durch generalisierte Kommunikationsmedien reduziert. Nach Luhmann dienen Massenmedien also dem Erhalten der Gesellschaft und sind selber ein System in der Gesellschaft. Massenmedien sind »…alle Einrichtungen der Gesellschaft,[…] die sich zur Verbreitung von Kommunikation technischer Mittel der Vervielfältigung bedienen…«, dabei verhindert die Technik die direkte Interaktion zwischen Sender und Rezipient, was wiederum komplexitätsreduzierend wirkt. Die von Massenmedien konstruierte Realität gilt dabei gleich doppelt: Zum einen natürlich für die eigene Systemrealität, zum anderen wird auch eine gesamtgesellschaftliche Realität konstruiert, die in anderen Systemen bei Kommunikationen als verbindlich vorausgesetzt werden kann und auf diese Systeme somit komplexitätsreduzierend wirkt.

Massenmedien reduzieren Komplexität

Man kann hier sehr schön feststellen, dass die Massenmedien also die Komplexität reduzieren, weil sie eben Themen zur Kommunikation für die Gesellschaft auswählen und die Elemente der Gesellschaft (also die Personen, die in der Gesellschaft leben) aus der Vielzahl der möglichen Themen nun eine Auswahl geboten bekommen, die eine Kommunikation mit anderen Personen (bzw. Elementen) erleichtert, weil deren Realität ebenfalls durch Massenmedien konstruiert wird. Die Möglichkeiten wurden vorselektiert.

Filterung von Möglichkeiten

Dieser systemische Ansatz lässt sich auch auf das Design übertragen: Die Vorselektion der Möglichkeiten findet beispielsweise nicht in Computerprogrammen statt, die uns zu komplex erscheinen. Hier besteht die Möglichkeit, alles zu tun, mit der Gefahr der Überforderung, weil in jeder Ebene eben auch alles möglich ist. Eine Strukturierung der Möglichkeiten, in beispielsweise Ebenen wäre von Vorteil und würde die Komplexität auf der ersten Programmebene verringern. Weiterhin wird, wie bereits erwähnt, durch die Software, oder allgemeiner gesagt: Ebenen, die durch Immaterialität charakterisiert werden, eine fast kostenfreie Integration von neuen Funktion ermöglicht – frei nach dem Motto »viel hilft viel«, werden so munter bündelweise Funktionen integriert – weil es möglich ist. Die intentionale Funktion des Programms oder von jedem beispielhaften, anderen immateriellen Artefakt geht dabei vermehrt unter.

Beispiel Smartphone

Ein weiteres Beispiel dafür, wäre das Smartphone, was derzeit mit Funktionen soweit überladen wird, dass die eigentliche Funktion des Telefonierens und Nachrichtenschreibens so weit in den Hintergrund tritt, dass man mittlerweile schneller mit einem herkömmlichen Handy zu einem Telefonat innerhalb des Interface navigieren kann, als mit dem Smartphone.

Designprozess in der Vergangenheit

Der Designprozess in der Vergangenheit war also geprägt von keiner, im Vergleich zur Gegenwart, hohen Komplexität – deshalb war eine Bewältigung der Probleme noch sehr intuitiv und ohne komplexe Methoden möglich und erstrebenswert, denn wie bereits Don Koberg und Jim Bagnall bemerkten: »…Observation suggests that complex problems may require complex techniques while simple problems might be handled more basically. Then again, in spite of logic, the reverse might also be valid…«.

Dies bedeutet, dass einfache Probleme auch mit einfachen Techniken bzw. Methoden gelöst werden können und komplexe Probleme brauchen auch komplexe Techniken bzw. Methoden. Der Umkehrschluss, einfache Probleme können auch mit komplexen Methoden gelöst werden ist zwar möglich, jedoch ressourcenaufwändiger und daher nicht zu empfehlen (wenn auch möglich). Weiterhin merken Koberg und Bagnall an: »…the BEST technique is the ONE which works BEST for you…« und legitimieren damit eine intuitive bzw. unbewusste Lösung von Problemen (zumindest in der Vergangenheit, als Probleme noch minderkomplex waren).

Methoden des Handwerks

Ein weiteres schönes Beispiel beschreibt John Jones in seinem Buch »Design methods« mit dem Gleichnis der Methode der Handwerker und das Entwerfen des »…South Midlands Spindle-sided Wagon from Hailey…«. Er spricht von der Handwerker-Evolution und beschreibt die Produkte, die durch das Handwerk entstanden sind wie folgt: »…the craft process can produce a beautiful and complicated object that could be mistaken for the work of a highly skilled designer…«.

Trial-and-Error Methode

Die Handwerker, die damals sehr einfache Werkzeuge und Methoden benutzten, kamen per trial-and-error zu ihren Erzeugnissen. Dies war nur möglich, da sie durch einen Sprung der Erkenntnis ein Ausgangsprodukt erzeugten, welches dann über Jahrzehnte bzw. Jahrhunderte weiter verändert wurde. Dieser Prozess ist sehr langsam und auch sehr kostenintensiv, da er ohne das Prototyping auskommen musste. Das bedeutet, wenn eine Veränderung an einem Objekt vorgenommen wurde, musste es eins zu eins nachgebaut werden (hoher Aufwand an Zeit, Geld und anderweitigen Ressourcen).

Keine Evaluation

Erst wenn das Objekt nun fertig gebaut war, erkannte man, ob es funktioniert oder nicht – man hatte keine Möglichkeit, seine Funktion schon im Vorfeld zu testen und so war es üblich, dass man nur ein Element des Objektes auf einmal veränderte. Das hatte zur Folge, dass man ein Produkt nicht auf einen Schlag revolutionieren konnte, sondern die Verbesserung ein langwieriger, sehr kleinschrittiger Prozess war. Dadurch, dass Handwerker auf keine bzw. nur wenig wissenschaftliche Erkenntnisse zurückgreifen konnten (weil sie selbst keine Wissenschaftler waren), ergab sich diese Trial-and-Error Situation.

Beliebige Entscheidungen

Aus dieser Situation heraus kann auch Jones Aussage über den Handwerker verstanden werden: »…Craftsmen do not, and often cannot[…]give adequate reasons for the decisions they take…«. Hier fällt auch eine Analogie zu einigen Designstudenten auf, die ihre Entscheidungen der Wahl eines bestimmten Umstandes in ihrem Projekt nicht begründen können: Sie gingen nach dem Trial-and-Error Prinzip vor und sind so zu einer beliebigen Lösung gekommen, die sie selber nicht begründen können, weil es keinen oder nur einen intuitiven Grund für ihre Entscheidung gab.

Keine optimalen Lösungen

Ein weiterer Umstand der als logische Konsequenz aus dem Prinzip des Trial-and-Error-Verfahrens betrachtet werden kann, ist, dass die entstandene Lösung in keinem Fall die optimale Lösung sein kann. Sie funktioniert in manchen Fällen, dies macht sie aber nicht zur optimalen Lösung, sondern nur zu einer von vielen möglichen Lösungen. An diesem Beispiel lässt sich erkennen, dass sich die Möglichkeiten aber auch die Geschwindigkeit unserer Welt rasant erhöht haben und heute wäre es kaum denkbar, dass man beispielsweise für die Entwicklung eines Elektroautos Jahrzehnte, wenn nicht Jahrhunderte benötigt, nur weil man jeweils nur eine Komponente ändern kann, weil sonst die Fehleranalyse misslingen würde.

Kontexte von Produkten im ständigen Wandel

Durch die Verflechtung der Beziehung der Produkte untereinander, kann sich jedoch auch der Kontext der Produkte und indirekt damit auch der Kontext der Gesellschaft, für die designt wird, ändern. So schreibt Jonas: »…Kontexte wandeln sich permanent, die Konstrukthaftigkeit und Kontextabhängigkeit der Probleme nimmt zu. Deshalb zeigen traditionelle Methoden Defizite, denn sie neigen dazu, Probleme als »real«, fixiert, statisch, als irgendwie »vom Himmel gefallen« zu betrachten. Folgerichtig sehen sie Lösung als endgültig, entsprechend bestimmten allgemeingültigen »ewigen« Kriterien…«.

Ill-structured Problems

Jonas schreibt hier schon über die Probleme, ich nenne sie jetzt, 2. Komplexitätsstufe, an dessen Anfang wir uns jetzt befinden. Die im Zitat erwähnten traditionellen Methoden wurden damals durch die Einführung einer Methodologie durch Leute wie Jones, Archer oder Alexander konstituiert und sind eine Reaktion auf die Komplexität der ersten Stufe. Diese Reaktion wird heute als »Design methods movement« bezeichnet und kann in die 60er Jahre eingeordnet werden. Diese Bewegung war stark vom kybernetischen Denken der ersten Ordnung beeinflusst, dass unter anderem auch in Rüstungs- und Raumfahrprojekten der Nachkriegszeit angewendet wurde und hier seine Legitimation durch erfolgreiche Bewährung in diesen Projekten erhalten hatte.

Klar definierte Probleme

Die Besonderheit dieser Methoden bzw. Projekte war, dass es ein klar definiertes Problem gab und auch klar definierte Methoden zu einem klar definierten Ziel bzw. einer Lösung führten. Die Formulierung des Problems in der ersten Stufe der Komplexität war keine Schwierigkeit, genau wie die Definition des Zieles, weil die Gesellschaft noch nicht so pluralistisch strukturiert war wie heute. Horst Rittel schrieb zu den Methoden der ersten Komplexitätsstufe:

»…first-generation methods seem to start once all the truly difficult questions have been dealt with already…«

Methoden der ersten Generation

Dadurch, dass die Methoden der ersten Generation kaum noch auf nachfolgende, höher komplexere Probleme und Sachverhalte angewendet werden konnten und die Protagonisten des Design Methods Movement die mechanistischen Herangehensweisen der Methoden erster Generation auch nicht durch dynamische, sich dem Kontext anpassende Methoden substituieren konnten, sollte diese Bewegung bald im Sande verlaufen. Generell wurden Methoden allgemein als funktionalistisch, zu verwissenschaftlicht und mechanistisch abgetan und hatten somit in der damaligen Zukunft kaum Einfluss auf den Designprozess bzw. die Designer, die ein »Machen« bevorzugten und sich auch teilweise der Verwissenschaftlichung ihrer Disziplin verweigerten. Die Methoden der ersten Generation hatten nicht oder nur selten mit der Kontingenz zu tun, die Jonas wie folgt beschreibt:

Kontingenz

»…Kontingenz meint generell die Möglichkeit, dass etwas ist oder auch nicht ist. Speziell bezieht sich der Begriff auf die prinzipielle Unsicherheit im Handeln.[…]Wählbare Handlungsalternativen nehmen mit der Systemdifferenzierung zu. In der Interaktion zweier Systeme spricht man von »doppelter Kontingenz«. Im Entwerfen zeigt sich die doppelte Kontingenz in der potentiellen Offenheit der Problemdefinition und der gleichzeitigen potentiellen Offenheit der Lösungsdefinition….«

Indikator für Systemkomplexität

Also hängt die Kontingenz von der Systemdifferenziertheit ab, insofern kann die Kontingenz als Indikator für die Komplexität des Systems herhalten. Das bedeutet, dass je komplexer ein System (also unsere Gesellschaft) ist, umso kontingenter sind unsere Handlungsmöglichkeiten, also im speziellen Fall des Designers die Möglichkeiten (also Verschiedenheiten) der Problem- und Lösungsdefinitionen, die bereits bei den Prozessmodellen angedeutet wurden. Um mit dieser Kontingenz umgehen zu können, bedarf es eines größeren Umfangs an Planung, Steuerung und rationalen Entscheidungen im Designprozess. Das hat zur Konsequenz, dass der Prozess bewusster wahrgenommen, strukturierter und organisierter werden muss. Zur Umsetzung dienen dabei die Strukturierung und Bewusstmachung des Prozesses mit ihren einzelnen Phasen und eben die Bewältigung dieser Phasen mittels Werkzeugen – den Methoden.

 Differenzierung des Prozesses

Während der Prozess noch in der ersten Methodengeneration zum Beispiel durch Jones nur aus Analyse, Synthese und Evaluation bestand, ist, wie bereits schon im Kapitel der Designprozessmodelle gezeigt, dass eine größere Differenzierung des Prozesses nötig ist, um die Einordnung und Anwendung der immer komplexer werdenden Methoden zu gewährleisten. Um dies zu belegen, können die aus verschiedenen Richtungen der Designtheorie kommenden Forderungen nach »…Komplexität reduzierendes Design…« herangezogen werden. Denn nach Wilkke kann nur ein, mit einer ausreichend internen Komplexität ausgestaltetes System (die Designdisziplin) mit der Komplexität des äußeren Systems (äußere Komplexität – Die Gesellschaft) umgehen.

Eine Komplexitätsreduzierung kann also nur (indirekt) über eine Komplexitätserhöhung der Designdisziplin geschehen. Die Frage, die sich hier anschließt, nämlich wodurch konkret diese Komplexitätsreduktion des äußeren Systems erreicht werden kann, beantwortet Jonas:

 

»…Das Ziel besteht in der Komplexitätsreduktion, jedoch nicht in der Weise der traditionellen Naturwissenschaften, d.h. durch Isolation derjenigen Variablen, die beobachtbar und messbar sind, sondern durch die Reduktion des Systems auf einen repräsentativen Satz von (qualitativen und quantitativen) Variablen und Beziehungen, der notwendig ist, das System so knapp wie möglich zu beschreiben, ohne den systemischen Charakter zu zerstören (»dynamische Komplexität« statt »Detailkomplexität«)…«

0 Kommentare

Hinterlasse einen Kommentar

An der Diskussion beteiligen?
Hinterlasse uns deinen Kommentar!

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert