Fussnoten

Fussnote 2 – Computer

Letzte Aktualisierung 14. November 2021.

Kommentar

Das Leitmedium der nächsten Gesellschaft ist der Computer. In Fortführung der Reihe der dominanten Verbreitungsmedien Sprache, Schrift, Buchdruck und elektronische Medien steht er als Metapher für das Internet und seine Dienste sowie für die an Kommunikation beteiligten Maschinen bzw. künstlichen Intelligenz. 1998 verstorben, hinterliess Niklas Luhmann in seinem Opus Magnum «Gesellschaft der Gesellschaft» erste Beobachtungsthesen zum neuen Leitmedium Computer. Sie sind in ihrer Präzision und Radikalität bis heute aktuell geblieben (2015: 303f):

  • Wie verändert sich Gesellschaft, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubilligt?
  • Wie weit können Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder gar überbieten?
  • Wie wirkt es sich auf gesellschaftliche Kommunikation aus, wenn sie durch computervermitteltes Wissen beeinflusst wird?

Um die verschiedenen Bedeutungen der Metapher Computer auszuleuchten, müssen wir die Begriffe Medium und Computer näher bestimmt.

Mit Blick auf den Begriff Medium schlägt Mike Sandbothe in seinem Buch «Pragmatische Medienphilosophie» vor, auf ein gemeinsames Merkmal für die unterschiedliche Verwendung des Begriffs zu verzichten. Er plädiert im Anschluss an Wittgenstein viel mehr für eine Analyse der «Familienähnlichkeit», die zwischen den im alltäglichen und wissenschaftlichen Sprachgebrauch besteht. Dies führt ihn zu drei unterschiedlichen Mediensorten (2001: 104).

  • Medium als sinnliches Wahrnehmungsmedium (Raum, Zeit)
  • Medium als semiotisches Kommunikationsmedium (Bild, Sprache, Schrift, Musik)
  • Medium als technisches Verbreitungsmedium (Stimme, Buchdruck, Radio, Fernsehen, Internet)

Das Besondere am Computer ist, dass er als Medium in alle drei Mediensorten verwickelt ist. Erstens fungiert der Computer als zentrale Kommunikationstechnologie als «technisches Verbreitungsmedium». Zweitens ermöglicht er als «semiotisches Kommunikationsmedium» die Konvergenz von Bild, Sprache, Schrift und Musik. Und drittens verändert er im weltweiten Verbund mit anderen Computern als «sinnliches Wahrnehmungsmedium» unser Verständnis von Raum und Zeit. Dies im Sinne einer pragmatischen Medienphilosophie, wie sie von Sandbothe in «Perspektiven pragmatischer Medienphilosophie» vorgeschlagen wird: «In ihrem Zentrum [gemeint ist die pragmatische Medienphilosophie] steht die intermedialitätstheoretische Frage, wie Veränderungen im Bereich der Verbreitungs-, Verarbeitungs- und/oder Speichermedien zu Transformationen von Nutzungsgewohnheiten im Bereich der Kommunikationsmedien führen und wie diese wiederum zu einer Reorganisation unserer Wahrnehmungsmedien und damit verbunden der aisthetischen und epistemologischen Grundlagen unseres kulturellen Selbst- und Weltverständnisses beitragen können» (2020: 82).

^ ^ ^

Jochen Hörisch arbeitet in seinem Buch «Bedeutsamkeit» u.a. die Unterscheidung zwischen Leitmedien und ontosemiologischen Leitmedien heraus (2009: 267). Ontosemiologische Leitmedien sind nicht nur teilnahmepflichtig, sondern koppeln wie ein Möbiusband «Sein mit Sinn und Sinn mit Sein» eng aneinander. Sie formieren damit Bedeutsamkeit in intersubjektiv verbindlicher Art und Weise. Hörisch gesteht einzig dem Abendmahl und dem Geld den Status eines rein ontosemiologischen Leitmediums zu. Elektronische Medien zeichnen sich ihm gemäss durch einen zwitterhaften Status aus. Mit dem Geld teilen sie die Eigenschaft, nicht oder fast nicht ignoriert werden zu können. Und mit dem Abendmahl teilen sie die Eigenschaft einer semantischen Aufladung. Im Unterschied zu Geld und zum Abendmahl sind die elektronischen Medien jedoch nicht zustimmungspflichtig. Mediennutzer, so Hörisch, stritten sich systematisch über das, was gesendet wird. Deshalb entlasteten sie – positiv formuliert – von einer Konsenszumutung. Dies führt ihn zum Schluss: «Massenmedien produzieren heute nicht etwa weltweit homogene Massen, sondern Massen von Differenzen. Als ontosemiologische Leitmedien können sie (alle mitsamt) dennoch gelten. Denn sie etablieren den paradoxen Konsenszwang, dem die Formel ‹we agree to disagree› neoklassischen Ausdruck verleiht» (2009: 343).

^ ^ ^

Der Begriff des Mediums nimmt in der Systemtheorie eine zentrale Stellung ein. Von Luhmann im Anschluss an Fritz Heiders Untersuchungen über Wahrnehmungsmedien und an George Spencer-Browns Zwei-Seiten-Form entwickelt, unterscheidet er sich klar vom Medienbegriff der klassischen Medienwissenschaften. Luhmann beschreibt mit seinem Medienbegriff weder das Wesen und die Eigenschaften spezifischer Medien noch schlüsselt er deren Bedeutung anhand des Sprachgebrauchs auf. Luhmann konzipiert seinen Medienbegriff vielmehr anhand der Unterscheidung von Medium und Form (2015: 190ff). Diese abstrakte Unterscheidung erlaubt es ihm, Begriffe wie Sinn, Raum, Zeit, Schrift, Buchdruck, Macht oder Wahrheit unter dem Begriff des Mediums zu subsumieren.

Ein Medium besteht nach Luhmann aus einer lose gekoppelten Menge von bestimmten Elementen, die sich nach bestimmten Selektionen zu strikt gekoppelten Elementen verknüpfen lassen und damit eine Form bilden. Wobei das Medium qua Medium die möglichen Selektionen immer schon limitiert, um die Beliebigkeit von Verknüpfungen einzuschränken. Gleichzeitig aber weitet es die Selektionsmöglichkeiten aus, weil es Formen vorschlägt und die Bildung von Formen anregt. Es ist also gleichzeitig eine Schliessung von und eine Öffnung für Selektionen. So erlaubt etwa die lose gekoppelte Menge von Worten unter Einhaltung der Regeln der Syntax die verständliche Formulierung von ganzen Sätzen. Oder die lose gekoppelte Menge von wahrheitsfähigen Aussagen erlaubt unter Einhaltung von Konsistenzregeln die Formulierung einer wissenschaftlichen Theorie. Nicht unwichtig dabei ist, dass sich im Verlauf der Zeit der Gebrauch des Mediums und damit auch die Anwendung der Selektionsregeln – in unseren Beispielen der Syntax und der Konsistenz – verändern können.

Die genannten Beispiele weisen auf zentrale Aspekte der Unterscheidung von Medium und Form hin. Erstens – und das ist typische für Unterscheidungen in Zwei-Seiten-Formen – bedingen sich Medium und Form gegenseitig. Ein Medium ist nicht ohne seine Formen und Formen sind nicht ohne ihr Medium denkbar. Ohne Worte, keine Sätze. Und ohne Sätze, keine Worte. Zweitens teilen sich Medium und Form dieselben Elemente, beispielsweise wahrheitsfähige Aussagen. Luhmann spricht in diesem Zusammenhang auch von «medialem Substrat». Der Unterschied zwischen Medium und Form besteht allein in Bezug auf die Art der Kopplung, lose oder strikte Kopplung. Drittens lassen sich die Elemente eines medialen Substrats als Formen eines ihm zugrundeliegenden einfacheren Mediums interpretieren. So können Worte im Medium der mündlichen Sprache als mediales Substrat und im Medium der Lautlichkeit als Form aufgefasst werden. Und umgekehrt können die Formen eines Mediums als mediales Substrat eines höherstufigen Mediums fungieren. So bilden die Sätze als Formen der mündlichen Sprache das mediale Substrat im Medium der Rede. Viertens sind Formen flüchtig und instabil, während das Medium dauerhaft und stabil ist. Dies zeigt sich typischerweise am Medium der mündlichen Sprache. Einmal ausgesprochene Sätze verhallen nur allzu schnell, während die unausgesprochenen Worte von dauerhaftem Bestand sind. Viertens manifestiert sich der Gebrauch eines Mediums in einem Prozess des Koppelns und Entkoppelns. So gehört es zum Wesen der Wissenschaft, dass wahrheitsfähige Aussagen zu immer neuen Theorien geformt werden, die an der realen Realität falsifiziert bzw. verifiziert werden. Schliesslich zeichnet sich das Medium durch einen unsichtbaren, virtuellen Charakter aus. Medium ist Potenzialität. Diese wird erst durch Formbildung temporär aktualisiert und wahrnehmbar. Form ist demnach Aktualität. Beispielsweise werden in der mündlichen Sprache nicht die einzelnen, rasch über die Lippen purzelnden Worte (Medium), sondern vielmehr der temporär aktualisierte Sinn der Sätze (Formen) verstanden.

Dies gesagt, lässt sich nach Luhmann der Begriff des Mediums als Einheit der Differenz von medialem Substrat und Form verstehen (vgl. 2015: 195). Das Medium der mündlichen Sprache besteht demnach aus der Einheit der Differenz von Worten (mediales Substrat) und Sätzen (Formen). Und das Medium der Wahrheit aus der Einheit der Differenz von wahrheitsfähigen Aussagen (medialem Substrat) und Theorien (Formen).

^ ^ ^

Für die nähere Bestimmung des Computers als Leitmedium wollen wir ihn einerseits als technische Maschine und andererseits als triviale, nicht-triviale und autonome Maschine beschreiben. Wobei sich zeigen wird, dass wir es beim Computer erstmals mit einer Kommunikationstechnologie und einem Kommunikationsmedium zu tun haben.

In seinem Buch «Organisation und Entscheidung» definiert Luhmann Technik als «feste Kopplung von kausalen Elementen» (2011: 370ff). Dabei trifft er keine Unterscheidung zwischen Mensch und Maschine. Beispielsweise korreliert die Einführung der Druckpresse als neue Technik mit der Entwicklung des Lesevermögens als neue Kulturtechnik beim Menschen. Entscheidend ist bloss die strikte Kopplung verschiedenere Elemente zu einem funktionierenden Netzwerk. Dies bringt mehrere Vorteile mit sich. Der Logik von Ursache und Wirkung folgend, ermöglicht Technik erhebliche Vereinfachungen: Entweder sie funktioniert oder sie funktioniert nicht. Treten technische Störungen auf, können sie behoben werden. Die für den Betrieb von Technik notwendigen Ressourcen lassen sich zudem relativ genau berechnen. Diese Vorteile der Technik bilden nach Luhmann die Bedingung der Möglichkeit, Hierarchien zu bilden bzw. Kontrolle auszuüben. Im Gegenzug führt Technik aber auch zu grossen Abhängigkeiten und Risiken. Deshalb weisst Luhmann darauf hin, dass sich jede Gesellschaft mit der Frage befassen müsse, wie viel strikte Kopplungen sie sich leisten könne. Denn strikte Kopplungen kommen an ihre Grenzen, wenn es bei nicht-technischen Störungen darum geht, «ad hoc, schnell, kompetent, professionell zu reagieren» (ebd. 374). Letzteres vermögen nach Luhmann nur lose Kopplungen zu leisten.

Mit Blick auf die Entwicklungen im Bereich der Computertechnologie und künstlichen Intelligenz können wir aktuell eine Tendenz hin zu solch losen Kopplungen beobachten. Am einen Ende dieser Entwicklung haben wir Computer als triviale Maschinen, die nach strikt gekoppelten Algorithmen funktionieren. Ein Reisender beispielsweise wählt an einem Fahrkartenautomaten seine Destination aus, bezahlt und erhält dafür ein gültiges Ticket. Beim nächsten Reisenden funktioniert die Maschine genau gleich. Am anderen Ende dieser Entwicklung werden wir Computer als autonome Maschinen mit lose gekoppelten Algorithmen haben, die sich adaptiv an ihre Umwelt anpassen. So wird zurzeit vom Personenwagen über Kleinbusse bis hin zu Gütertransport viel im Bereich des autonomen Fahrens geforscht und entwickelt. Die Vorteile dieser Entwicklung liegen in diesem Beispiel in der Optimierung der Verkehrsströme und Ressourcen sowie in der Entlastung von Bewusstseinssystemen. Gesamtgesellschaftlich steigert diese Entwicklung jedoch nochmals die Technikabhängigkeit und erhöht damit auch den Kontrollverlust. Die Vertrauensfrage in Formen der lose gekoppelten Technik – sofern man noch von «Technik» sprechen kann – wird deshalb eine zentrale Frage der nächsten Gesellschaft sein.

Doch zurück zu Computer als technische Maschine. In «Gesellschaft der Gesellschaft» hat Luhmann auf die Faszination hingewiesen, die vom Computer als technische Maschine ausgeht bzw. die von der mit ihm aktualisierten Unterscheidung von Oberfläche und Tiefe einhergeht. Hatten früher Ornamente und Lineaturen auf der Oberfläche von Bauten, Stoffen und Tapeten auf eine tiefere Welt der Religiosität und Kultur verwiesen, so stehen heute die Zeichen und Symbole auf den Bildschirmen für die Tiefe einer virtuellen Realität. «Die Oberfläche», so Luhmann, «ist jetzt der Bildschirm mit extrem beschränkter Inanspruchnahme menschlicher Sinne, die Tiefe dagegen die unsichtbare Maschine, die heute in der Lage ist, sich selbst von Moment zu Moment umzukonstruieren […]» (2015: 304). Baecker schliesst in «4.0 oder Die Lücke die der Rechner lässt» in diesem Punkt an Luhmann mit den Worten an: «Unser Verhältnis zu den Displays der Rechner ist eines der religiösen Inbrunst und des ästhetischen Genusses, auch wenn wir die Götter nicht benennen können, an die wir glauben, und das Design nicht durchschauen, das uns so erfolgreich in seinem Bann hält» (2018: 21).

Die von Luhmann und Baecker beschriebene Faszination, die von Computer ausgeht, hat mit einer grundlegenden Veränderung unseres Konzepts von Maschine zu tun. Das Maschinenkonzept des 19. Jahrhunderts, so Luhmann, sei mit Blick auf den menschlichen Körper an Energieeinsparung und Zeitgewinn orientiert gewesen. Erst die Einführung des Computers im 20 Jahrhundert hat bezüglich Maschine unseren Fokus vom Körperlichen auf Zeichen und damit auf Kommunikationstechnologien verlagert. Der Sinn dieser neuen Technik, erklärt Luhmann, bestehe darin, mittels Zeichen andere Zeichen zugänglich zu machen (vgl. 2015: 530). Mit anderen Worten: Stand zu Beginn der Industrialisierung die mechanische Leistung von Maschinen im Vordergrund, rücken in modernen Dienstleistungsgesellschaften immer mehr deren Fähigkeiten bezüglich Verarbeitung von Zeichen und Daten ins Blickfeld. Ein Gegenstand der Spekulation könnte sein, wie weit im Zuge der Miniaturisierung in der (Computer-)Technologie und mit dem Einsatz von künstlicher Intelligenz im 21. Jahrhundert das Körperliche wieder ins Zentrum rückt oder gar eine Konvergenz von Körper und Maschine stattfinden wird.

Die Verlagerung vom Körperlichen aufs Zeichen jedenfalls führt einen zweiten Grund für die hohe Faszination an Computer mit sich, nämlich Sprache. Zusammen mit Information und Mitteilung bildet sie die Einheit von Kommunikation und damit die Grundlage sozialer Systeme. Allein deshalb schon muss Sprache als grundlegendes Kommunikationsmedium faszinieren. «Im evolutionären Kontext gesehen», so Luhmann, «ist Sprache eine extrem unwahrscheinliche Art von Geräusch, das eben wegen dieser Unwahrscheinlichkeit hohen Aufmerksamkeitswert und hochkomplexe Möglichkeiten der Spezifikation besitzt. Wenn gesprochen wird, kann ein Bewusstsein dieses Geräusch leicht von anderen Geräuschen unterscheiden und kann sich der Faszination durch die laufende Kommunikation kaum entziehen» (2015: 110). Dasselbe, so Luhmann weiter, gelte auch für ins optische Medium übertragene Sprache, also für Schrift. Und wir möchten anfügen: für die Zeichen und Symbole auf den Bildschirmen und Screens.

Nun ist es aber eine Eigenheit des Computers als digitales Medium, dass er nicht mit analogen Formen (Zeichen und Symbole), sondern mit digitalen Formen (0 und 1) operiert. Deshalb müssen im Verkehr mit Computern zuerst alle analogen Formate (Text, Bild, Bewegbild, Ton) über eine Schnittstelle in digitale Formate (Datensätze) übersetzt werden. Erst diese Übersetzungsleistung (technische Digitalisierung) ermöglicht dann das Speichern, Verarbeiten und – ohne Qualitätsverlaust – Verbreiten von Daten. Damit diese Daten die Aufmerksamkeit von Bewusstseinssystemen wieder erregen und von ihnen verstanden werden können, müssen sie aus digitalen wieder in analoge Formate rückübersetzt werden. Diese Prozesse der Digitalisierung und Analogisierung verlaufen typischerweise nach strikt gekoppelten Algorithmen.

^ ^ ^

Die Unterscheidung zwischen trivialen und nicht-trivialen Maschinen wurde von Heinz von Foerster prominent gemacht. Eine triviale Maschine ist ihm gemässe eine Maschine, die bei demselben Input immer denselben Output liefert. Weil die inneren Zustände der Maschine immer gleichbleiben, besteht eine unveränderliche Relation zwischen Input und Output. Triviale Maschinen sind also voraussagbare Maschinen, die vom aktuellen Kontext und von ihrem eigenen vergangenen Verhalten unabhängig sind.

Wie Elena Esposito in ihrem 1993 erschienen Aufsatz «Der Computer als Medium und Maschine» ausgearbeitet hat, können wir den Computer eben als beides, als Maschine und als Medium, verstehen. Demnach haben wir es beim Computer als Verbreitungsmedium mit einer trivialen Maschine zu tun. Denn: «Es [das Medium] muss das, worauf es angewendet wird, so wenig wie möglich verändern, sonst ist es ein schlechtes Medium, ein ‹geräuschvolles› Medium. Der input muss also dem output so gleich wie möglich sein, sonst dient das Medium zu nichts» (1993: 339).

Ein typischer Anwendungsfall des Computers als triviale Maschine ist sein Einsatz für die Übermittlung von Daten in Netzwerken nach klar definierten Protokollen.

^ ^ ^

Im Unterschied zur trivialen Maschine ist bei der nicht-trivialen Maschine der Output anders als der Input. Nach von Foerster handelt es sich bei nicht-trivialen Maschinen um komplexe Maschinen, weil sie über eine Art «inneren Zustand» verfügen. «[Sie] ändern ihre innere Struktur und die Transformationsregel immer wieder» (vgl. von Foerster 1999: 56). Deshalb ist es unmöglich vorherzusagen, was für einen Output ein bestimmter Input generiert. Die Nutzer von nicht-trivialen Maschinen erwartet also geradezu, dass ein Input zu einem überraschenden, informativen Output führt. Sonst würden die Maschinen zu nichts nützen.

Esposito unterscheidet zwischen individuellem und kommunikativem Gebrauch des Computers als nicht-triviale Maschine. Mit Blick auf den individuellen Gebrauch stellt sie die Hypothese auf, dass der Computer der Erweiterung der Selbstbeobachtung des Nutzers dient. «Durch Computer kann man ohne Kommunikation aus seinen Daten Informationen gewinnen, die über die Fähigkeiten des sie gewinnenden Systems [gemeint sind die Nutzer] hinausgehen» (1993: 348). Der Computer transformiert also die eingegebenen Daten in neue Informationen, die neue Zusammenhänge, neue Verbindungen und neue Implikationen aufzeigen. Ein typischer Anwendungsfall für die individuelle Nutzung von Computern sind sogenannte Expertensysteme. Sie unterstützen die Nutzer bei der Lösung komplexer Probleme wie ein Experte, indem sie aus einem grossen Datenbestand Handlungsempfehlungen ableiten. Solche Systeme erwecken bei ihren Nutzern gerne den Eindruck, dass der Computer «mitdenkt». Esposito weist allerdings darauf hin: «In Wirklichkeit aber gibt es – was die Fähigkeit zu denken angeht – keinen Unterschied zwischen einem Computer und einem Rechenstab: In beiden Fällen wird ein Instrument benutzt, das jemand nach einem bestimmen ‹Programm› gebaut hat, um sich von den verfügbaren Daten überraschen zu lassen» (1993: 349). Der Unterschied zwischen Rechenstab und Computer, so Esposito, liege vielmehr darin, dass im Fall des Computers die Programmierung so komplex sei, dass sie für die Nutzer undurchschaubar sei und bleibe.

Mit Blick auf den kommunikativen Gebrauch des Computers streicht Esposito seine Funktion als Kommunikationsmedium heraus. Sie sieht die Einführung des Computers als Verbreitungsmedium (triviale Maschine) in die Gesellschaft als Problem und die Einführung des Computers als Kommunikationsmedium (nicht-triviale Maschine) als dessen Lösung an. Als Verbreitungsmedium hat der Computer dazu geführt, dass es die Gesellschaft mit einem Überschuss an Informationen zu tun bekommen hat. Gleichzeitig werden Informationen von Mitteilungen so entkoppelt, dass die Nutzer von Informationen keinen Bezug mehr zu den Motiven der Mitteilenden herstellen können. Dieser fehlende Bezug führt zu einer explodierenden Vielfalt von Interpretationsmöglichkeiten auf Seiten der Nutzer. Wir haben es also nicht nur mit einem Überschuss an Informationen, sondern auch mit einem Überschuss an Interpretationen zu tun. «Die Eigenschaft des Computers», so Espositos Hypothese, «Maschine und Medium zugleich zu sein, ermöglicht den von ihm verfügbar gemachten Überschuss an Informationen zu bewältigen, und ihnen eine Struktur zu geben» (1993: 351). Dies allein löst aber noch nicht das Problem der korrekten Interpretation einer Mitteilung. Auch in diesem Fall, so behauptet Esposito, erlaube es der Computer als nicht-triviale Maschine durch die Strukturierung von Informationen dem Raum möglicher Interpretationen einzuschränken (Virtuelle Kontingenz).

Als typisches Beispiel fügt Esposito den Hypertext an. Im Unterschied zum klassischen Text des Buchdrucks verfügt der Hypertext über keine lineare Ordnungsstruktur. Via Hypertext können vielmehr Daten aus unterschiedlichen Perspektiven aufgerufen, nach verschiedenen Kriterien sortiert und zu Informationen verarbeitet werden. Dies erhöht einerseits die Verarbeitungsfreiheit von Informationen, andererseits bleiben die Möglichkeiten durch die Ordnungsstruktur des Computers eingeschränkt. Aus heutiger Sicht spielen neben den in Datenbanken strukturierte Daten bei der Selektion von Informationen bzw. Mitteilungen auch Algorithmen eine zentrale Rolle. Man denke dabei nur an die von Algorithmen selegierten Mitteilungen auf Social-Media-Plattformen.

^ ^ ^

Als autonome Maschinen wollen wir im Anschluss an die Luhmannsche Systemtheorie Computer bezeichnen, die über keine direkten Inputs und Outputs im Sinne der oben beschriebenen trivialen und der nicht-trivialen Maschinen verfügen. Es handelt sich bei ihnen um operativ geschlossene Systeme. Diese können auf der Ebene ihrer eigenen Operationen weder in ihre Umwelt durchgreifen, noch können die Systeme aus ihrer Umwelt an den Operationen des geschlossenen Systems mitwirken. Das Bewusstsein beispielsweise ist ein operativ geschlossenes System. Es gibt keinen unmittelbaren Kontakt zwischen den verschiedenen Bewusstseinssystemen. Für Person A bleibt die Gedankenwelt der Person B immer intransparent und umgekehrt kann Person B auf die Gedanken von Person A nicht unmittelbar einwirken. Geschlossene Systeme sind autopoietische Systeme (altgriech. αὐτός «selbst» und ποιεῖν «schaffen, bauen»). Das heisst, sie produzieren und reproduzieren die Elemente, aus denen sie bestehen, durch die Elemente, aus denen sie bestehen. Die Autopoiesis des Bewusstseins besteht demnach aus Operationen, die Gedanken in Gedanken transformiert. Ein Austausch zwischen Bewusstseinssystemen ist nur durch strukturelle Kopplung an die Kommunikation sozialer Systeme möglich.

Luhmann selbst ordnete in seinem 1987 erschienen Werk «Soziale Systeme» Maschinen den sogenannt allopoetischen, und nicht den autopoietischen Systemen zu (vgl. Luhmann 2018: 17f). Allopoetische Systeme verfügen eben nicht über die Fähigkeit, die eigenen Elemente zu produzieren und reproduzieren. Sie stellen gemäss einem von aussen festgelegtem Programm vielmehr etwas anderes her (altgriech. αλλ(ο) «anders, verschieden» und ποιεῖν «schaffen, bauen»). In jüngerer Vergangenheit wird allerdings unter Titeln wie «Autopoietic Computing», «Autopoietic Machines» oder «Artifical Autopoietic Systems» an autonomen Computern im Sinne der Autopoiesis geforscht. An dieser Stelle soll nur auf zwei Arbeiten verwiesen werden. Gerard Briscoe und Paolo Dini haben in ihrem 2010 erschienen Aufsatz «Towards Autopoietic Computing» die wichtigsten Konzepte der Autopoiesis zusammengefasst und mit Blick auf die Entwicklung einer Theorie autopoietischer Rechner diskutiert. Mark Burgin und Rao Mikkilineni haben in ihrem 2021 verfassten Aufsatz «From data processing to knowledge processing: Operation with schemas in Autopoietic Machines» eine Theorie und Praxis für den Entwurf und die Implementation autopoietischer Maschinen als informationsverarbeitende Strukturen vorgestellt, die symbolisches Kalkulieren und neurale Netzwerke verbinden.

Die Forschung an autonomen Computern im Sinne autopoietischer Systeme scheint im Kontext der aktuellen Entwicklungen rund um Computertechnologie und künstliche Intelligenz ein Nische zu sein. Stellt sie doch klassische Konzepte wie die Von-Neumann-Architektur von Computern (das Operieren nach von aussen festgelegten Hardware-Komponenten) und die Turingmaschine (das Rechnen nach von aussen festgelegten Programmen) in Frage. Mark Burgin und Rao Mikkilineni schhliessen ihren Aufsatz denn auch mit den Worten: «It is important to point out the difference between current state of the art based on the classical computer science (constrained by the Church Turing thesis boundaries), which process information in the form of symbol sequences, and the current advancement of the field based on structural machines, which process information in the form of dynamically evolving network of networks represented by various schemas. As a result, we obtain autopoietic machines which are capable of regenerating, reproducing and maintaining themselves» (2021: 13).

Spätestens mit der Realisierung solch autonomer Computer würde die oben von Luhmann aufgeworfene Frage, wie sich die Gesellschaft verändere, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubillige, an Brisanz gewinnen.

^ ^ ^

In der Beschreibung des Computers als Maschine und Leitmedium tauchen Spezialthemen auf, die wir hier gesondert diskutieren.

Der Begriff der Kontingenz beschreibt nach Luhmann die Ausschliessung von Notwendigkeit und Unmöglichkeit. In «Soziale Systeme» schreibt er: «Kontingent ist etwas, was weder notwendig ist noch unmöglich ist; was also so, wie es ist (war, sein wird), sein kann, aber auch anders möglich ist» (2018a: 152). Kontingenz setze zwar die gegebene Welt voraus, so Luhmann, bezeichne aber von da aus, was anders möglich wäre.

Doppelte Kontingenz
Ausgangspunkt des Problems der doppelten Kontingenz ist die Grundsituation, gemäss der kein Handeln zustande kommen kann, wenn ein Akteur sein Handeln davon abhängig macht, wie ein anderer Akteur handelt und letzterer sein Verhalten von ersterem abhängig macht. Solange also der eine Akteur nicht handeln kann, ohne zu wissen, wie der andere handeln wird – und umgekehrt – ist die Situation blockiert. Unter Akteuren subsummiert Luhmann psychische Systeme (z.B. Personen) und soziale Systeme (z.B. Organisationen), die typischerweise selbstreferentielle Systeme sind. Das heisst, jedes System bestimmt sein eigenes Verhalten durch komplexe selbstreferentielle Operationen innerhalb seiner Grenzen. Folglich bleiben die Systeme füreinander intransparent. Sie können einander nicht berechnen, sondern nur gegenseitig beobachten.

Um das Problem der doppelten Kontingenz zu lösen, muss nach Luhmann die Zeitdimension mitberücksichtigt werden. Demnach bestimmt ein Akteur in einer unsicheren Situation sein Verhalten versuchsweise zuerst und beobachtet wie der andere Akteur darauf reagiert. «Jeder darauf folgende Schritt», so Luhmann, «ist dann im Lichte dieses Anfangs eine Handlung mit kontingenzreduzierendem, bestimmendem Effekt – sei es nun positiv oder negativ» (2018a: 150). Diese Art der Absorption von Unsicherheit führt zur Stabilisierung von Erwartungen und zur Herausbildung von Strukturen für den Aufbau sozialer Systeme: «Soziale Systeme entstehen jedoch dadurch (und nur dadurch), dass beide Partner doppelte Kontingenz erfahren und dass die Unbestimmbarkeit eines solchen Situation für beide Partner jeder Aktivität, die dann stattfindet, strukturbildende Bedeutung gibt» (2018a: 154). Ein zentraler Punkt beim Entstehen sozialer Systeme ist, dass der Zufall – im Sinne einer fehlenden Koordination von Ereignissen – gleichzeitig mitproduziert wird und so die Reproduktion des Systems aufrechterhält.

Virtuelle Kontingenz
Bei der Absorption von Unsicherheit spielen ausserdem Medien im weiteren Sinne eine zentrale Rolle. Ihre Funktion besteht nach Luhmann darin, «Unwahrscheinliches in Wahrscheinliches zu transformieren» (2018a: 220). Als Wahrnehmungs-, Kommunikations- und Verbreitungsmedien begrenzen sie einerseits den Selektionsspielraum psychischer und sozialer Systeme, ohne dass sie andererseits die Selektionsmöglichkeiten unterbinden. Sie ermöglichen vielmehr innerhalb ihrer Grenzen neue Zufälle und Überraschungen.

In diesen Kontext gehören auch die Überlegungen von Esposito, die den Computer als Maschine und Medium versteht: «Man könnte sagen, dass man hier eine neue Qualität der Kontingenz hat: Sie ist nicht die für Kommunikation typische doppelte Kontingenz (die Manipulation kann keinem zugeschrieben werden), aber auch nicht genau die Verdoppelung der einfachen Kontingenz, die der individuelle Gebrauch der Schrift ermöglicht […] Eine Verarbeitung hat stattgefunden, die auf die Operationen des selbstbeobachtenden Systems [gemeint ist der Nutzer des Computers] nicht zurückgeführt werden kann. Es hat eine externe Manipulation gegeben. Mit einem im informatorischen Bereich ziemlich verbreiteten Adjektiv könnte diese Kontingenz virtuelle Kontingenz genannt werden» (1993: 350). So entsteht im individuellen Gebrauch des Computers der Eindruck, dass es ein anderes Bewusstsein gibt, das mitdenkt und sich am Kontext und Verhalten des Nutzers orientiert. Und im kommunikativen Gebrauch stellt der Computer eine virtuelle Kontingenz zur Verfügung, weil die doppelte Kontingenz nicht mehr dazu beitragen kann, den Überschuss an Möglichkeiten einzuschränken. «Die vom Computer verbreiteten Informationen», so Esposito, «sind dann strukturierte Informationen, auch wenn diese Struktur nicht vom Bezug auf die Selektion eines Alter Egos abhängt» (1993: 352).

^ ^ ^

Der durchschlagende Erfolg des Computers in den letzten Dekaden hat nicht zuletzt mit der rasanten Entwicklung in der Halbleitertechnologie zu tun. Gordon Moore, Mitgründer des Chipherstellers Intel, hat schon in den 1960er-Jahren prognostiziert, dass sich die Komplexität integrierter Schaltkreise alle 18 Monate verdoppeln würde (Moores Gesetz). Das heisst, dass Computer bei gleichbleibenden Kosten ein exponentielles Wachstum ihrer Leistung verzeichnen. Dies ist freilich nicht ohne stetige Verkleinerung der technischen Bauteile erreichbar.

Aus gesellschaftlicher Sicht ist vor allem die mit der Miniaturisieurng einhergehende Steigerung der Mobilität relavant, insebsondere durch die Einführung des Smartphones. War der Zugang zur computervermittelten Kommunikation bei stationären Geräten noch orts- und kontextgebunden, erlauben es mobile Geräte jederzeit und von überall her spontan an Kommunikation teilzuhaben. Durch diese enge Kopplung an Computer entwickeln Nutzerinnen und Nutzer ein intimes Verhältnis zu ihrem Smartphone, was mit Blick auf Erreichbarkeit und Emotionalisierung der Kommunikation weitereichende Konsequenzen hat. 

^ ^ ^

These

Der Computer ist das Leitmedium der nächsten Gesellschaft. Als triviale Maschine fungiert er als digitales Kommunikationsmedium und als nicht-triviale bzw. autonome Maschine beteiligt er sich – erstmals neben Menschen – an Kommunikation.

Hinterlassen Sie einen Kommentar