Fussnoten

Fussnote 2

Letzte Aktualisierung 10. Mai 2021.

Kommentar

Das Leitmedium der nächsten Gesellschaft ist der Computer. In der Fortführung der Reihe der dominanten Verbreitungsmedien Sprache, Schrift und Buchdruck (Massenmedien) steht er als Metapher für das Internet und seine Dienste sowie für die an Kommunikation beteiligten Maschinen bzw. künstlichen Intelligenz. Diese Metapher ist nicht ganz aus der Luft gegriffen. 1998 verstorben, hinterliess Niklas Luhmann in seinem Buch «Gesellschaft der Gesellschaft» erste Beobachtungsthesen zum neuen Leitmedium Computer. Sie sind in ihrer Präzision und Radikalität bis heute aktuell geblieben (2015: 303f):

  • Wie verändert sich Gesellschaft, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubilligt?
  • Wie weit können Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder gar überbieten?
  • Wie wirkt es sich auf gesellschaftliche Kommunikation aus, wenn sie durch computervermitteltes Wissen beeinflusst wird?

Um die verschiedenen Bedeutungen der Metapher Computer auszuleuchten, müssen die Begriffe Medien und Computer näher bestimmt werden.


Mit Blick auf den Begriff Medium schlägt Mike Sandbothe in seinem Buch «Pragmatische Medienphilosophie» vor, auf ein gemeinsames Merkmal für die unterschiedliche Verwendung des Begriffs zu verzichten. Er plädiert im Anschluss an Wittgenstein viel mehr für eine Analyse der «Familienähnlichkeit», die zwischen den im alltäglichen und wissenschaftlichen Sprachgebrauch besteht. Dies führt ihn zu drei unterschiedlichen Mediensorten (2001: 104).

  • Medium als sinnliches Wahrnehmungsmedium (Raum, Zeit)
  • Medium als semiotisches Kommunikationsmedium (Bild, Sprache, Schrift, Musik)
  • Medium als technisches Verbreitungsmedium (Stimme, Buchdruck, Radio, Fernsehen, Internet)

Das Besondere am Computer ist, dass er als Medium in alle drei Mediensorten verwickelt ist. Erstens nimmt der Computer als zentrales Element des Internets die Rolle eines technischen Verbreitungsmediums wahr. Zweitens operiert er beim Speichern, Verarbeiten und Auswerten von Daten in einem semiotischen Kommunikationsmedium. Und drittens verändert er im Verbund mit anderen Computern die Wahrnehmung von Raum und Zeit. Dies im Sinne einer pragmatischen Medienphilosophie, wie sie von Sandbothe in «Perspektiven pragmatischer Medienphilosophie» vorgeschlagen wird: «In ihrem Zentrum [gemeint ist die pragmatische Medienphilosophie] steht die intermedialitätstheoretische Frage, wie Veränderungen im Bereich der Verbreitungs-, Verarbeitungs- und/oder Speichermedien zu Transformationen von Nutzungsgewohnheiten im Bereich der Kommunikationsmedien führen und wie diese wiederum zu einer Reorganisation unserer Wahrnehmungsmedien und damit verbunden der aisthetischen und epistemologischen Grundlagen unseres kulturellen Selbst- und Weltverständnisses beitragen können» (2020: 82).

Jochen Hörisch arbeitet in seinem Buch «Bedeutsamkeit» u.a. die Unterscheidung zwischen Leitmedien und ontosemiologischen Leitmedien heraus (2009: 267). Ontosemiologische Leitmedien sind nicht nur teilnahmepflichtig, sondern koppeln wie ein Möbiusband «Sein mit Sinn und Sinn mit Sein» eng aneinander. Sie formieren damit Bedeutsamkeit in intersubjektiv verbindlicher Art und Weise. Hörisch gesteht einzig dem Abendmahl und dem Geld den Status eines rein ontosemiologischen Leitmediums zu. Elektronische Medien zeichnen sich ihm gemäss durch einen zwitterhaften Status aus. Mit dem Geld teilen sie die Eigenschaft, nicht oder fast nicht ignoriert werden zu können. Und mit dem Abendmahl teilen sie die Eigenschaft einer semantischen Aufladung. Im Unterschied zu Geld und zum Abendmahl sind die elektronischen Medien jedoch nicht zustimmungspflichtig. Mediennutzer, so Hörisch, stritten sich systematisch über das, was gesendet wird. Deshalb entlasteten sie – positiv formuliert – von einer Konsenszumutung. Dies führt ihn zum Schluss: «Massenmedien produzieren heute nicht etwa weltweit homogene Massen, sondern Massen von Differenzen. Als ontosemiologische Leitmedien können sie (alle mitsamt) dennoch gelten. Denn sie etablieren den paradoxen Konsenszwang, dem die Formel ‹we agree to disagree› neoklassischen Ausdruck verleiht» (2009: 343).

Luhmann hat im Anschluss an Fritz Heider für seine Systemtheorie einen eigenen Medienbegriff entwickelt (2015: 190ff). Demnach konstituieren sich Kommunikationssysteme mit Hilfe der Unterscheidung von Medium und Form. Wobei er im Spezifischen unter Kommunikationsmedien die operative Verwendung der Differenz von medialem Substrat und Form versteht. Die Unterscheidung Medium und Form wird begleitet von einer zweiten Unterscheidung der lose gekoppelten und der strikt gekoppelten Elemente. Die losen gekoppelten Elemente eines medialen Substrats lassen sich in einer Form zu strikt gekoppelten Elementen verbinden. Dabei können solche Formen wiederum als Medium für die Erzeugung höherstufiger Formen fungieren. Umgekehrt kann ein Medium als Formen eines ihm zugrundeliegenden einfacheren Mediums interpretiert werden. Am einfachsten lässt sich das am Beispiel der Sprache veranschaulichen. So fungieren lose gekoppelte Worte einerseits als mediales Substrat, aus dem sich durch strikte Kopplung Sätzen formen lassen. Andererseits lassen sich Worte als Formen auf das mediale Substrat der Laute zurückführen (vgl. Luhmann 2015: 2019f).


Für die nähere Bestimmung des Leitmediums Computer sollen einerseits seine technische Materialität und andererseits seine Funktion als triviale, nicht-triviale und autonome Maschine in den Blick genommen werden.

Niklas Luhmann hat bereits in «Gesellschaft der Gesellschaft» auf die Faszination hingewiesen, die vom Computer als technische Maschine ausgeht bzw. die von der mit ihm aktualisierten Unterscheidung von Oberfläche und Tiefe einhergeht. Hatten früher Ornamente und Lineaturen auf der Oberfläche von Bauten, Stoffen und Tapeten auf eine tiefere Welt der Religiosität und Kultur verwiesen, so stehen heute die Zeichen und Symbole auf den Bildschirmen für die Tiefe einer virtuellen Realität. «Die Oberfläche», so Luhmann, «ist jetzt der Bildschirm mit extrem beschränkter Inanspruchnahme menschlicher Sinne, die Tiefe dagegen die unsichtbare Maschine, die heute in der Lage ist, sich selbst von Moment zu Moment umzukonstruieren […]» (2015: 304). Baecker schliesst in diesem Punkt an Luhmann mit den Worten an: «Unser Verhältnis zu den Displays der Rechner ist eines der religiösen Inbrunst und des ästhetischen Genusses, auch wenn wir die Götter nicht benennen können, an die wir glauben, und das Design nicht durchschauen, das uns so erfolgreich in seinem Bann hält» (2018: 21).
Der durchschlagende Erfolg des Computers in den letzten Dekaden hat sicherlich auch mit der rasanten Entwicklung in der Halbleitertechnologie zu tun. Gordon Moore, Mitgründer des Chipherstellers Intel, hat schon in den 1960er-Jahren prognostiziert, dass sich die Komplexität integrierter Schaltkreise alle 18 Monate verdoppeln würde (Moores Gesetz). Gemäss diesem Gesetz verzeichnen die Computer bei gleichbleibenden Kosten ein exponentielles Wachstum ihrer Leistung.
Trotz aller Faszination können, ja müssen wir uns über diese «unsichtbaren Maschinen» sowie über deren Möglichkeiten und Grenzen informieren, um uns in der nächsten Gesellschaft eine friedliche, produktive und konstruktive Koexistenz mit ihnen vorzustellen.

Die Unterscheidung zwischen trivialen und nicht-trivialen Maschinen wurde von Heinz von Foerster prominent gemacht. Eine triviale Maschine ist ihm gemässe eine Maschine, die bei demselben Input immer denselben Output liefert. Weil die inneren Zustände der Maschine immer gleichbleiben, besteht eine unveränderliche Relation zwischen Input und Output. Triviale Maschinen sind also voraussagbare Maschinen, die vom aktuellen Kontext und von ihrem eigenen vergangenen Verhalten unabhängig sind.
Wie Elena Esposito in ihrem 1993 erschienen Aufsatz «Der Computer als Medium und Maschine» ausgearbeitet hat, können wir den Computer eben als beides, als Maschine und als Medium, verstehen. Demnach haben wir es beim Computer als Verbreitungsmedium mit einer trivialen Maschine zu tun. Denn: «Es [das Medium] muss das, worauf es angewendet wird, so wenig wie möglich verändern, sonst ist es ein schlechtes Medium, ein ‹geräuschvolles› Medium. Der input muss also dem output so gleich wie möglich sein, sonst dient das Medium zu nichts» (1993: 339).
Ein typischer Anwendungsfall des Computers als Verbreitungsmedium bzw. als triviale Maschine ist sein Einsatz für die Übermittlung von Informationen in Netzwerken. Dabei werden Daten auf Basis eines klar definierten Protokolls (Software) zwischen Rechnern ausgetauscht. Im Fall des Internets handelt es sich dabei um das Transmission Control Protocol/Internet Protocol (TCP/IP).

Im Unterschied zur trivialen Maschine ist bei der nicht-trivialen Maschine der Output anders als der Input. Nach von Foerster handelt es sich bei nicht-trivialen Maschinen um komplexe Maschinen, weil sie über eine Art «inneren Zustand» verfügen. [Sie] «ändern ihre innere Struktur und die Transformationsregel immer wieder» (vgl. von Foerster 1999: 56). Deshalb ist es unmöglich vorherzusagen, was für einen Output ein bestimmter Input generiert. Die Nutzer von nicht-trivialen Maschinen erwartet also geradezu, dass ein Input zu einem überraschenden, informativen Output führt. Sonst würden die Maschinen zu nichts nützen.
Esposito unterscheidet zwischen individuellem und kommunikativem Gebrauch des Computers als nicht-triviale Maschine. Mit Blick auf den individuellen Gebrauch stellt sie die Hypothese auf, dass der Computer der Erweiterung der Selbstbeobachtung des Nutzers dient. «Durch Computer kann man ohne Kommunikation aus seinen Daten Informationen gewinnen, die über die Fähigkeiten des sie gewinnenden Systems [gemeint sind die Nutzer] hinausgehen» (1993: 348). Der Computer transformiert also die eingegebenen Daten in neue Informationen, die neue Zusammenhänge, neue Verbindungen und neue Implikationen aufzeigen. Ein typischer Anwendungsfall für die individuelle Nutzung von Computern sind sogenannte Expertensysteme. Sie unterstützen die Nutzer bei der Lösung komplexer Probleme wie ein Experte, indem sie aus einem grossen Datenbestand Handlungsempfehlungen ableiten. Solche Systeme erwecken bei ihren Nutzern gerne den Eindruck, dass der Computer «mitdenkt». Esposito weist allerdings darauf hin: «In Wirklichkeit aber gibt es – was die Fähigkeit zu denken angeht – keinen Unterschied zwischen einem Computer und einem Rechenstab: In beiden Fällen wird ein Instrument benutzt, das jemand nach einem bestimmen ‹Programm› gebaut hat, um sich von den verfügbaren Daten überraschen zu lassen» (1993: 349). Der Unterschied zwischen Rechenstab und Computer, so Esposito, liege vielmehr darin, dass im Fall des Computers die Programmierung so komplex sei, dass sie für die Nutzer undurchschaubar sei und bleibe.
Mit Blick auf den kommunikativen Gebrauch des Computers streicht Esposito seine Funktion als Kommunikationsmedium heraus. Sie sieht die Einführung des Computers als Verbreitungsmedium (triviale Maschine) in die Gesellschaft als Problem und die Einführung des Computers als Kommunikationsmedium (nicht-triviale Maschine) als dessen Lösung an. Als Verbreitungsmedium hat der Computer dazu geführt, dass es die Gesellschaft mit einem Überschuss an Informationen zu tun bekommen hat. Gleichzeitig werden Informationen von Mitteilungen so entkoppelt, dass die Nutzer von Informationen keinen Bezug mehr zu den Motiven der Mitteilenden herstellen können. Dieser fehlende Bezug führt zu einer explodierenden Vielfalt von Interpretationsmöglichkeiten auf Seiten der Nutzer. Wir haben es also nicht nur mit einem Überschuss an Informationen, sondern auch mit einem Überschuss an Interpretationen zu tun. «Die Eigenschaft des Computers», so Espositos Hypothese, «Maschine und Medium zugleich zu sein, ermöglicht den von ihm verfügbar gemachten Überschuss an Informationen zu bewältigen, und ihnen eine Struktur zu geben» (1993: 351). Dies allein löst aber noch nicht das Problem der korrekten Interpretation einer Mitteilung. Auch in diesem Fall, so behauptet Esposito, erlaube es der Computer als nicht-triviale Maschine durch die Strukturierung von Informationen dem Raum möglicher Interpretationen einzuschränken (Virtuelle Kontingenz).
Als typisches Beispiel fügt Esposito den Hypertext an. Im Unterschied zum klassischen Text des Buchdrucks verfügt der Hypertext über keine lineare Ordnungsstruktur. Via Hypertext können vielmehr Daten aus unterschiedlichen Perspektiven aufgerufen, nach verschiedenen Kriterien sortiert und zu Informationen verarbeitet werden. Dies erhöht einerseits die Verarbeitungsfreiheit von Informationen, andererseits bleiben die Möglichkeiten durch die Ordnungsstruktur des Computers eingeschränkt. Aus heutiger Sicht spielen neben den in Datenbanken strukturierte Daten bei der Selektion von Informationen bzw. Mitteilungen auch Algorithmen eine zentrale Rolle. Man denke dabei nur an die von Algorithmen selegierten Mitteilungen auf Social-Media-Plattformen.

Als autonome Maschinen wollen wir im Anschluss an die Luhmannsche Systemtheorie Computer bezeichnen, die über keine direkten Inputs und Outputs im Sinne der oben beschriebenen trivialen und der nicht-trivialen Maschinen verfügen. Es handelt sich bei ihnen um operativ geschlossene Systeme. Diese können auf der Ebene ihrer eigenen Operationen weder in ihre Umwelt durchgreifen, noch können die Systeme aus ihrer Umwelt an den Operationen des geschlossenen Systems mitwirken. Das Bewusstsein beispielsweise ist ein operativ geschlossenes System. Es gibt keinen unmittelbaren Kontakt zwischen den verschiedenen Bewusstseinssystemen. Für Person A bleibt die Gedankenwelt der Person B immer intransparent und umgekehrt kann Person B auf die Gedanken von Person A nicht unmittelbar einwirken. Geschlossene Systeme sind autopoietische Systeme (altgriech. αὐτός «selbst» und ποιεῖν «schaffen, bauen»). Das heisst, sie produzieren und reproduzieren die Elemente, aus denen sie bestehen, durch die Elemente, aus denen sie bestehen. Die Autopoiesis des Bewusstseins besteht demnach aus Operationen, die Gedanken in Gedanken transformiert. Ein Austausch zwischen Bewusstseinssystemen ist nur durch strukturelle Kopplung an die Kommunikation sozialer Systeme möglich.
Luhmann selbst ordnete in seinem 1987 erschienen Werk «Soziale Systeme» Maschinen den sogenannt allopoetischen, und nicht den autopoietischen Systemen zu (vgl. Luhmann 2018: 17f). Allopoetische Systeme verfügen eben nicht über die Fähigkeit, die eigenen Elemente zu produzieren und reproduzieren. Sie stellen gemäss einem von aussen festgelegtem Programm vielmehr etwas anderes her (altgriech. αλλ(ο) «anders, verschieden» und ποιεῖν «schaffen, bauen»). In jüngerer Vergangenheit wird allerdings unter Titeln wie «Autopoietic Computing», «Autopoietic Machines» oder «Artifical Autopoietic Systems» an autonomen Computern im Sinne der Autopoiesis geforscht. An dieser Stelle soll nur auf zwei Arbeiten verwiesen werden. Gerard Briscoe und Paolo Dini haben in ihrem 2010 erschienen Aufsatz «Towards Autopoietic Computing» die wichtigsten Konzepte der Autopoiesis zusammengefasst und mit Blick auf die Entwicklung einer Theorie autopoietischer Rechner diskutiert. Mark Burgin und Rao Mikkilineni haben in ihrem 2021 verfassten Aufsatz «From data processing to knowledge processing: Operation with schemas in Autopoietic Machines» eine Theorie und Praxis für den Entwurf und die Implementation autopoietischer Maschinen als informationsverarbeitende Strukturen vorgestellt, die symbolisches Kalkulieren und neurale Netzwerke verbinden.
Die Forschung an autonomen Computern im Sinne autopoietischer Systeme scheint im Kontext der aktuellen Entwicklungen rund um Computertechnologie und künstliche Intelligenz ein Nische zu sein. Stellt sie doch klassische Konzepte wie die Von-Neumann-Architektur von Computern (das Operieren nach von aussen festgelegten Hardware-Komponenten) und die Turingmaschine (das Rechnen nach von aussen festgelegten Programmen) in Frage. Mark Burgin und Rao Mikkilineni schhliessen ihren Aufsatz denn auch mit den Worten: «It is important to point out the difference between current state of the art based on the classical computer science (constrained by the Church Turing thesis boundaries), which process information in the form of symbol sequences, and the current advancement of the field based on structural machines, which process information in the form of dynamically evolving network of networks represented by various schemas. As a result, we obtain autopoietic machines which are capable of regenerating, reproducing and maintaining themselves» (2021: 13).
Spätestens mit der Realisierung solch autonomer Computer würde die oben von Luhmann aufgeworfene Frage, wie sich die Gesellschaft verändere, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubillige, an Brisanz gewinnen.

In der Diskussion um Computer als Medium und Maschine tauchen Spezialthemen auf, die hier gesondert diskutiert werden.

Der Begriff der Kontingenz beschreibt nach Luhmann die Ausschliessung von Notwendigkeit und Unmöglichkeit: «Kontingent ist etwas, was weder notwendig ist noch unmöglich ist; was also so, wie es ist (war, sein wird), sein kann, aber auch anders möglich ist» (2018: 152). Kontingenz setze zwar die gegebene Welt voraus, so Luhmann, bezeichne aber von da aus, was anders möglich wäre.
Ausgangspunkt des Problems der doppelten Kontingenz ist die Grundsituation, gemäss der kein Handeln zustande kommen kann, wenn ein Akteur sein Handeln davon abhängig macht, wie ein anderer Akteur handelt und letzterer sein Verhalten von ersterem abhängig macht. Solange also der eine Akteur nicht handeln kann, ohne zu wissen, wie der andere handeln wird – und umgekehrt – ist die Situation blockiert. Unter Akteuren subsummiert Luhmann psychische Systeme (z.B. Personen) und soziale Systeme (z.B. Organisationen), die typischerweise selbstreferentielle Systeme sind. Das heisst, jedes System bestimmt sein eigenes Verhalten durch komplexe selbstreferentielle Operationen innerhalb seiner Grenzen. Folglich bleiben die Systeme füreinander intransparent. Sie können einander nicht berechnen, sondern nur gegenseitig beobachten. Um das Problem der doppelten Kontingenz zu lösen, muss nach Luhmann die Zeitdimension mitberücksichtigt werden. Demnach bestimmt ein Akteur in einer unsicheren Situation sein Verhalten versuchsweise zuerst und beobachtet wie der andere Akteur darauf reagiert. «Jeder darauf folgende Schritt», so Luhmann, «ist dann im Lichte dieses Anfangs eine Handlung mit kontingenzreduzierendem, bestimmendem Effekt – sei es nun positiv oder negativ» (2018: 150). Diese Art der Absorption von Unsicherheit führt zur Stabilisierung von Erwartungen und zur Herausbildung von Strukturen für den Aufbau sozialer Systeme: «Soziale Systeme entstehen jedoch dadurch (und nur dadurch), dass beide Partner doppelte Kontingenz erfahren und dass die Unbestimmbarkeit eines solchen Situation für beide Partner jeder Aktivität, die dann stattfindet, strukturbildende Bedeutung gibt» (2018: 154). Ein zentraler Punkt beim Entstehen sozialer Systeme ist, dass der Zufall – im Sinne einer fehlenden Koordination von Ereignissen – gleichzeitig mitproduziert wird und so die Reproduktion des Systems aufrechterhält.
Bei der Absorption von Unsicherheit spielen ausserdem Medien im weiteren Sinne eine zentrale Rolle. Ihre Funktion besteht nach Luhmann darin, «Unwahrscheinliches in Wahrscheinliches zu transformieren» (2018: 220). Als Wahrnehmungs-, Kommunikations- und Verbreitungsmedien begrenzen sie einerseits den Selektionsspielraum psychischer und sozialer Systeme, ohne dass sie andererseits die Selektionsmöglichkeiten unterbinden. Sie ermöglichen vielmehr innerhalb ihrer Grenzen neue Zufälle und Überraschungen. In diesen Kontext gehören auch die Überlegungen von Esposito, die den Computer als Maschine und Medium versteht: «Man könnte sagen, dass man hier eine neue Qualität der Kontingenz hat: Sie ist nicht die für Kommunikation typische doppelte Kontingenz (die Manipulation kann keinem zugeschrieben werden), aber auch nicht genau die Verdoppelung der einfachen Kontingenz, die der individuelle Gebrauch der Schrift ermöglicht […] Eine Verarbeitung hat stattgefunden, die auf die Operationen des selbstbeobachtenden Systems [gemeint ist der Nutzer des Computers] nicht zurückgeführt werden kann. Es hat eine externe Manipulation gegeben. Mit einem im informatorischen Bereich ziemlich verbreiteten Adjektiv könnte diese Kontingenz virtuelle Kontingenz genannt werden» (1993: 350). So entsteht im individuellen Gebrauch des Computers der Eindruck, dass es ein anderes Bewusstsein gibt, das mitdenkt und sich am Kontext und Verhalten des Nutzers orientiert. Und im kommunikativen Gebrauch stellt der Computer eine virtuelle Kontingenz zur Verfügung, weil die doppelte Kontingenz nicht mehr dazu beitragen kann, den Überschuss an Möglichkeiten einzuschränken. «Die vom Computer verbreiteten Informationen», so Esposito, «sind dann strukturierte Informationen, auch wenn diese Struktur nicht vom Bezug auf die Selektion eines Alter Egos abhängt» (1993: 352).

Weiterführung

Hinterlassen Sie einen Kommentar