Fussnoten

Fussnote 2 – Computer

These

Das Leitmedium der nächsten Gesellschaft ist der Computer. In Fortführung der Reihe dominanter Kommunikationsmedien Sprache, Schrift, Buchdruck und elektronische Medien steht er als Metapher für ein Medium, das Internet und seine Dienste, sowie für an Kommunikation beteiligte Maschinen, sogenannte Künstliche Intelligenz.

Beobachtungen

1998 verstorben, hinterliess Niklas Luhmann in seinem Opus Magnum «Gesellschaft der Gesellschaft» erste Beobachtungsthesen zum neuen Leitmedium Computer. Sie sind in ihrer Präzision und Radikalität bis heute aktuell geblieben (2015: 303f):

  • Wie verändert sich Gesellschaft, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubilligt?
  • Wie weit können Computer die gesellschaftskonstituierende Leistung der Kommunikation ersetzen oder gar überbieten?
  • Wie wirkt es sich auf gesellschaftliche Kommunikation aus, wenn sie durch computervermitteltes Wissen beeinflusst wird?

Um die verschiedenen Bedeutungen der Metapher Computer auszuleuchten, müssen wir die Begriffe Medium und Computer näher bestimmt.

˅ Mediensorten

Mit Blick auf den Begriff Medium schlägt Mike Sandbothe in seinem Buch «Pragmatische Medienphilosophie» vor, auf ein gemeinsames Merkmal für die unterschiedliche Verwendung des Begriffs zu verzichten. Er plädiert im Anschluss an Wittgenstein viel mehr für eine Analyse der «Familienähnlichkeit», die zwischen den im alltäglichen und wissenschaftlichen Sprachgebrauch besteht. Dies führt ihn zu drei unterschiedlichen Mediensorten (2001: 104).

  • Medium als sinnliches Wahrnehmungsmedium (Raum, Zeit)
  • Medium als semiotisches Kommunikationsmedium (Bild, Sprache, Schrift, Musik)
  • Medium als technisches Verbreitungsmedium (Stimme, Buchdruck, Radio, Fernsehen, Internet)

Das Besondere am Computer ist, dass er als Medium in alle drei Mediensorten verwickelt ist. Erstens fungiert der Computer als zentrale Kommunikationstechnologie als «technisches Verbreitungsmedium». Zweitens ermöglicht er als «semiotisches Kommunikationsmedium» die Konvergenz von Bild, Sprache, Schrift und Musik. Und drittens verändert er im weltweiten Verbund mit anderen Computern als «sinnliches Wahrnehmungsmedium» unser Verständnis von Raum und Zeit.

Dies im Sinne einer pragmatischen Medienphilosophie, wie sie von Sandbothe in «Perspektiven pragmatischer Medienphilosophie» vorgeschlagen wird: «In ihrem Zentrum [gemeint ist die pragmatische Medienphilosophie] steht die intermedialitätstheoretische Frage, wie Veränderungen im Bereich der Verbreitungs-, Verarbeitungs- und/oder Speichermedien zu Transformationen von Nutzungsgewohnheiten im Bereich der Kommunikationsmedien führen und wie diese wiederum zu einer Reorganisation unserer Wahrnehmungsmedien und damit verbunden der aisthetischen und epistemologischen Grundlagen unseres kulturellen Selbst- und Weltverständnisses beitragen können» (2020: 82).

^ ^ ^

˅ Leitmedien

Jochen Hörisch arbeitet in seinem Buch «Bedeutsamkeit» u.a. die Unterscheidung zwischen Leitmedien und ontosemiologischen Leitmedien heraus (2009: 267). Ontosemiologische Leitmedien sind nicht nur teilnahmepflichtig, sondern koppeln wie ein Möbiusband «Sein mit Sinn und Sinn mit Sein» eng aneinander. Sie formieren damit Bedeutsamkeit in intersubjektiv verbindlicher Art und Weise.

Hörisch gesteht einzig dem Abendmahl und dem Geld den Status eines rein ontosemiologischen Leitmediums zu. Elektronische Medien zeichnen sich ihm gemäss durch einen zwitterhaften Status aus. Mit dem Geld teilen sie die Eigenschaft, nicht oder fast nicht ignoriert werden zu können. Und mit dem Abendmahl teilen sie die Eigenschaft einer semantischen Aufladung. Im Unterschied zu Geld und zum Abendmahl sind die elektronischen Medien jedoch nicht zustimmungspflichtig. Mediennutzer, so Hörisch, stritten sich systematisch über das, was gesendet wird. Deshalb entlasteten sie – positiv formuliert – von einer Konsenszumutung.

Dies führt ihn zum Schluss: «Massenmedien produzieren heute nicht etwa weltweit homogene Massen, sondern Massen von Differenzen. Als ontosemiologische Leitmedien können sie (alle mitsamt) dennoch gelten. Denn sie etablieren den paradoxen Konsenszwang, dem die Formel ‹we agree to disagree› neoklassischen Ausdruck verleiht» (2009: 343).

^ ^ ^

˅ Erfolgsmedien

Wie Luhmann in «Gesellschaft der Gesellschaft» erklärt, stellen symbolisch generalisierte Kommunikationsmedien «die Kommunikation in jeweils ihrem Medienbereich, zum Beispiel in der Geldwirtschaft oder dem Machtgebrauch in politischen Ämtern, auf bestimmte Bedingungen ein, die die Chancen der Annahme auch im Falle von ‹unbequemen› Kommunikationen erhöhen» (2015: 203f).

Symbolisch generalisierte Kommunikationsmedien werden deshalb auch Erfolgsmedien genannt. Die Evolution von Erfolgsmedien geht nach Luhmann Hand in Hand mit der Evolution gesellschaftlicher Strukturformen. In der modernen Gesellschaft sind das Funktionssysteme wie Politik, Wirtschaft oder Wissenschaft.

^ ^ ^

˅ Medium und Form

Der Begriff des Mediums nimmt in der Systemtheorie eine zentrale Stellung ein. Von Luhmann im Anschluss an Fritz Heiders Untersuchungen über Wahrnehmungsmedien und an George Spencer-Browns Zwei-Seiten-Form entwickelt, unterscheidet er sich klar vom Medienbegriff der klassischen Medienwissenschaften.

Luhmann beschreibt mit seinem Medienbegriff weder das Wesen und die Eigenschaften spezifischer Medien noch schlüsselt er deren Bedeutung anhand des Sprachgebrauchs auf. Luhmann konzipiert seinen Medienbegriff vielmehr anhand der Unterscheidung zwischen Medium und Form. Die Unterscheidung bildet eine zentrale Binnendifferenzierung bei der Begriffsbestimmung von Sinn und wird an entsprechender Stelle ausführlicher diskutiert.

Ein Medium kann nach Luhmann grundsätzlich als eine lose gekoppelte Menge von Elementen aufgefasst werden, dich sich nach bestimmten Selektionskriterien zu strikt gekoppelten Elementen verknüpfen lassen und damit eine Form bilden.

^ ^ ^

Für die nähere Bestimmung des Computers als Leitmedium wollen wir ihn einerseits als technische Maschine und andererseits als triviale, nicht-triviale und autonome Maschine beschreiben. Wobei sich zeigen wird, dass wir es beim Computer erstmals mit einer Kommunikationstechnologie und einem Kommunikationsmedium zu tun haben.

˅ Computer als technische Maschine

In seinem Buch «Organisation und Entscheidung» definiert Luhmann Technik als «feste Kopplung von kausalen Elementen» (2011: 370ff). Dabei trifft er keine Unterscheidung zwischen Mensch und Maschine. Beispielsweise korreliert die Einführung der Druckpresse als neue Technik mit der Entwicklung des Lesevermögens als neue Kulturtechnik beim Menschen. Entscheidend ist bloss die strikte Kopplung verschiedenere Elemente zu einem funktionierenden Netzwerk.

Dies bringt mehrere Vorteile mit sich. Der Logik von Ursache und Wirkung folgend, ermöglicht Technik erhebliche Vereinfachungen: Entweder sie funktioniert oder sie funktioniert nicht. Treten technische Störungen auf, können sie behoben werden. Die für den Betrieb von Technik notwendigen Ressourcen lassen sich zudem relativ genau berechnen.

Diese Vorteile der Technik bilden nach Luhmann die Bedingung der Möglichkeit, Hierarchien zu bilden bzw. Kontrolle auszuüben. Im Gegenzug führt Technik aber auch zu grossen Abhängigkeiten und Risiken. Deshalb weisst Luhmann darauf hin, dass sich jede Gesellschaft mit der Frage befassen müsse, wie viel strikte Kopplungen sie sich leisten könne. Denn strikte Kopplungen kommen an ihre Grenzen, wenn es bei nicht-technischen Störungen darum geht, «ad hoc, schnell, kompetent, professionell zu reagieren» (ebd. 374). Letzteres vermögen nach Luhmann nur lose Kopplungen zu leisten.

Mit Blick auf die Entwicklungen im Bereich der Computertechnologie und künstlichen Intelligenz können wir aktuell eine Tendenz hin zu solch losen Kopplungen beobachten.

Am einen Ende dieser Entwicklung haben wir Computer als triviale Maschinen, die nach strikt gekoppelten Algorithmen funktionieren. Ein Reisender beispielsweise wählt an einem Fahrkartenautomaten seine Destination aus, bezahlt und erhält dafür ein gültiges Ticket. Beim nächsten Reisenden funktioniert die Maschine genau gleich.

Am anderen Ende dieser Entwicklung werden wir Computer als autonome Maschinen mit lose gekoppelten Algorithmen haben, die sich adaptiv an ihre Umwelt anpassen. So wird zurzeit vom Personenwagen über Kleinbusse bis hin zu Gütertransport viel im Bereich des autonomen Fahrens geforscht und entwickelt. Die Vorteile dieser Entwicklung liegen in diesem Beispiel in der Optimierung der Verkehrsströme und Ressourcen sowie in der Entlastung von Bewusstseinssystemen.

Gesamtgesellschaftlich steigert diese Entwicklung jedoch nochmals die Technikabhängigkeit und erhöht damit auch den Kontrollverlust. Die Vertrauensfrage in Formen der lose gekoppelten Technik – sofern man noch von «Technik» sprechen kann – wird deshalb eine zentrale Frage der nächsten Gesellschaft sein.

Doch zurück zu Computer als technische Maschine. In «Gesellschaft der Gesellschaft» hat Luhmann auf die Faszination hingewiesen, die vom Computer als technische Maschine ausgeht bzw. die von der mit ihm aktualisierten Unterscheidung von Oberfläche und Tiefe einhergeht. Hatten früher Ornamente und Lineaturen auf der Oberfläche von Bauten, Stoffen und Tapeten auf eine tiefere Welt der Religiosität und Kultur verwiesen, so stehen heute die Zeichen und Symbole auf den Bildschirmen für die Tiefe einer virtuellen Realität.

«Die Oberfläche», so Luhmann, «ist jetzt der Bildschirm mit extrem beschränkter Inanspruchnahme menschlicher Sinne, die Tiefe dagegen die unsichtbare Maschine, die heute in der Lage ist, sich selbst von Moment zu Moment umzukonstruieren […]» (2015: 304). Baecker schliesst in «4.0 oder Die Lücke die der Rechner lässt» in diesem Punkt an Luhmann mit den Worten an: «Unser Verhältnis zu den Displays der Rechner ist eines der religiösen Inbrunst und des ästhetischen Genusses, auch wenn wir die Götter nicht benennen können, an die wir glauben, und das Design nicht durchschauen, das uns so erfolgreich in seinem Bann hält» (2018: 21).

Die von Luhmann und Baecker beschriebene Faszination, die von Computer ausgeht, hat mit einer grundlegenden Veränderung unseres Konzepts von Maschine zu tun.

Das Maschinenkonzept des 19. Jahrhunderts, so Luhmann, sei mit Blick auf den menschlichen Körper an Energieeinsparung und Zeitgewinn orientiert gewesen. Erst die Einführung des Computers im 20. Jahrhundert hat bezüglich Maschine unseren Fokus vom Körperlichen auf Zeichen und damit auf Kommunikationstechnologien verlagert. Der Sinn dieser neuen Technik, erklärt Luhmann, bestehe darin, mittels Zeichen andere Zeichen zugänglich zu machen (vgl. 2015: 530).

Mit anderen Worten: Stand zu Beginn der Industrialisierung die mechanische Leistung von Maschinen im Vordergrund, rücken in modernen Dienstleistungsgesellschaften immer mehr deren Fähigkeiten bezüglich Verarbeitung von Zeichen und Daten ins Blickfeld.

Ein Gegenstand der Spekulation könnte sein, wie weit im Zuge der Miniaturisierung in der (Computer-)Technologie und mit dem Einsatz von künstlicher Intelligenz im 21. Jahrhundert das Körperliche wieder ins Zentrum rückt oder gar eine Konvergenz von Körper und Maschine stattfinden wird.

Die Verlagerung vom Körperlichen aufs Zeichen jedenfalls führt einen zweiten Grund für die hohe Faszination an Computer mit sich, nämlich Sprache. Zusammen mit Information und Mitteilung bildet sie die Einheit von Kommunikation und damit die Grundlage sozialer Systeme. Allein deshalb schon muss Sprache als grundlegendes Kommunikationsmedium faszinieren.

«Im evolutionären Kontext gesehen», so Luhmann, «ist Sprache eine extrem unwahrscheinliche Art von Geräusch, das eben wegen dieser Unwahrscheinlichkeit hohen Aufmerksamkeitswert und hochkomplexe Möglichkeiten der Spezifikation besitzt. Wenn gesprochen wird, kann ein Bewusstsein dieses Geräusch leicht von anderen Geräuschen unterscheiden und kann sich der Faszination durch die laufende Kommunikation kaum entziehen» (2015: 110). Dasselbe, so Luhmann weiter, gelte auch für ins optische Medium übertragene Sprache, also für Schrift. Und wir möchten anfügen: für die Zeichen und Symbole auf den Bildschirmen und Screens.

Nun ist es aber eine Eigenheit des Computers als digitales Medium, dass er nicht mit analogen Formen (Zeichen und Symbole), sondern mit digitalen Formen (0 und 1) operiert. Deshalb müssen im Verkehr mit Computern zuerst alle analogen Formate (Text, Bild, Bewegbild, Ton) über eine Schnittstelle in digitale Formate (Datensätze) übersetzt werden. Erst diese Übersetzungsleistung (technische Digitalisierung) ermöglicht dann das Speichern, Verarbeiten und – ohne Qualitätsverlaust – Verbreiten von Daten.

Damit diese Daten die Aufmerksamkeit von Bewusstseinssystemen wieder erregen und von ihnen verstanden werden können, müssen sie aus digitalen wieder in analoge Formate rückübersetzt werden. Diese Prozesse der Digitalisierung und Analogisierung verlaufen typischerweise nach strikt gekoppelten Algorithmen.

^ ^ ^

˅ Miniaturisierung und Mobilität

Der durchschlagende Erfolg des Computers in den letzten Dekaden hat nicht zuletzt mit der rasanten Entwicklung in der Halbleitertechnologie zu tun. Gordon Moore, Mitgründer des Chipherstellers Intel, hat schon in den 1960er-Jahren prognostiziert, dass sich die Komplexität integrierter Schaltkreise alle 18 Monate verdoppeln würde (Moores Gesetz). Das heisst, dass Computer bei gleichbleibenden Kosten ein exponentielles Wachstum ihrer Leistung verzeichnen. Dies ist freilich nicht ohne stetige Verkleinerung der technischen Bauteile erreichbar.

Aus gesellschaftlicher Sicht ist vor allem die mit der Miniaturisieurng einhergehende Steigerung der Mobilität relavant, insebsondere durch die Einführung des Smartphones. War der Zugang zur computervermittelten Kommunikation bei stationären Geräten noch orts- und kontextgebunden, erlauben es mobile Geräte jederzeit und von überall her spontan an Kommunikation teilzuhaben. Durch diese enge Kopplung an Computer entwickeln Nutzerinnen und Nutzer ein intimes Verhältnis zu ihrem Smartphone, was mit Blick auf Erreichbarkeit und Emotionalisierung der Kommunikation weitereichende Konsequenzen hat. 

^ ^ ^

˅ Computer als triviale Maschine

Die Unterscheidung zwischen trivialen und nicht-trivialen Maschinen wurde von Heinz von Foerster prominent gemacht. Eine triviale Maschine ist ihm gemässe eine Maschine, die bei demselben Input immer denselben Output liefert. Weil die inneren Zustände der Maschine immer gleichbleiben, besteht eine unveränderliche Relation zwischen Input und Output. Triviale Maschinen sind also voraussagbare Maschinen, die vom aktuellen Kontext und von ihrem eigenen vergangenen Verhalten unabhängig sind.

Wie Elena Esposito in ihrem 1993 erschienen Aufsatz «Der Computer als Medium und Maschine» ausgearbeitet hat, können wir den Computer eben als beides, als Maschine und als Medium, verstehen. Demnach haben wir es beim Computer als Verbreitungsmedium mit einer trivialen Maschine zu tun. Denn: «Es [das Medium] muss das, worauf es angewendet wird, so wenig wie möglich verändern, sonst ist es ein schlechtes Medium, ein ‹geräuschvolles› Medium. Der input muss also dem output so gleich wie möglich sein, sonst dient das Medium zu nichts» (1993: 339).

Ein typischer Anwendungsfall des Computers als triviale Maschine ist sein Einsatz für die Übermittlung von Daten in Netzwerken nach klar definierten Protokollen.

^ ^ ^

˅ Computer als nicht-triviale Maschine

Im Unterschied zur trivialen Maschine ist bei der nicht-trivialen Maschine der Output anders als der Input. Nach von Foerster handelt es sich bei nicht-trivialen Maschinen um komplexe Maschinen, weil sie über eine Art «inneren Zustand» verfügen. «[Sie] ändern ihre innere Struktur und die Transformationsregel immer wieder» (vgl. von Foerster 1999: 56). Deshalb ist es unmöglich vorherzusagen, was für einen Output ein bestimmter Input generiert. Die Nutzer von nicht-trivialen Maschinen erwartet also geradezu, dass ein Input zu einem überraschenden, informativen Output führt. Sonst würden die Maschinen zu nichts nützen.

Esposito unterscheidet zwischen individuellem und kommunikativem Gebrauch des Computers als nicht-triviale Maschine.

Mit Blick auf den individuellen Gebrauch stellt sie die Hypothese auf, dass der Computer der Erweiterung der Selbstbeobachtung des Nutzers dient. «Durch Computer kann man ohne Kommunikation aus seinen Daten Informationen gewinnen, die über die Fähigkeiten des sie gewinnenden Systems [gemeint sind die Nutzer] hinausgehen» (1993: 348). Der Computer transformiert also die eingegebenen Daten in neue Informationen, die neue Zusammenhänge, neue Verbindungen und neue Implikationen aufzeigen.

Ein typischer Anwendungsfall für die individuelle Nutzung von Computern sind sogenannte Expertensysteme. Sie unterstützen die Nutzer bei der Lösung komplexer Probleme wie ein Experte, indem sie aus einem grossen Datenbestand Handlungsempfehlungen ableiten. Solche Systeme erwecken bei ihren Nutzern gerne den Eindruck, dass der Computer «mitdenkt».

Esposito weist allerdings darauf hin: «In Wirklichkeit aber gibt es – was die Fähigkeit zu denken angeht – keinen Unterschied zwischen einem Computer und einem Rechenstab: In beiden Fällen wird ein Instrument benutzt, das jemand nach einem bestimmen ‹Programm› gebaut hat, um sich von den verfügbaren Daten überraschen zu lassen» (1993: 349). Der Unterschied zwischen Rechenstab und Computer, so Esposito, liege vielmehr darin, dass im Fall des Computers die Programmierung so komplex sei, dass sie für die Nutzer undurchschaubar sei und bleibe.

Mit Blick auf den kommunikativen Gebrauch des Computers streicht Esposito seine Funktion als Kommunikationsmedium heraus. Sie sieht die Einführung des Computers als Verbreitungsmedium (triviale Maschine) in die Gesellschaft als Problem und die Einführung des Computers als Kommunikationsmedium (nicht-triviale Maschine) als dessen Lösung an.

Als Verbreitungsmedium hat der Computer dazu geführt, dass es die Gesellschaft mit einem Überschuss an Informationen zu tun bekommen hat. Gleichzeitig werden Informationen von Mitteilungen so entkoppelt, dass die Nutzer von Informationen keinen Bezug mehr zu den Motiven der Mitteilenden herstellen können. Dieser fehlende Bezug führt zu einer explodierenden Vielfalt von Interpretationsmöglichkeiten auf Seiten der Nutzer.

Wir haben es also nicht nur mit einem Überschuss an Informationen, sondern auch mit einem Überschuss an Interpretationen zu tun. «Die Eigenschaft des Computers», so Espositos Hypothese, «Maschine und Medium zugleich zu sein, ermöglicht den von ihm verfügbar gemachten Überschuss an Informationen zu bewältigen, und ihnen eine Struktur zu geben» (1993: 351). Dies allein löst aber noch nicht das Problem der korrekten Interpretation einer Mitteilung. Auch in diesem Fall, so behauptet Esposito, erlaube es der Computer als nicht-triviale Maschine durch die Strukturierung von Informationen den Raum möglicher Interpretationen einzuschränken (Virtuelle Kontingenz).

Als typisches Beispiel fügt Esposito den Hypertext an. Im Unterschied zum klassischen Text des Buchdrucks verfügt der Hypertext über keine lineare Ordnungsstruktur. Via Hypertext können vielmehr Daten aus unterschiedlichen Perspektiven aufgerufen, nach verschiedenen Kriterien sortiert und zu Informationen verarbeitet werden. Dies erhöht einerseits die Verarbeitungsfreiheit von Informationen, andererseits bleiben die Möglichkeiten durch die Ordnungsstruktur des Computers eingeschränkt. Aus heutiger Sicht spielen neben den in Datenbanken strukturierte Daten bei der Selektion von Informationen bzw. Mitteilungen auch Algorithmen eine zentrale Rolle. Man denke dabei nur an die von Algorithmen selegierten Mitteilungen auf Social-Media-Plattformen.

^ ^ ^

˅ Künstliche Neuronale Netze

Architekturen

Künstliche Neuronale Netze werden in verschiedenen Architekturen aufgebaut. Die Wahl einer Architektur hängt von der Aufgabe ab, die das KNN lösen soll.

Netzwerkarchitekturen verfügen über mehrere sogenannten Schichten («layers»). Eine Schicht besteht aus einer Gruppe künstlicher Neuronen, die das gleiche Eingangssignal empfangen, es nach einer bestimmten Funktion verarbeiten und das Ergebnis an die nächste Schicht weitergeben. Eine Netzwerkarchitektur besteht in der Regel aus einer Eingabeschicht («input layer»), verborgenen Schichten («hidden layers») und einer Ausgabeschicht («output layer»).

Das Lernen und Erkennen von Mustern findet in den sogenannten verborgenen Schichten statt. Die unteren Schichten lernen in der Regel einfache Muster und Merkmale, während die oberen Schichten in der Lage sind, komplexere Muster zu lernen, indem sie auf den Ausgaben der unteren Schichten aufbauen.

Die wichtigsten KNN-Architekturen für die Verarbeitung natürlicher Sprache sind:

  • Feedforward Neural Networks (FFNN): Diese Struktur prozessiert Eingabedaten nur in einer Richtung, von der Eingabeschicht zur Ausgabeschicht, ohne Rückkopplungsschleife. FFNNs werden häufig für Aufgaben verwendet, bei denen die Reihenfolge der Eingabedaten keine Rolle spielt (z.B. einfache Sequenzaufgaben, Klassifizierungen).
  • Recurrent Neural Networks (RNN): Diese Struktur prozessiert Daten sequenziell und kann die Reihenfolge der Eingabedaten speichern. Das ermöglicht es ihnen beispielsweise, die Reihenfolge von Wörtern und Sätzen zu merken. RNNs werden häufig für Aufgaben verwendet, bei denen die sequenzielle Verarbeitung wichtig ist (z.B. Spracherkennung, Übersetzungen).
  • Long Short-Term Memory Networks (LSTM): Bei dieser Struktur handelt es sich um eine spezielle Art von RNNs. Sie können sich die Abhängigkeiten von Wörtern und Sätzen in längeren Eingabesequenzen merken. LSTMs werden häufig für Aufgaben verwendet, bei denen es wichtig ist, Kontextinformationen über längere Sequenzen hinweg zu speichern und verarbeiten (z.B. Übersetzungen, Chatbots).
  • Transformer Networks: Diese Struktur unterscheidet sich von RNNs und LSTMs dadurch, dass sie Eingabedaten nicht sequenziell, sondern parallel prozessiert. Mit dem sogenannten Selbstaufmerksamkeits-Mechanismus werden in einer Eingabesequenz die Beziehungen zwischen den Wörtern gleichzeitig betrachtet. Transformer werden häufig für die Verarbeitung natürlicher Sprache eingesetzt (z.B. Übersetzungen, Chatbots, Textgenerierung).

^ ^ ^

˅ Computer als autonome Maschine

Als autonome Maschinen wollen wir im Anschluss an die Luhmannsche Systemtheorie Computer bezeichnen, die über keine direkten Inputs und Outputs im Sinne der oben beschriebenen trivialen und der nicht-trivialen Maschinen verfügen.

Es handelt sich bei ihnen um operativ geschlossene Systeme. Diese können auf der Ebene ihrer eigenen Operationen weder in ihre Umwelt durchgreifen, noch können die Systeme aus ihrer Umwelt an den Operationen des geschlossenen Systems mitwirken. Das Bewusstsein beispielsweise ist ein operativ geschlossenes System. Es gibt keinen unmittelbaren Kontakt zwischen den verschiedenen Bewusstseinssystemen. Für Person A bleibt die Gedankenwelt der Person B immer intransparent und umgekehrt kann Person B auf die Gedanken von Person A nicht unmittelbar einwirken.

Geschlossene Systeme sind autopoietische Systeme (altgriech. αὐτός «selbst» und ποιεῖν «schaffen, bauen»). Das heisst, sie produzieren und reproduzieren die Elemente, aus denen sie bestehen, durch die Elemente, aus denen sie bestehen. Die Autopoiesis des Bewusstseins besteht demnach aus Operationen, die Gedanken in Gedanken transformiert. Ein Austausch zwischen Bewusstseinssystemen ist nur durch strukturelle Kopplung an die Kommunikation sozialer Systeme möglich.

Luhmann selbst ordnete in seinem 1987 erschienen Werk «Soziale Systeme» Maschinen den sogenannt allopoetischen, und nicht den autopoietischen Systemen zu (vgl. Luhmann 2018: 17f).

Allopoetische Systeme verfügen eben nicht über die Fähigkeit, die eigenen Elemente zu produzieren und reproduzieren. Sie stellen gemäss einem von aussen festgelegtem Programm vielmehr etwas anderes her (altgriech. αλλ(ο) «anders, verschieden» und ποιεῖν «schaffen, bauen»).

In jüngerer Vergangenheit wird allerdings unter Titeln wie «Autopoietic Computing», «Autopoietic Machines» oder «Artifical Autopoietic Systems» an autonomen Computern im Sinne der Autopoiesis geforscht.

An dieser Stelle soll nur auf zwei Arbeiten verwiesen werden. Gerard Briscoe und Paolo Dini haben in ihrem 2010 erschienen Aufsatz «Towards Autopoietic Computing» die wichtigsten Konzepte der Autopoiesis zusammengefasst und mit Blick auf die Entwicklung einer Theorie autopoietischer Rechner diskutiert. Mark Burgin und Rao Mikkilineni haben in ihrem 2021 verfassten Aufsatz «From data processing to knowledge processing: Operation with schemas in Autopoietic Machines» eine Theorie und Praxis für den Entwurf und die Implementation autopoietischer Maschinen als informationsverarbeitende Strukturen vorgestellt, die symbolisches Kalkulieren und neurale Netzwerke verbinden.

Die Forschung an autonomen Computern im Sinne autopoietischer Systeme scheint im Kontext der aktuellen Entwicklungen rund um Computertechnologie und künstliche Intelligenz ein Nische zu sein. Stellt sie doch klassische Konzepte wie die Von-Neumann-Architektur von Computern (das Operieren nach von aussen festgelegten Hardware-Komponenten) und die Turingmaschine (das Rechnen nach von aussen festgelegten Programmen) in Frage.

Mark Burgin und Rao Mikkilineni schhliessen ihren Aufsatz denn auch mit den Worten: «It is important to point out the difference between current state of the art based on the classical computer science (constrained by the Church Turing thesis boundaries), which process information in the form of symbol sequences, and the current advancement of the field based on structural machines, which process information in the form of dynamically evolving network of networks represented by various schemas. As a result, we obtain autopoietic machines which are capable of regenerating, reproducing and maintaining themselves» (2021: 13).

Spätestens mit der Realisierung solch autonomer Computer würde die oben von Luhmann aufgeworfene Frage, wie sich die Gesellschaft verändere, wenn sie dem Computer bzw. künstlicher Intelligenz relativ zum Bewusstsein des Subjekts Chancengleichheit zubillige, an Brisanz gewinnen.

^ ^ ^

Hinterlassen Sie einen Kommentar