Letzte Aktualisierung am 25. Mai 2023
˅ Inhaltsverzeichnis
These
Wenn natürliche Sprache Autopoiesis der Kommunikation strukturiert, dann können Betriebssysteme die Strukturen der natürlichen Sprache lernen und in eine artifizielle Sprache transformieren, mit der sie sich wie Bewusstseinssysteme an Kommunikation beteiligen können.
Erklärung
Sprache, so Luhmann, ist das grundlegende Kommunikationsmedium, das die Autopoiesis der Gesellschaft garantiert (vgl. 2015: 205).

Luhmann definiert Sprache in «Soziale Systeme» Sprache als «ein Medium, das sich durch den Zeichengebrauch auszeichnet. Sie benutzt akustische bzw. optische Zeichen.» (2018a: 220). Diese Definition impliziert, dass das Medium Sprache über eigene Operationen verfügt. Dies passt weder zu Luhmanns Konzept von Medium und Form noch zu seiner Behauptung, dass Sprache kein System sei. «Sprache», so Luhmann, «hat keine eigene Operationsweise, sie muss entweder als Denken oder als Kommunizieren vollzogen werden; und folglich bildet Sprache auch kein eigenes System» (2015: 112).
˅ Natural Language Processing
Bei der Verarbeitung natürlicher Sprache durch Algorithmen wird zwischen dem Paradigma der symbolischen Repräsentation und dem der nicht-symbolischen Ansätze unterschieden.
Das erste Paradigma fokussiert beim Prozessieren natürlicher Sprache auf die Repräsentation und Verarbeitung von Symbolen. Das Paradigma beruht auf der These, dass Symbolverarbeitung – unabhängig von biologischen Systemen (z.B. neuronalen Netzen) – allein als Phänomen psychischer Systeme beobachtet werden kann. Gegenstand dieses Paradigmas ist also nicht das Gehirn und seine Prozesse, sondern die Verarbeitung von Bedeutung durch Zuordnung symbolischer Beschreibungen.
˅ Interfaces
Interfaces gestalten Interaktionen zwischen Bewusstseins- und Betriebssystemen. Wie Athanasios Karafillidis in seinem Aufsatz «Die Komplexität von Interfaces» betont, bezeichnen Interfaces das, was man in der Systemtheorie als Grenze bezeichnen würde. Er stellt die These auf, dass sich Grenzen und Interfaces wie Operation und Beobachtung zueinander verhalten (vgl. 2018: 131ff).
Wie wir aus der Diskussion der Unterscheidung von Operation und Beobachtung wissen, konstituiert die Beobachtung einer Operation als Vollzug des Beobachtens die Realität eines psychischen bzw. sozialen Systems und markiert dadurch eine Grenze zwischen System und Umwelt. Wobei sich Realität im systemtheoretischen Sinne immer auf das Operieren autopoietischer Systeme, und nicht auf eine unabhängig von Beobachtern existierende Welt bezieht.
Wird indes eine Operation als Beobachtung beobachtet, indem die verwendete Unterscheidung einer Beobachtung beobachtet und ihre Differenz thematisiert wird, dann bekommt es der Beobachter mit der konstruierten Wirklichkeit eines psychischen bzw. sozialen Systems zu tun.
Die operativ markierte Realität der Grenze, so Karafillidis Argument, transformiert sich durch die thematisierbare Wirklichkeit zu einem gestaltbaren Interface. Erst die Konzeption von Interfaces als beobachtbare Grenzen legt ihre Komplexität frei.
Wenn wir uns also darauf einlassen, die Grenze zwischen Bewusstseins- und Betriebssystemen als Interface zu betrachten, dann eröffnen sich komplexere Perspektiven auf Interaktionssysteme. Luhmann hat bereits in «Gesellschaft der Gesellschaft» mit der Unterscheidung von Oberfläche und Tiefe auf eine solche Sichtweise hingewiesen. «Die Oberfläche ist jetzt der Bildschirm mit extrem beschränkter Inanspruchnahme menschlicher Sinne, die Tiefe dagegen die unsichtbare Maschine, die heute in der Lage ist, sich selbst von Moment zu Moment umzukonstruieren, zum Beispiel in Reaktion auf Benutzung. Die Verbindung von Oberfläche und Tiefe kann über Befehle hergestellt werden, die die Maschine anweisen, etwas auf dem Bildschirm oder durch Ausdruck sichtbar zu machen. Sie selbst bleibt unsichtbar» (2015: 304).
Die Interaktion zwischen Bewusstsein- und Betriebssystemen als ein rein oberflächliches Phänomen zu beobachten und zu beschreiben, wäre zu einfach. Deshalb will Karafillidis in die Tiefe gehen, indem er das Interface als eine Form der Vernetzung von Bewusstseins- und Betriebssystemen auffasst, die durch ihre Strukturen gleichermassen kommunikative Freiheitsgrade eröffnet und einschränkt (vgl. 2018: 134).
Einen ähnlichen Gedanken verfolgt der Literaturwissenschaftler Hannes Bajohr, der in seinem Aufsatz «Dumme Bedeutung. Künstliche Intelligenz und artifizielle Semantik» eine sogenannte Promptologie vorschlägt. Er versteht den Prompt als Schnittstelle zwischen natürlicher und künstlicher Semantik. Nach Bajohr sollten sich die Kultur- und Geisteswissenschaft der Promptologie annehmen und die natürlich-künstliche Vernetzung («Korrelation von datafizierter Sprache und der kulturellen Bedeutung, die dieser Sprache auf Rezipientenseite zugesprochen wird») untersuchen. «Sie könnten», so Bajohr, «phänomenorientiert arbeiten und sich den Artefakten, die die Modelle ausspucken, als Grenzobjekten zwischen menschlicher und maschineller, zwischen breiter und dummer Bedeutung widmen» (2022: 78).
Damit sich Strukturen zwischen Bewusstseins- und Betriebssystemen entwickeln können, bedarf es einer bestimmten Form der Selektivität, die die Komplexität eines Netzwerks reduziert bzw. die spezifische Komplexität des Interfaces aufbaut. Im Anschluss an die Phänomenologische Netzwerktheorie von Harrison C. White arbeitet Karafillidis die typische Selektivität von Interfaces (White nennt sie seinen späteren Arbeiten «Disziplinen») heraus. Gemäss seiner Theorie prozessieren Interfaces in den drei Dimensionen der Festlegung, Selektion und Vermittlung.
Bei der Entwicklung technischer Interfaces, also auch des Prompts bei Künstlicher Intelligenz, wird nach Karafillidis immer mit der Komplexität von Netzwerkstrukturen gerechnet, um die Grenzen bearbeitbar zu machen: «Es werden also immerzu Selektionen, Festlegungen und ihre Vermittlung erprobt, um bestimmte Effekte zu erzielen, ohne die jeweilige Grenze jemals endgültig machen zu können» (2018: 141).
Kombiniert man die von Karafillidis im Anschluss an White herausgearbeiteten drei Prorzessdimensionen der Selektivität mit den Sinndimensionen von Luhmanns, so entsteht eine Art von Beobachtungsmatrix, die unter der Oberfläche der technischen Grenzen die Tiefe der sozialen Wirklichkeit eines Interfaces für die Gestaltung von Interaktionen zwischen Bewusstseins- und Betriebssystemen aufzeigt.
Beobachtungsmatrix | Festlegung | Selektion | Vermittlung |
Sachdimension | Künstliche Intelligenz | Sprachmodelle, Trainingsdaten | Rechtliche Grundlagen, Nutzung, Akzeptanz |
Zeitdimension | |||
Sozialdimension | Interaktion zw. Bewusstseins- und Betriebssystemen | Private Forschung und Entwicklung sowie öffentliche Grundlagenforschung | Öffentlichkeit, Märkte |
^ ^ ^