Mitte der 1950er Jahre stellte der französische Theoretiker Jacques Lacan die erstaunlich weitsichtige These auf, die Rechenmaschine sei „weit gefährlicher für den Menschen als die Atombombe“ (Das Seminar, Buch II, Turia & Kant: Wien 2015). Diese enigmatische Bemerkung über den Computer verrät mehr über die Zustände der technokratischen Weltherrschaft Amerikas in der Nachkriegszeit, als die Worte selbst es vermitteln – zu einer Zeit, da die algorithmische Maschine, die Atom- und die Wasserstoffbombe und andere Technologien von ein und demselben akademisch-industriell-militärischen Komplex gebaut und oft auch von denselben Wissenschaftlern entworfen wurden. Wo die Gefahren der algorithmischen Maschine in ihren frühen Jahren lagen, bleibt jedoch unklar, solange wir nicht die Grundlagen digitaler Technologie genauer in den Blick nehmen. In den vergangenen Jahrzehnten haben wir eine massive Ausbreitung digitaler Medien und die Formierung eines planetaren Systems der Technosphäre erlebt, die untrennbar verwoben mit der Biosphäre und anderen Netzwerkstrukturen wächst.
Wenn meine Hypothese korrekt ist, dass Menschen mehr und mehr den intelligenten Maschinen ähneln, die sie erfinden – auch wenn Ingenieure wiederum Roboter bauen, die mehr und mehr wie Menschen handeln –, ist eines der Ergebnisse dieser endlosen Rückkopplungsschleifen das Auftauchen nicht nur von Cyborgs: Aus dem homo sapiens entsteht eine neue Spezies, die ich den „Freudianischen Roboter“ nennen möchte. Ich gehe davon aus, dass der Schlüssel zu unserem Verständnis von Mensch-Maschine-Simulacra – nicht bloß verstanden als Mensch-Maschine-Rivalität, die einzig dem menschlichen Willen zur Macht neue Geltung verschafft und kaum etwas erklärt – in dem spezifischen, gemeinsamen Geschick liegt, klar abgrenzbare, das heißt diskrete Zeichen in endlichen Schriftsystemen zu verarbeiten. Dieses Schriftsystem strukturiert mittlerweile die algorithmische Maschine wie auch das menschliche Unbewusste als vernetzte Systeme. Um zu verstehen, wie dies passieren konnte, müssen wir eine politische Geschichte der Informationstheorie entwerfen, die über die Disziplin der Kommunikationswissenschaft hinausreicht und gleichzeitig von den Einsichten der Lebenswissenschaften profitiert.
Der 27. Buchstabe im englischen Alphabet
Bis der MIT-Mathematiker Claude E. Shannon 1948 dem englischen Alphabet einen Buchstaben hinzufügte, hatte niemand vermutet, dass das phonetische Alphabet noch nicht perfekt war. Wie der fallende Apfel Newton zu seinem Bravourstück der Gravitationstheorie verhalf, so legte der 27. Buchstabe, der das Leerzeichen („space“) als äquivalentes, aber nicht phonetisch produziertes positives Zeichen kodierte, den Grundstein für die mathematische Theorie der Kommunikation. […]
Während er die Informationstheorie entwickelte, forschte Shannon auf dem Gebiet des Morsealphabets und anderer früherer kryptografischer Erfindungen. Ihn interessierte primär eine Besonderheit am Morsealphabet: Es besteht nicht nur aus Punkten und Strichen, da Buchstaben- und Wortabstände in die zu übertragenden Signalfolgen einberechnet werden müssen. Jede Sequenz ist auf eine gewisse Anzahl möglicher Zustände beschränkt und nur bestimmte Symbole einer Symbolmenge können für den jeweiligen Zustand übertragen werden. Er demonstriert diesen Prozess, indem er zeigt, dass es in der Übertragung einer telegrafischen Nachricht „zwei Zustände [gibt], je nach dem, ob als letztes Zeichen ein Zwischenraum oder kein Zwischenraum übertragen worden ist. Im ersten Fall kann als nächstes Zeichen nur ein Punkt oder ein Strich gesendet werden und der Zustand ändert sich jedesmal. Im zweiten Fall kann jedes Zeichen folgen und der Zustand ändert sich nur, wenn ein Zwischenraum gesendet wird, andernfalls bleibt er erhalten” (Claude E. Shannon und Warren Weaver, „Eine mathematische Theorie der Kommunikation“, in: Friedrich Kittler (Hg.), Ein/Aus. Schriften zur Kommunikations- und Nachrichtentheorie, Brinkmann & Bos: Berlin 2000, S. 15). […] Das Leerzeichen muss daher als positiver Buchstabe in der „gedruckten englischen Sprache“ angesehen werden – und eben nicht nur als Worttrennung, wie es üblicherweise in modernen und einigen alten Schriften wie der akkadischen Keilschrift zu beobachten ist. […]
Was ist gedruckte englische Sprache?
Der Ausdruck „Printed English“ taucht erstmals in Shannons wegweisendem Essay „Prediction and Entropy of Printed English“ [dt. „Vorhersage und Entropie der gedruckten englischen Sprache“] auf und wird teilweise synonym mit „Statistical English“ benutzt, da er sich auf das englische Alphabet mit 27 Zeichen und einer definierbaren statistischen Struktur bezieht (s. unter anderem Shannon/Weaver, S. 237–256). Als Spiegel der Kryptografie verfügt auch die gedruckte englische Sprache über einen mit ihr korrespondierenden, in numerische Symbole übersetzten Text, in dem die symbolische Korrespondenz zwischen den Buchstaben und ihren numerischen Pendants besteht, nicht zwischen Buchstaben und deren phonemischen Einheiten wie in der modernen Linguistik. Aus mathematischer Perspektive ist unser implizites Wissen über die statistische Struktur von Sprache mithilfe simpler Experimente umwandelbar in eine Menge numerischer Daten. […]
In Shannons Experiment mit der stochastischen Struktur zufällig gewählter Texte war es den menschlichen Versuchsteilnehmern gestattet, statistische Tabellen, ein Wörterbuch, eine Liste mit Wiederholungshäufigkeiten gängiger Worte, eine mit Frequenzen von Anfangsbuchstaben und andere Hilfsmittel zu benutzen; schließlich wurden sie gebeten, den Text – Buchstabe für Buchstabe – zu erraten. Dieses und andere Ratespiele zeigten, dass die Vorhersagbarkeit von Englisch viel häufiger vom Leerzeichen als von jedem anderen Buchstaben im Alphabet abhängt. […]
Shannons Experiment geht von einer Gerichtetheit aus, die linear verläuft und unumkehrbar ist: Man sagt den nächsten Buchstaben auf Basis des aktuellen voraus. Auf Basis des sichtbaren Buchstabens muss die Versuchsperson raten, welcher Buchstabe mit höchster Wahrscheinlichkeit folgt. Im Fehlerfall muss sie wieder und wieder tippen, bis der nächste korrekte Buchstabe erreicht ist. Hier geschieht etwas in der Evolution der Nachkriegs-Technosphäre, das von zentraler Bedeutung ist. Zum ersten Mal wird das psychische Moment in die digitale Maschine eingeführt – wenn auch gleichzeitig darüber spekuliert wird, ob das Digitale wiederum psychische Prozesse strukturiert. Obgleich es nicht Shannons Intention ist, über das Unbewusste zu spekulieren, verlassen sich seine Ratespiele auf eben dieses Unbewusste, um die symbolischen Prozesse sichtbar zu machen, die die Struktur der gedruckten englischen Sprache mathematisch steuern. Sie sind methodisch verwandt sind mit dem Wortassoziationsspiel, das Carl Gustav Jung und andere Psychoanalytiker um 1900 herum gespielt hatten. […]
Bedeutet das, dass ein neuer Turm zu Babel oder aber ein gemeinsames Fundament universeller Kommunikation erneut am Horizont aufscheint? Einer der ersten Versuche, diese Frage zu beantworten, kam nicht aus der eher obskuren Ecke maschineller Übersetzung, deren Entwicklung zu Beginn äußerst zäh verlief, sondern entsprang den schnell wachsenden Forschungsprojekten über den genetischen Code in der Molekularbiologie und den philosophischen Reaktionen, die darauf folgten.
Der genetische Code und die Grammatologie
Jacques Derrida skizziert die Grundrisse seiner neuen Grammatologie, indem er das Konzept der „grammè“ einführte. Was ist grammè? Derrida erklärt es, indem er eine Verbindungslinie zur Weiterverarbeitung von Information in der lebenden Zelle und dem kybernetischen Programm zieht. Indem er diese elementaren Prozesse genetischer Einschreibung als Beispiele eines generalisierten Schreibens ansieht, spekuliert er [1965]: „Selbst wenn man annimmt, daß die Theorie der Kybernetik sich aller metaphysischen Begriffe – einschließlich jener der Seele, des Lebens, des Wertes, der Wahl und des Gedächtnisses – begeben kann, die noch bis vor kurzem dazu dienten, die Maschine dem Menschen gegenüberzustellen‚ so wird sie dennoch am Begriff der Schrift, der Spur, des Gramma oder des Graphems so lange festhalten müssen, bis schließlich auch das, was an ihr selbst noch historisch-metaphysisch ist, entlarvt wird.“ (Grammatologie, Suhrkamp: Frankfurt/Main 1974, S. 21). Derrida machte diese Bemerkungen zur grammè zu einer Zeit, als die junge Disziplin der Molekularbiologie damit beschäftigt war, die kybernetischen Tropen von Codierung und Decodierung, Nachricht, Überträger etc. aus der Informationstheorie zu importieren. Es war ebenso die Zeit, in der das Vier-Zeichen-System der DNA und die mathematischen Korrelationen von Nuklein- und Aminosäuren die Molekularbiologie in die respektablen Ränge der exakten Wissenschaften erhoben. […]
Die psychische Maschine
Der Code-Switch in den Lebenswissenschaften, der Linguistik und anderen Disziplinen hat mehr getan, als einen Satz wissenschaftlicher Idiome in Form einer „dauerhaften Metapher“ durch einen anderen zu ersetzen. Tatsächlich muss die alphabetische Schrift ihr überkommenes Image vom phonetischen Symbolismus abstreifen und ein „sprachloser“ beziehungsweise „stummer“ Code zum Zwecke universeller Einschreibung werden. Dieses neue System ideografischer Einschreibung beinhaltet Buchstaben, Zahlen, Leerzeichen etc. und schließt phonetische und verbale Ausdrücke aus.
Die mathematische Urteilskraft jedoch, die der kybernetischen Maschine symbolische Logik und Code einspeist, ist nicht aus sich selbst heraus die raison d‘être digitaler Medien. In der Architektur des Computers geschieht noch etwas anderes neben den Nullen und Einsen, weil das zentrale Problem der digitalen Revolution – wie ich in The Freudian Robot gezeigt habe – die Neuformung des Verstandes als psychische Maschine ist. Diese Neuformung bedarf einer bestimmten techne des Unbewussten, wie auch biologischer Prozesse, die das Konzept stochastischer Prozesse verkörpert – wie sich klar an Shannons Ratespielen demonstrieren lässt – und außerdem klare Prozesse zu deren Erfassung, wie etwa die Codierung in der gedruckten englischen Sprache. Die Gefahr, von der Lacan eingangs spricht, liegt in den weiten kybernetischen Räumen, die zwischen den neuronalen Netzen des Gehirns und jenen der Rechenmaschine klaffen, oder in der Frage danach, was digital und berechenbar ist in der psychischen Maschine der Zukunft.