(Vortrag Ars Electronica Center Linz, 6 '98, print: c't, Magazin für Computertechnik. Nr. 9/99, S. 234-240) - website creation date 07. 08. 98, update: 12. 03. 01, expiration date: 12. 03. 2004, 70 KB, url: www.uni-paderborn.de /~winkler/rekursio.html, language: German, © H. Winkler 1997, home - ( keys: media, theory, computers, programming, repetition, condensation, scheme, pattern, convention, stereotypes, loops, recursive, algorithm, audiovisual media, language, concept, semiotics, culture)

Hartmut Winkler

Über Rekursion.

Eine Überlegung zu Programmierbarkeit,
Wiederholung, Verdichtung und Schema.

Was ist Programmierbarkeit? Wolfgang Coy hat mich auf den Begriff der 'Rekursion' aufmerksam gemacht, Jochen Hörisch hat ein wunderbares Buch über Medien und Geld geschrieben, in dem es unter anderem um Verdichtung und Knappheit geht, Sybille Krämer untersuchte 1988 die Geschichte der Formalisierung. (1)
Der folgende Text will die Frage nach der Programmierbarkeit - im Rahmen der Informatik möglicherweise trivial - in den Kontext einer Kultur- oder Medientheorie der Computer stellen. Im Mittelpunkt wird die faszinierende Knappheit stehen, die Programme allen anderen Textsorten voraushaben. Meine These ist, daß Programmierbarkeit, Rekursion und Knappheit auf regelhafte Weise zusammenhängen und daß hier ein Durchblick möglich wird auf eines der Versprechen, das die Rechner im Reich der Zeichen machen. Ein weiteres Mal also geht es darum, warum die Computer in die Welt gekommen sind, und was ihre mögliche Stellung im Konzert der Medien ist.

Zunächst seien einige Eigenschaften von Programmen und allgemeiner: von Algorithmen benannt. Algorithmen sind Regeln oder Ausführungsvorschriften. Sie haben performativen Charakter, insofern sie ein Zukünftiges, ihre Ausführung, präskribieren; anders als natürlichsprachliche Texte, darauf hat Flusser hingewiesen, argumentieren sie immer im Imperativ, was vielleicht nur deshalb erträglich ist, weil sich dieser an Maschinen und nicht mehr an menschliche Knechte richtet.
Algorithmen gibt es in jeder beliebigen Anzahl, sie selbst also sind so wenig knapp wie die Programme.(2) Noch viel weniger knapp aber, und darauf kommt es hier an, sind die Daten; (3) Knappheit bestimmt das Verhältnis der Daten zu den Programmen, bzw. - und dies ist die erste Formel, die ich vorschlagen will - Knappheit ist das Prinzip der Programmierbarkeit selbst.
Programmierbar (oder in einen Algorithmus faßbar) ist, was wiederholt werden kann und soll. Ein Programm zu schreiben lohnt nur dann, wenn die Fragestellung sehr komplex ist, wenn zweitens sehr viele Daten vorliegen und diese durch ein einheitliches Verfahren verarbeitet werden sollen, oder drittens wenn das Programm nicht nur einmal, sondern immer wieder verwendet werden soll.
Programmierbarkeit hat insofern sehr intensiv mit Wiederholung zu tun; mit verschiedenen Typen von Wiederholung, die jeweils unterschiedliche Zeit- und Folgestrukturen setzen.

Und dasselbe Prinzip - der Verweis auf komplexe Probleme deutet es an - bestimmt auch das Innere der Programme selbst. Komplexe Probleme sind nur dann programmierbar, wenn sie niedergebrochen werden können auf eine begrenzte Anzahl sehr einfacher Verarbeitungsvorschriften (und dies ist bei weitem nicht bei allen komplexen Problemen der Fall). Das hauptsächliche Mittel, die Anzahl der Arbeitsschritte zu begrenzen, ist die Isolation wiederholbarer, mehrfach verwendbarer Schritte.
Bei der Problemanalyse, Grundlage der Programmierung, also geht es wesentlich darum, Einzelaufgaben zu typisieren und Module zu bilden, die innerhalb der Programmausführung möglichst häufig verwendbar sind; solche Module können entweder Unterprogramme sein, die das Programm immer wieder aufruft, oder, in der allgemeinsten Form, Schleifen.
Schleifen sind die wohl wichtigste Programmiertechnik überhaupt. Sie erlauben es, einen Vorgang solange zu wiederholen, bis eine vordefinierte Stopbedingung erfüllt ist. Von mathematischen Iterationen wie dem Apfelmännchen bis zur Stapelverarbeitung der Versicherungen - immer sind es Schleifen, die die Architektur der Programme bestimmen.
Mein Vorschlag nun ist - und hieran hängt alles, was in der Folge gesagt werden soll -, die Perspektive umzukehren, und das Problem nicht mehr aus der Sicht der Algorithmen, sondern nun aus der Sicht der Wiederholbarkeit selbst in den Blick zu nehmen.
So betrachtet nämlich sind Unterprogramme und Schleifen ein Mittel zur Eliminierung von Redundanz. Anstatt, was sich wiederholt, tatsächlich zu wiederholen, wird eine Formulierung gefunden, die allgemein genug ist, alle Fälle der Wiederholung unter sich zu fassen. Und man wird Programm und Ausführung unterscheiden müssen: wo die Ausführung die Schleife unzählige Male durchlaufen muß, kommt das Programm mit einer einzigen Formulierung (und einem arithmetischen Zähler) aus. Dies ist der entscheidende Unterschied und der entscheidende Gewinn, den das Programm gegenüber seiner Ausführung (und den zu verarbeitenden Daten) bedeutet. Vorsprung durch Eliminierung von Redundanz.
Oder anders und besser: durch eine Formulierung für Redundanz, die selbst so sparsam wie möglich ist, knapp eben, und dennoch eine vollständige Repräsentation der Struktur. Schleifen sind ein Modus der Wiederholung, gleichzeitig aber stehen sie für ihr Gegenteil. Sie verkörpern den Vorbehalt gegen die Wiederholung, weil sie eine Formulierung finden, die die Wiederholung selbst gerade nicht enthält.

Die Wiederholung wie die Allergie gegen die Wiederholung haben die Computer von der Maschine und der industriellen Serienfertigung übernommen. Wer nur einen einzigen Kochtopf anfertigen will, wird mit einem Hammer und einem Stück Blech bestens bedient sein. Eine Produktionsstraße, eine Fabrik für Töpfe wird nur derjenige aufbauen, der einige Tausend Einheiten herzustellen plant; die Maschine selbst steht für beides: eine fest konzipierte Wiederholung, ohne die die Investition nicht lohnt, und die Abneigung gegen die Wiederholung: viel Arbeit wird in die Maschine investiert, damit die Herstellung des einzelnen Kochtopfs so wenig Arbeit wie möglich macht. Dies bedeutet, daß Arbeit verschoben wird von der Produktion in die Herstellung der Produktionsvoraussetzungen, der Maschinen; exakt wie im Fall der Programme, die - der Name Programm spricht es aus - geschrieben werden, lange bevor ihre Ausführung zu laufen beginnt.(4)

Im Reich der Zeichen hat die technische Reproduktion - seit Benjamin Inbegriff des Medialen - wahrscheinlich mit dem Rollsiegel begonnen. (5) Ebenfalls sehr früh beginnt die Prägung von Münzen, also von Geldzeichen;(6) und all diese Techniken setzen nur fort, was in der Type-token-Logik der Sprache immer schon vorvollzogen ist.(7) Aber sind die Prinzipien wirklich identisch? Geht es auch im Fall der Computer um mechanische Wiederholung?
In klarer Weise steht der Begriff der Rekursion für mehr als das. Anders als die industrielle Serienfertigung zielen Programme nicht auf die Herstellung ähnlich/gleicher Endprodukte ab. Rekursion ist definiert als die Wiederanwendung einer Verarbeitungsvorschrift auf eine Variable, die bereits Ergebnis, bzw. Zwischenergebnis derselben Verarbeitungsvorschrift ist. Der Variablenwert also ändert sich mit jedem Durchlauf der Schleife, und Effekt der Wiederholung ist gerade nicht die Herstellung von Identität sondern einer vordefinierten Variation. Rekursion ist insofern nicht einfache, sondern erweiterte Reproduktion; und Rekursion verschränkt Wiederholung und Variation mit dem Ziel, ein Neues hervorzubringen, ein Ergebnis, das in dieser Form nicht vorvollzogen werden kann.
Dennoch bleibt es dabei, daß Wiederholbarkeit Programmierbarkeit bedeutet; und das Programm eine Aufschreibetechnik, die das primäre Ziel hat, Redundanz zu eliminieren.


2

Tatsächlich spannend wird all dies, sobald man die Perspektive erweitert. Nun nämlich ist hervorzuheben, daß im Reich der Zeichen und Medien die Redundanz eine absolut herausragende Rolle spielt. Wo die Informationstheorie uns überzeugen wollte, Redundanz sei das Gegenüber der Information, Information (Variation, Neuheit) sei der einzig würdige Inhalt von Kommunikation, und Redundanz allenfalls als Carrier und als Sicherheitsreserve akzeptabel, lehrt uns die Geschichte der Medien das exakte Gegenteil. Medien sind ganz wesentlich damit befaßt, das arbiträre Schwirren der Zeichen zu begrenzen und in diesem Schwirren redundante und das heißt stabile Strukturen herzustellen.(8) Die oralen Gesellschaften bedienten sich der rituellen Wiederholung, um die für wichtig erachteten Strukturen (Mythen, Weltbilder, praktische Fähigkeiten) in die Subjekte einzuschreiben; Sprache funktioniert in ähnlicher Weise mit einem sehr hohen Anteil von Redundanz; die technische Reproduktion und insbesondere der Druck haben, ebenfalls ein Redundanzphänomen, die Herstellung sehr vieler identischer Textkopien möglich gemacht; und die audiovisuellen Medien schließlich haben ihr Publikum solange informiert, bis Adorno die Wiederkehr des Immergleichen beklagte.
All die genannten Prozesse, so unterschiedlich sie funktionieren, lassen sich auf den gemeinsamen Begriff der Wiederholung zurückführen. Redundanz ist nicht ein Unfall der Kommunikation sondern ihr Kern; und Medien sind gesellschaftliche Maschinen, die die technische Reproduktion dazu verwenden, intersubjektiv verbindliche Schemata durchzusetzen.

Auf einer allgemeineren semiotischen Ebene läßt sich fragen, wie der Mechanismus der Schemabildung konkret gedacht werden kann. Und ich würde vorschlagen, zunächst zwei Typen zu unterscheiden: die Schemabildung auf Seiten der Subjekte, und dann, zum zweiten, auf der Ebene der Medien und der Diskurse.
Auf Seiten der Subjekte ist die Beschreibung relativ einfach; Schemata sind hier das unsichtbare Gegenüber einer überwältigenden Vielfalt von Einzel-Ereignissen. Bereits unsere Wahrnehmung extrahiert aus der Flut heterogener Sinnesdaten Regelmäßigkeiten, Strukturen und Schemata; jede aktuelle Wahrnehmung wird auf dem Hintergrund von Erwartungen gedeutet, die das Resultat vorangegangener Wahrnehmungen und Erfahrungen sind; in der Kumulation solcher Erfahrungen entsteht jenes Raster, das uns eine Orientierung in der Welt erlaubt.(9)
Gestalttheorie, Stereotypentheorie und übrigens die Hermeneutik sind sich einig darin, daß allein dieses System von Vorannahmen (Schemata) uns in die Lage versetzt, mit den knappen mentalen Ressourcen auszukommen und unter Praxisdruck adäquat auch auf neue Situationen zu reagieren. Schemata sind abstrakter als die Einzelereignisse und sie können mit der Psychoanalyse als das Produkt einer 'Verdichtung' beschrieben werden.(10)

Sind die Schemata also Besitz der Subjekte? Sicher nicht. Zeichensysteme wiederholen den Mechanismus der Schemabildung auf intersubjektiver Ebene, erweitern ihn (und gehen ihm voran). Zeichensysteme erscheinen uns als ein festgefügtes symbolisches Raster, als Konvention; tatsächlich aber sind sie das Resultat einer Konventionalisierung. Das semantische System der Sprache muß begriffen werden in der Dialektik zwischen Sprechen und Sprache, als der verdichtete Niederschlag einer unendlichen Zahl von Sprechakten; das Sprechen schreibt sich in die Sprache ein und verleiht ihr ihre Form; als ein Kollektivkunstwerk differenzierter Erfahrungs-Schemata wird sie von Generation zu Generation weitergegeben; die einzelnen Subjekte werden in dieses Raster hineinsozialisiert, ihr Sprechen hat die Sprache zur Grundlage und wird an der Sprache weiterarbeiten.(11)
Und ähnlich im Diskurs der technischen Bilder. Hier ist es - häufig beklagt - die Herausbildung von Stereotypen, die den Zusammenhang zwischen Wiederholung, Stereotypisierung und Konventionalisierung beobachtbar macht.
Im Fall der Bilder wie der Sprache also gibt es ein Umschlagen von Diskurs in Struktur. Das Bindeglied beider, dies ist im hier verfolgten Zusammenhang wichtig, ist die Wiederholung. Sobald Elemente - seien es Zeichen, Bildinhalte oder Darstellungsmittel - wiederholt werden, setzt der Prozeß der Konventionalisierung ein; und dieser wird früher oder später in ein System von Konventionen münden. Wiederholung aber bedeutet auch hier Abstraktion. Auf seinem Weg hin zur Konvention läßt das Zeichen hinter sich, was seinen jeweiligen Kontext bestimmte; es gewinnt an Allgemeinheit und schüttelt viele konkrete Bestimmungen ab; der Begriff des 'Schemas' hält dieses Moment von Abstraktion fest.


3

Was nun bedeutet das Gesagte für die Programme? Wenn Programme - dies war die Ausgangsthese - ein Aufschreibesystem sind, das Redundanz in gezielter Weise eliminiert, so wird der Stellenwert dieser Operation nun deutlich: Das Programm inszeniert den Umschlag von Ereignis in Struktur auf dem eigenen Terrain; in der Differenz zwischen Ausführung und Vor-Schrift, der extensiven Fläche der durchlaufenen Zyklen und der intensiven Knappheit der Algorithmen. Vor allem aber im Bemühen der Programmierung selbst; im Versuch, Redundanz zu eliminieren, um zu möglichst redundanzfreien Formulierungen zu kommen. Dies exakt ist die 'Knappheit', die zu den Basisutopien des Datenuniversums zählt.
Programme beanspruchen nachzuzeichnen, was das Skelett, die innere Struktur der Dinge ist.(12) Problemanalyse verfährt bewußt reduktionistisch: nicht die Dinge selbst sollen zur Abbildung gebracht werden, sondern nur bestimmte ihrer Züge, und zwar die wesentlichen Züge, jene eben, die für die Modellierung als hinlänglich angesehen werden.
Beispiel sei die Berechnung einer ballistischen Kurve; Luftwiderstand, Strecke und Gewicht des Geschosses werden in das Modell eingehen, das Wetter und die Psychologie der Betroffenen wahrscheinlich nicht; moralische Erwägungen wird der Ingenieur aus seinem Modell völlig ausschließen. In ähnlicher Weise (und weniger problematisch) hat man aus tonnenschweren Steinbrücken nach und nach immer leichtere Stahlbrücken entwickelt. Sehr unmittelbar lassen sich hier die Kräfte nachvollziehen, denen die Brücke sich entgegenstemmt; die Brücke selbst ist zum Skelett abgemagert, auf das Notwendigste reduziert. Der Eiffelturm ist ästhetisch deshalb, weil er den Verlauf seiner Kraftlinien einer beobachtenden Intuition zugänglich macht. Programme, dies ist meine These, erben auch dies von der Industrie. Ihre 'Knappheit' will die Kraftlinien offenlegen, die das modellierte Problem durchziehen; sie verabschieden das Fleisch, um sich mit dem Skelett zu begnügen.
Meine Behauptung ist, daß Programme damit ein Typus von Schemata sind, der mit Schemata anderen Typs - den Begriffen der natürlichen Sprache und den Stereotypen des Bilderdiskurses - unmittelbar konkurriert
Und mein Vorschlag ist zweitens, die Programme nicht aus einer eigenständigen 'Geschichte der Formalisierung' heraus zu erklären, wie etwa Krämer dies sehr plausibel tut;(13) und nicht mit Flusser als eine 'Auswanderung der Zahlen aus dem alphanumerischen Code'; (14) sehr viel interessanter scheint es mir, die konkreten Abstraktionsprozesse zu untersuchen, die konkrete Programme in der Modellierung konkreter Probleme vollziehen.
Nicht die schlichte Existenz formaler Sprachen scheint mir erklärungsbedürftig, sondern die Tatsache, daß wir in die Formalisierbarkeit und in den neuen Typus von Schemata gegenwärtig ein so erstaunlich großes Vertrauen haben.

Der Hintergrund meiner Frage, es wurde am Anfang gesagt, ist ein mediengeschichtlicher. Auf dem Terrain anderer Medien nämlich ist gerade die Schemabildung hart, um nicht zu sagen final kritisiert worden. Von Nietzsches 'Wahrheit und Lüge', ich habe dies an anderer Stelle dargestellt,(15) über Hofmannsthal, Adorno, Lacan und Derrida, bis hin zum Alltagsbewußtsein, das der 'Rhetorik' der Sprache zunehmend mißtraut, kann eine Demontagebewegung gegenüber der Sprache und ihren Referenz- und Wahrheitsansprüchen beobachtet werden. Vor allem das Signifikat, d.h. der Mechanismus der Begriffsbildung wurde in den Mittelpunkt einer zeichenkritischen Philosophie gerückt; und orientiert an den selben poststrukturalistischen Texten hat zumindest ein Mainstream innerhalb der Medientheorie auch die Bilder einer radikalen Kritik unterzogen.
Das Rätsel also ist, warum der neue Typus von Schemata dieser Kritik einstweilen entkommt. Und den Rest meiner Überlegung möchte ich darauf verwenden, ausgehend von Rekursion und Schema hier drei einander ergänzende Deutungen vorzuschlagen.


4

Meine erste Deutung ist, daß die Schemabildung als ein konkreter Prozeß, als eine Maßnahme und ein Effekt des rekursiven Verfahrens unser Bewußtsein nur sehr selten tatsächlich erreicht. Dies scheint mir - paradox - zunächst daran zu liegen, daß Programme innerhalb einer Formalsprache formuliert werden, so daß der entscheidende Schritt zur Schemabildung, die Formalisierung, immer schon vollzogen scheint.
Wenn Hörisch also schreibt, der Erfolg des Geldes hänge mit seiner 'skandalösen semantischen Armut' zusammen, also damit, daß die Tausch-Abstraktion einen explizit anti-semantischen Charakter hat und ihre Abstraktions- und Integrationseffekte ausdrücklich gegen die Konkretion des jeweils Ausgetauschten erzielt, (16) so könnte hier ein Schlüssel für ein Verständnis auch der Datenverarbeitung liegen. Solange man innerhalb des Programms verbleibt, herrscht eine wunderbare Ordnung. Wiederholung wie Wiederholbarkeit scheinen immer schon sichergestellt und gegen jene subtilen Verschiebungen gefeit, die die Wiederholung in natürlichen Sprachen so bedrohlich machen. (17)
In Programmen ist die Verschiebung eine kontrollierte Verschiebung; auch beim Übergang von der einfachen zur erweiterten Reproduktion ändern sich maximal die Werte der Variablen; das Ergebnis eines rekursiven Algorithmus mag überraschen, weder aber tun sich Interpretationsabgründe auf, noch zwingt dies zur Wahrnehmung der Schemabildung selbst.
Die Formalsprache scheint zudem zu garantieren, daß das einzelne Programm an andere Programme anschlußfähig ist, letztlich also Teil eines gemeinsamen Kosmos, der Wiederholung und Rekursion in den intertextuellen Raum hinein unproblematisch verlängert. Auch dies ist bei natürlichsprachlichen Texten und Begriffen keineswegs der Fall. Perspektivität und Widerstreit spielen hier eine entscheidende Rolle und machen es schwer, an einen vergleichbar kohärenten Textkosmos zu glauben. (18)

Die Unterschiede allerdings, und dies ist meine zweite Überlegung, vermindern sich, sobald man den Schutzraum des einzelnen Programmes verläßt. Wenn oben gesagt wurde, daß Programme selten autonome Artefakte sind, sondern meist Modellierungen von Problemen, die außerhalb der Datenverarbeitung ihren Anlaß und ihre Referenzebene haben, so verschiebt sich damit auch die Frage nach Schema und Rekursion; und der Blick wird frei auf einen Zyklus zweiten Grades, der gerade nicht mehr innerhalb der Programme seinen Ort hat, sondern nun, weit weniger übersichtlich, den Raum der Programme mit der umgebenden 'Realität' verbindet.
Die Schemabildung, so könnte man sagen, zerfällt in zwei Hälften: innerhalb des Programmes eben die Rekursion, und zwischen Programmen und 'Welt' jene eigentliche Abstraktionsleistung, die das Schema zum Schema tatsächlich erst macht.
Das Schreiben von Programmen ist eine Form der Modellbildung. Ein konkretes Problem, in sich amorph und Teil einer amorphen, überwältigend komplexen Außenwelt, soll abgebildet werden in eine Struktur, die den Regeln einer vordefinierten, formalen Sprache gehorcht.
Zwischen beiden Welten besteht eine Kluft. Und hier, auf dieser Kluft, operiert als Agent, Übersetzer und Moderator der Systemanalytiker. Auch seine Übersetzerfunktion aber wird eher verdeckt; die Begriffswahl 'Systemanalyse' bereits ist ein Euphemismus; sie signalisiert, daß man dem Problem selbst bereits Systemcharakter unterstellt; seine Zerlegbarkeit in wiederholbare Module scheint jeder Frage enthoben, und die Probleme der Adäquatheit, der Repräsentation und der Repräsentierbarkeit - ehrwürdige Probleme im Reich der Zeichen wie der Zeichenkritik - scheinen gegenstandslos zu sein. Die Theorie ist dem willig gefolgt, indem sie solch traditionellen Kategorien im Feld des Computers jede Relevanz abgesprochen hat.

Aber sind sie tatsächlich irrelevant? Derart rüde Ausschlüsse, denke ich, sind nur möglich, wenn sie durch komplementäre Mechanismen gestützt, begleitet und konterkariert werden, Mechanismen, die den Weltbezug der Modelle, zumindest im Blick der Beteiligten, um so selbstverständlicher garantieren.
Parallel zur Programmierung der Computer und den weltfrei-symbolischen Spielen, auf die die Medientheorie hauptsächlich starrt, läuft ein sehr empirischer Großversuch, der allein die Verifizierung der Modelle zum Gegenstand hat. Kriterium ist hier die 'Funktion'. Die gerechnete Wetterprognose wird daran gemessen, welches Wetter in der Folge tatsächlich eintritt und der Witz ist, daß die Prognose das Wetter nicht beeinflussen kann. Trifft das 'intelligent missile' nicht sein Ziel, wird es nicht länger für intelligent gehalten werden. Das Konzept der 'Wahrheit' also ist, anders als der Sekundärdiskurs unterstellt, aus der Sphäre der Computer keineswegs eliminiert. Es ist verschoben auf jene 'Anwendungen', die die Modelle mit dem Modellierten in sehr unmittelbare Berührung bringen, oder sie auf das Modellierte zurückwirken lassen. (19) Die Börse und die Versicherungen, Statik und Statistik, Fernsehsatelliten und der internationale Geldverkehr - sie alle liefern jene Empirie, an der sich die Modelle weiterentwickeln. (20)
Die 'Schnittstellen' sind den Computern keineswegs äußerlich. Hier werden die Skelette und die Wirksamkeit/Berechtigung der Verdichtung getestet; skelettierende Verdichtung ist ein bestimmter Typus, der mit anderen Typen von Verdichtung konkurriert.

Unsere Hoffnungen aber gehen gerade nicht auf den Weltbezug, sondern, fast ist man geneigt zu sagen: im Gegenteil, auf die Schönheit und Eleganz der Modelle. Und deren 'Wahrheit' hat mit der Utopie der Knappheit unmittelbar zu tun. Unser Vertrauen ist geschwunden, daß wir die Welt erzählen können; in der Flut der Texte ist untergegangen, was 'das Wort', das am Anfang war (und zwar im Singular), einmal leisten sollte. Und im Bildernebel zergeht, was die Bilderkritik als deren urspünglichen Wahrheitsanspruch demontiert. Wahrheit, sagt Hörisch, ist immer nur eine, und grundsätzlich knapp.(21)

Und noch ein zweites großes historisches Modell hat an der Wiege der Computer zumindest Pate gestanden: Problemanalyse reduziert Komplexität in derselben oder in ähnlicher Weise, wie die Naturwissenschaften die komplexe Natur zunächst zergliedert und dann auf ihre Gesetze gebracht haben.
Die Naturwissenschaften sehen wir als erfolgreich an, weil ihnen eine empirische Verifizierung in Gestalt der Technik unmittelbar gefolgt ist. Neben dem Kriterium der inneren Stimmigkeit und der Kohärenz ist dies der hauptsächliche Grund unseres sehr weitgehenden Vertrauens in diesen Typus von Wissen.
Aber hat nicht gerade über die Erfahrung der Technik unser Vertrauen erste Risse bekommen? Was wir als ungewollte 'Nebenfolgen' und als ökologische Problematik zunehmend zur Kenntnis nehmen müssen, ist die Tatsache, daß das Skelett der Gesetze eben keineswegs automatisch für die Dinge selbst stehen kann, und das verabschiedete Fleisch in bedrohlicher Weise immer wiederkehrt.

Wichtig ist deshalb zweitens, daß der Geltungsanspruch der meisten Programme hinter dem der Naturwissenschaften deutlich zurückbleibt. Mit den Programmen also haben wir uns eine Art Zwischenbereich geschaffen: sie sind nicht soweit 'Gesetz' wie die Naturgesetze, aber 'Gesetz' genug, um das Modellierte mit ausreichender Präzision zu beschreiben; Zwischenwelt zwischen der Natur (wie sie die Naturwissenschaft als einen Raum der Naturgesetze modelliert) und der Unabsehbarkeit der Diskurse, die nicht mehr genug Redundanz produzieren, um als Gesetzgeber wahr- und ernstgenommen zu werden...

War also meine erste Deutung, daß es die Formalisierung, d.h. die Abspaltung von der Praxis ist, die Rekursion als Schemabildung so schwer durchschaubar macht, so scheint nun zweitens und umgekehrt das Involvement in Praxis dieselbe Funktion zu erfüllen; beide scheinen komplementär miteinander verschränkt, und es wäre Aufgabe einer erweiterten Zeichenkritik, die scheinbare Reinheit wie das Involvement des Digitalen zu dekonstruieren.

Meine dritte Deutung schließlich geht noch einmal von der einfachen zur erweiterten Reproduktion über. Wo Stereotyp und Schema zurück in die Vergangenheit verweisen, und das konkrete Ereignis als Token eines Types erkennbar wird, den die Vergangenheit in unserem Kopf bereits niedergelegt hat,(22) scheint die Rekursion ebenso selbstverständlich nach vorne zu zeigen: in vielen Anwendungen sind wir geneigt, sie nicht als Wiederholung, sondern als Produktion zu begreifen, vergleichbar allein mit der Produktivität des menschlichen Sprechens. Artikulation, unabsehbar und zukunftsoffen, enthüllend; wenn nicht gleich - Heideggerianer, die wir bei Gelegenheit sind - Abschlagszahlung auf eine Selbstentbergung der Natur.(23)
Und in der Tat: vielen Programmen gegenüber geraten wir in die Publikumsrolle; in die Rolle, Ergebnisse nur noch zu deuten, ähnlich wie vorher die erste Natur, und dann die zweite, die sich als ähnlich rätselhaft erwiesen hat. Paradox haben wir es nun mit Schemata zu tun, die Ereignisse produzieren.
Dennoch denke ich nicht, daß es allein diese erweiterte Reproduktion ist, für die wir uns interessieren sollten; oder daß sich vor allem mit ihr, wie ein Text zur Rekursion sagt, "Automatenaktivität gegenüber dem planenden Verstand der Software-Ingenieure verselbständigt".(24) Wie die Rekursion beide Seiten miteinander verbindet, die triviale, einfache Reproduktion mit der scheinbar unabsehbar erweiterten, so werden wir auch die erweiterte als einen Schematismus, also von der Wiederholung her, begreifen müssen.


5

Wahrheit, sagt Hörisch, ist immer knapp. Wenn die Medienleute nun also auf die Computer setzen, und Philologen - ausgerechnet Philologen! - auf den 'Klartext' der Algorithmen, (25) so geht es um eine Wahrheit, die einer Kritik der Zeichen entkommt.
Algorithmen sind Kondensat; deshalb Kittlers Polemik gegen das Ausblumen nun auch der Software, und immer scheinen sie wahr oder zumindest zu verifizieren. Als ein System kohärenter Regeln haben die formalen Sprachen Anteil an jener natürlichen Kohärenz, die die Mathematik allen anderen Zeichensystemen voraushat; die Arbitrarität, Erbkrankheit der Zeichen, scheint aus dieser Sphäre verbannt; die Geschichte, der Schmutz und die Körper.
Exakt dies aber ist der Defekt dieses Typs von Verdichtung; wie alle Verdichtung beruht sie auf dem Ausschluß des Konkreten, das sie gleichzeitig begrenzt. Die Zeichenkritik, die die Worte - als Signifikate - in ihrem Geltungsanspruch demontiert hat, und dann die Bilder in ihrem destruktiven Bezug auf Konvention und Klischee, hat diesen Verdrängungsanteil offengelegt. Für die Algorithmen steht eine vergleichbare Zeichenkritik einstweilen aus. Dies aber heißt nicht, daß sie unmöglich wäre. Und vielleicht ist es ein Beitrag, semiotische Mechanismen zu zeigen, die alle drei Sphären in ähnlicher Weise umfassen. Was hier 'Verdichtung' genannt wurde, denke ich, könnte einer von ihnen sein.





Anmerkungen:

(1) - Hörisch, Jochen: Kopf oder Zahl. Die Poesie des Geldes. Frankfurt/M. 1996.
- Krämer, Sybille: Symbolische Maschinen. Die Idee der Formalisierung in geschichtlichem Abriß. Darmstadt 1988. zurück

(2) Auf das Ideal der Knappheit wie auf das Scheitern dieses Ideals macht Kittler aufmerksam: "David Hilberts traumhaftes Programm, die Opazität der Alltagssprachen ein für allemal durch Formalisierung auszuräumen, scheitert nicht nur auf den lichten axiomatischen Höhen Gödels oder Turings, sondern in ingenieursmäßiger Empirie. Codes mit Kompatibilitätsproblemen beginnen zu wuchern und genau jene Opazität von Alltagssprachen anzunehmen, die die Leute seit Jahrtausenden zu Subjekten dieser Sprachen gemacht hat. Der schöne Begriff Quellcode wird buchstäbliche Wahrheit." (Kittler, Friedrich: Protected Mode. In: Bolz, Norbert; Kittler, Friedrich; Tholen, Christoph (Hg.): Computer als Medium. München 1994, S. 219). zurück

(3) Die Unterscheidung zwischen Daten und Programmen geht von der Erfahrung am Großrechner aus, wo Stapel gleich strukturierter Datensätze (Banküberweisungen, Versicherungsanträge...) verarbeitet werden. Am PC ist diese Trennung weniger deutlich, aber ebenso wirksam: hier ist das Programm der Rahmen für den interaktiven Dialog des Benutzers; die 'Daten' sind seine Eingaben, die das Programm strukturiert... zurück

(4) Daß die industrielle Serienfertigung auf Wiederholung beruht, ist im neunzehnten Jahrhundert als ein Schmerz noch deutlich wahrgenommen worden. Insbesondere die Tatsache, daß die industrielle Produktion tausende identischer Exemplare hervorbrachte, wurde als kalt und seelenlos empfunden; das Handwerk demgegenüber erschien als die 'menschlichere' Produktion: jedes Exemplar unterschied sich vom anderen und konnte Rücksicht nehmen auf das Material, den Ort der Verwendung und die singulären Bedürfnisse des Nutzers. Inzwischen haben wir mit der Serialität zu leben gelernt und sind bereit, sie als Eigenheit einer technisch definierten Moderne zu akzeptieren. zurück

(5) "3200 [v. Chr.] - Sumerische Siegelrollen mit religiösen Darstellungen (zur Siegelung der Gefäße mit Abgaben an die Tempel)". (Stein, Werner. Der große Kulturfahrplan. Wien 1987, S. 20 (Erg. H.W.). Siehe auch: Haarmann, Harald: Universalgeschichte der Schrift. Frankfurt/M./NY 1991, S. 88: "Kretische Siegel mit Hieroglyphenschrift aus dem 3. und 2. Jahrtausend v. Chr." zurück

(6) "-700 [v. Chr.] - Älteste lydische Münzen bestehen aus Elektrum (natürl. Gold-Silber-Legierung)". (Stein, Kulturfahrplan, a.a.O., S. 91 (Erg. H.W.)). zurück

(7) Dieser Bezug ist wichtig und wird in der gegenwärtigen, materialfixierten Medientheorie häufig übersehen. Sprache bedeutet grundsätzlich, daß ein System von Zeichen (types) in den Köpfen der Sprachbenutzer bereits niedergelegt ist; den aktuellen Sprachgebrauch, das Sprechen, beschreibt die Linguistik deshalb als Aktualisierung (token). zurück

(8) "Der Mensch ist durch seine leibliche Existenz der Bedingung der Zeitlichkeit unentrinnbar anheimgestellt. Doch er entwickelt Strategien des Wiederholens, um diese Irreversibilität der Zeit - zumindest partiell - bannen zu können. Die Hervorbringung von Formen ist unsere Weise dafür zu sorgen, daß ein zeitliches Geschehen seiner Singularität entkleidet, mithin wiederholbar gemacht wird. Medien nun dienen der Wiederholung von Formen. Sie müssen somit aufnahmefähig sein für Formen. Von Niklas Luhmann kommt die Idee, was Medien sind, durch die - beobachterrelative - Differenz von Medium und Form zu profilieren." (Krämer, Sybille: Sprache und Schrift. In: Zeitschrift für Sprachwissenschaft, Nr. 15.1 (1996), S. 97.) zurück

(9) Der Zusammenhang ist erläutert z.B. in: Winkler, Hartmut: Der filmische Raum. Heidelberg 1991, S. 127ff., 131ff. zurück

(10) Zur Verallgemeinerung des Konzepts und zum Begriff der Verdichtung siehe: Winkler, Hartmut: Docuverse. Zur Medientheorie der Computer. München 1997, S. 81ff., 131ff. Siehe auch Hörisch, Kopf oder Zahl, a.a.O., S. 28. zurück

(11) Diese Dialektik von Sprechen und Sprache, Diskurs und Struktur ist die Hauptthese in Docuverse, a.a.O. zurück

(12) Ein Repräsentationsmodell ist hier vorausgesetzt, auch wenn dies der Auffassung der meisten Computer-Autoren widerspricht; Problemanalyse hat es immer mit etwas zu tun, das außerhalb der Rechner vorliegt, und sei es eben als Problem, und das im Rechner modelliert werden soll. Dieser Gedanke wird unten noch einmal aufzunehmen sein. zurück

(13) Krämer, Symbolische Maschinen, a.a.O. zurück

(14) ...obwohl auch dies sicher einiges für sich hat (Flusser, Vilém: Die Auswanderung der Zahlen aus dem alphanumerischen Code. In: Matejovski, Dirk; Kittler, Friedrich (Hg.): Literatur im Informationszeitalter. Frankfurt/NY 1996, S. 9-14). zurück

(15) W., Docuverse, a.a.O., S. 192ff. zurück

(16) Hörisch, Kopf oder Zahl, a.a.O., S. 66. zurück

(17) Derrida, Jacques: Eight. Signature Event Context. In: Glyph, Nr. 1, 1977, S. 182ff. (OA., frz. 1972). zurück

(18) "Die eine göttliche Welt ist eben nur mit einem Heiligen Buch kompatibel. Spätestens mit der Erfindung der Buchdruckerkunst macht auch die christliche Tradition diese traumatische Erfahrung: ein für allemal gibt es Bücher (inkl. der vielfach übersetzten und kommentierten einen Heiligen Schrift!) im Plural, und in diesen Büchern steht auch noch durchweg Unterschiedliches, ja offen Konfligierendes zu lesen." (Hörisch, Kopf oder Zahl, a.a.O., S. 65). zurück

(19) Was für die Wetterprognose gerade negiert wurde, trifft für viele andere Programme zu: sie haben einen performativen Aspekt, insofern sie Tatsachen nicht nur beschreiben sondern auch schaffen. zurück

(20) Wenn Hörisch also das Geld in der Rolle des Siegers sieht, so ist zumindest zu sagen, daß in den Computern Texte und Geld, Symbolisches und Tatsächliches fast mühelos zusammenfließen. (Hörisch thematisiert den Zusammenhang übrigens selbst, a.a.O., S. 88).
Auch die Computer sind dazu übergegangen, ihre 'spezifische Lesart der Welt', dies ist eine Formulierung bei Hörisch, 'autoritativ geltend zu machen'; und gleichzeitig eben haben sie an der Welt ihren Maßstab, insofern die Modelle das Modellierte zwar verändern, keineswegs aber vollständig umkrempeln können. zurück

(21) Zum Zusammenhang von Geltung und Knappheit siehe: H., Kopf oder Zahl, a.a.O., S. 26, (33), 66, 272. zurück

(22) Erkennt man Stereotypen im Material, so ist dies häufig mit einer Art Enttäuschung verbunden: "es ist dies ein weiteres Mal nichts als..." zurück

(23) "Die moderne Technik als bestellendes Entbergen zu situieren, welches im menschlichen Tun nicht gründen kann, weil es dieses erst herausfordert, ist das Motiv der Heideggerschen Frage nach der Technik. Verknüpft mit seiner Frage nach dem Ding läßt sich eine nicht lokalisierbare Topik umschreiben, welche technische Artefakte als Artefakte würdigen hilft." (Tholen, Georg Christoph: Platzverweis. Unmögliche Zwischenspiele zwischen Mensch und Maschine. In: Bolz, Norbert; Kittler, Friedrich A.; Tholen, Christoph (Hg.): Computer als Medium. München 1994. S. 125). zurück

(24) Der Umraum des Zitats lautet: "Nichts ist so charakteristisch für die Arbeitsweise von Computern wie die ständige Wiederholung, die Allgegenwart von Versatzstücken, das Prozessieren von Mustern. Die Mächtigste der drei Basiskonstrukte algorithmischer Vorgehensweise, die Rekursion, Doppelgängerin der Iteration und der Schleife, ist die wesentliche Strategie, mit der sich Automatenaktivität gegenüber dem planenden Verstand der Software-Ingenieure verselbständigt." (Einladung zur Tagung HyperKult VII, Juli 1998 in Lüneburg). zurück

(25) Dies gilt für Kittler, Bolz und modifiziert auch für Hörisch. zurück