Friedrich Kittler
Computergraphik. Eine halbtechnische Einführung
(Vortrag gehalten in Basel, Juni 1998)
Meine Damen und Herren,
verzeihen Sie mir, für einmal mit Trivialitäten zu beginnen. Wann
immer die Rede auf Bilder kommt, bleiben nur Dummheiten wie die
folgenden.
Computerbilder sind der Output von Computergraphik. Computergraphiken sind
Softwareprogramme, die, wenn sie auf einer geeigneten Hardware laufen, etwas zu
sehen und nicht bloß etwas zu lesen geben. Auf den ersten Blick kennen
wir das alle. Auf den ersten Blick bildet das, was Augen auf dem Bildschirm
erblicken, eine optische Wahrnehmung wie jede andere auch. Und seitdem die
Kunstwissenschaft jüngst die Frage "Was ist ein Bild?" gelernt hat, darf
eine Anschlußfrage auf das Wassein von Computerbildern gehen. Bredekamps
These, daß Museen und Wunderkammern, Künste und Techniken demselben
Dispositiv aufruhen, hat solche Fragen möglich gemacht.
1
Meine halbtechnische Einführung in die Computergraphik allerdings wird
nur eine halbe Antwort geben, die vor allem den notwendigen Vergleich zwischen
Tafelbildern und Computerbildern, subtraktiven und additiven Farbgemischen
unterläßt. Nach solcher Vereinfachung ist ein Computerbild ein
zweidimensionale additive Mischung aus drei Grundfarben, die sich im Rahmen
oder Parergon eines Monitorgehäuses zeigt. Manchmal, nämlich als
graphische Oberfläche neumodischer Betriebssysteme, zeigt es sich minder,
ein andermal, nämlich als Bild im emphatischen Wortsinn, etwas mehr. Aber
wie auch immmer, die Generation von 1998 neigt vermutlich zum
milliardenunterstützten Trugschluß, Computer und Computergraphik
seien ein und dasselbe. Nur altgewordene Hacker bewahren noch als
Gedächtnisspur, daß das nicht immer so war. Es gab Zeiten, als das
Computerbild weiße Punkte auf einem amberfarbigen oder grünen
Hintergrund zeigte, wie um daran zu erinnern, daß es technikgeschichtlich
nicht etwa vom Fernsehen abstammt, sondern vom Kriegsmedium Radar.
Radarbildschirme aber müssen die Punkte, die auf ihnen als Indizien
anfliegender Feindflugzeuge erscheinen, in jeder Dimension adressieren und per
Mausklick abschießen können. Genau diese Adressierbarkeit hat das
Computerbild, auch wenn es die Polarkoordinaten von Radarschirmen durch
cartesische Koordinaten ersetzt hat, aus Frühwarnsystemen übernommen.
Im Gegensatz zum halbanalogen Fernsehen sind daher nicht nur die Zeilen,
sondern auch die Spalten eines Bildes in letzte Elemente aufgelöst. Die
Menge dieser sogenannten Pixel bildet also eine zweidimensionale Matrix, die
jedem einzelnen Bildpunkt eine numerisch bestimmte Mischung der drei
Grundfarben Rot, Grün und Blau zuordnet.
Diese Diskretheit oder Digitalität erstens der geometrischen
Örter und zweitens der chromatischen Werte macht all die
Zauberkunststücke möglich, die die Computergraphik von Film und
Fernsehen unterscheiden. Es ist zum erstenmal in der Geschichte optischer
Medien möglich, das Pixel in der achthundertneunundvierzigsten Zeile und
siebenhunderteinundzwanzigsten Spalte direkt zu adressieren, ohne seine
Vorgänger und Nachfolger durchlaufen zu müssen. Computerbilder sind
also in einem Maß, das die Fernsehmacher und Ethikjournalisten schon
heute zittern macht, die Fälschbarkeit schlechthin. Sie täuschen das
Auge, das einzelne Pixel ja nicht mehr voneinander unterscheiden soll
können, mit dem Schein oder Bild eines Bildes, während die Pixelmenge
aufgrund ihrer durchgängigen Adressierbarkeit in Wahrheit die Struktur
eines Textes aus lauter Einzelbuchstaben aufweist. Deshalb und nur deshalb ist
es kein Problem, Computermonitore vom Textmodus zum Graphikmodus oder umgekehrt
umzuschalten.
Die zweifache Digitalität der Örter und Farbwerte schafft aber
auch Problemfelder, von denen wenigstens drei benannt sein sollen.
Erstens läßt sich zeigen, daß die drei Farbkanonen
üblicher Farbfernseh- oder Computermonitore schlichtweg nicht hinreichen,
alle physikalisch möglichen Farben zu erzeugen. Experimente, die der
Industrie allerdings viel zu aufwendig vorkamen, haben vielmehr gezeigt,
daß erst neun Farbkanonen das sichtbare Spektrum einigermaßen
annähern könnten.[1] Der
sogenannte RGB-Kubus, die dreidimensionale Matrix aus diskreten Rot-, Blau- und
Grünwerten also, ist einer der üblichen digitalen Kompromisse
zwischen Ingenieuren und Betriebswirten.
Zweitens werfen diskrete Matrixen, die zweidimensionale der geometrischen
Örter ganz wie die dreidimensionale der Farbwerte, das grundsätzliche
Problem der Abtastrate auf. Nicht nur die Natur, soweit wir sie denn zu kennen
glauben, zerfällt nicht in letzte digitale Elemente, sondern auch die
Hypernatur, wie Computermusik und Computergraphik sie herstellen. Deshalb
heißt Digitalisierung für die Wahrnehmung immer auch Verzerrung. Was
bei digital gespeicherter Musik als Klirren oder, technischer gesprochen, als
Quantisierungsrauschen droht, stört bei Computerbildern als Treppeneffekt
oder Interferenz, trügerische Unstetigkeit oder Stetigkeit. Der
Abtasteffekt Nyquists und Shannons zerhackt also nicht nur schön
geschwungene Kurven oder Formen in Bauklötze, die unter Computergraphikern
als Manhattan-Block-Geometrie firmieren, weil US-Stadtstraßenplaner ja
den rechten Winkel seit jeher über alles lieben. Die Abtastung erzeugt
stetige und daher ins Auge fallende Formen vielmehr auch dort, wo sie so wenig
hingehören wie Morgensterns Huhn in seine Bahnhofshalle.
Drittens schließlich bereitet die Digitalität der
Computergraphik ein Problem, das der Computermusik völlig abgeht. In einem
Aufsatz über Time Axis Manipulation[2], dessen Lektüre ich bei einigen unter Ihnen noch
immer erhoffe, habe ich dereinst zu zeigen versucht, welche Spielräume die
Tatsache aufmacht, daß digitales Sampling jede musikalische Folge in drei
(aus Peanos Theorie der natürlichen Zahlen bekannte) Elemente zerlegt: ein
Ereignis oder Millisekundenzustand, seinen Vorgänger und seinen
Nachfolger. Die drei lassen sich integrieren oder differenzieren, vertauschen
oder verwürfeln, bis der Spielräume moderner E- und U-Musik wahrhaft
durchmessen sind.
Im Prinzip - und das heißt leider: mit quadratisch steigendem
Rechenaufwand - lassen sich diese Tricks aus der einen Dimension digitaler
Musik natürlich auf die zwei Dimensionen digitaler Bilder übertragen.
Nur pflegt das Ergebnis so chaotisch auszufallen, als sei die Wahrnehmung
wieder auf David Humes oder Kaspar Hausers reine Empfindungen regrediert. Der
Grund ist ebenso elementar wie nichttrivial. Jedes Bild (im Sinn der Kunst,
also nicht in dem der Mathematik) kennt zugleich ein Oben und Unten, ein Rechts
und Links. Demgemäß haben auch Pixel, sofern sie algebraisch als
zweidimensionale Matrizen und geometrisch als orthogonale Gitter aufgebaut
sind, grundsätzlich mehr als einen Nachbarn. In den heroischen
Anfängen der Computerwissenschaft, als große Mathematiker erst
einmal Binsenwahrheiten formulieren mußten, entstanden daher die Begriffe
einer Ashby- und einer Von-Neumann-Nachbarschaft, je nachdem beliebige Elemente
nur vom Kreuz ihrer oberen, unteren, linken und rechten Nachbarn umgeben sind
oder aber vom Quadrat aus besagten vier orthogonalen und weiteren vier
diagonalen Nachbarn. Daher rührt, wenn Sie so wollen, der ganze
Unterschied zwischen den Stadtbildern von Manhattan und Basel.
Nun ist es aber das offenbare Geheimnis von Turingmaschinen,
Von-Neumann-Architekturen und Mikroprozessoren, der Hardware jedes heutigen
Computers also, daß sie die sogenannte Welt auf natürliche Zahlen
und damit auf Peanos Nachfolgerrelation abbilden. Programmzähler und
Arbeitsspeicher aufseiten der Hardware, Funktionen und Programme aufseiten der
Software, alle laufen sie sequentiell. Alle Schwierigkeiten, die Computer mit
der Parallelverarbeitung von Befehlen oder der Berechnung von Netzwerken haben,
kehren in der Computergraphik wieder. Deshalb habe ich Ihre Einladung
überhaupt angenommen, statt Sie meinerseits zur Lektüre von Time
Axis Manipulation einzuladen. Im Gegensatz zur Musik hat jeder Punkt auf
einem Bild faktisch unendlich viele Nachbarn und selbst nach John von Neumanns
gewaltsamer Idealisierung immerhin noch acht. Deshalb werden wir noch lange
darauf warten müssen, bis Turingmaschinen imstande sein werden, die gute
alte Fraktur Basler Humanistenverlage automatisch zu entziffern. Alle
Algorithmen zur Filterung, Aufbereitung und Erkennung von Bildinhalten
laborieren an der Überzahl jener Nachbarschaften, die Bilder erst zu
Bildern machen. Womöglich könnte diese Überzahl daher gerade
umgekehrt Maße oder Antworten auf Gottfried Böhms Frage liefern, was
die Dichte von Bildern ausmacht. Bilder, die schon Ashbys Algorithmus erkennt,
hätten weniger Dichte als andere, die erst von Neumanns Algorithmus
knacken würde. (Um von der Möglichkeit ganz zu schweigen, daß
Bilder ohne latent eingebaute Orthogonalität oder Architekturalität
Computeranalysen prinzipiell überfordern könnten.)
Heidegger hat, wie Sie wissen, das Rätsel der Wahrnehmung darein
gesetzt, daß "wir im Erscheinen der Dinge zunächst und eigentlich
niemals einen Andrang von Empfindungen vernehmen.".[3] Für Wesen, die in der Sprache hausen, zeigt sich
etwas, das sie sehen oder hören, immer schon als etwas. Für
computergestützte Bildanalysen dagegen bleibt das Etwas-als-Etwas ein
theoretisches Fernziel, dessen Erreichbarkeit noch nicht einmal feststeht. Ich
möchte deshalb die automatische Bildanalyse auf Wahrnehmungssymposien
vertagen, die frühestens in zehn Jahren stattfinden, und mich im folgenden
auf die automatische Bildsynthese beschränken. Es geht also nicht darum,
wie Computer die optische Wahrnehmung simulieren, sondern nur darum, wie sie
sie täuschen. Diese exorbitante Fähigkeit nämlich scheint es zu
sein, die das Medium Computer über alle optischen Medien der
europäischen Geschichte erhebt.
2
Die optischen Medien, wie sie nicht zufällig gleichzeitig mit
Gutenbergs Buchdruck unsere Kultur verändert haben, gingen nämlich
die Optik als Optik an. Von der Camera obscura bis zur Fernsehkamera haben all
diese Medien das antike Gesetz der Reflexion und das neuzeitliche Gesetz der
Refraktion einfach in Hardware gegossen. Spiegelung und Linearperspektive,
Brechung und Luftperspektive waren die beiden Mechanismen, die die
europäische Wahrnehmung - allen Gegenangriffen moderner Künste zum
Trotz - auf perspektivische Projektion vereidigt haben. Was in der bildenden
Kunst entweder nur manuell oder, wie bei Vermeer und seiner Camera
obscura[4], nur halbautomatisch lief,
haben die technischen Medien als optische Vollautomaten übernommen. Eines
schönen Tages legte Henry Fox Talbot die Camera clara, die seine
unvollkommene Zeichenhand sehr unvollkommen unterstützt hatte, beiseite
und lief zu einer Photographie über, die er als Bleistift der Natur selber
feierte. Eines weniger schönen Tages stieß Hoffmanns Nathanael seine
Clara beiseite, setzte ein Perspektiv oder Fernglas ans Auge und sprang in den
sicheren Tod.[5]
Zu solchen optischen Medien verhält sich die Computergraphik wie diese
Medien zum Auge. Wenn die Kameralinse als buchstäbliche Hardware das Auge
als buchstäbliche Wetware simuliert, so simuliert als Computergraphik eine
Software die Hardware. Die optischen Gesetze der Spiegelung und Brechung
bleiben zwar für Ausgabegeräte wie Monitor oder LCD-Bildschirm
weiterhin in Kraft, aber das Programm, dessen Eingaben solche
Ausgabegeräte ja ansteuern, überführt alle optischen Gesetze,
die es berücksichtigt, in algebraisch reine Logik. Das sind, um es gleich
zu gestehen, üblicherweise bei weitem nicht alle optischen Gesetze, die
für Sehfelder und Oberflächen, für Schatten und Lichtwirkungen
gelten; aber was abläuft, sind diese ausgewählten Gesetze selbst und
nicht bloß, wie in anderen optischen Medien, die ihnen entsprechenden
Effekte. Kein Wunder also, daß der Kunsthistoriker Michael Baxandall die
Computergraphik als den logischen Raum aufspannen konnte, in dem jedwedes
perspektivische Gemälde eine mehr oder minder reiche Untermenge
bildet.[6]
Die vollständige Virtualisierung der Optik hat ihre
Möglichkeitsbedingung an der vollständigen Adressierung aller Pixel.
Einer zweidimensionalen Matrix aus diskret gemachten Zeilen und Spalten
läßt sich die dreidimensionale Matrix eines diskret gemachten
perspektivischen Raumes zwar nicht eineindeutig, aber doch eindeutig zuordnen.
Jedes Vorn oder Hinten, Rechts oder Links, Oben oder Unten entspricht einem
virtuellen Punkt, dessen zweidimensionaler Stellvertreter dann aktuell
erscheint. Einzig und allein das factum brutum verfügbarer
Computerspeicherplätze begrenzt den Reichtum und die Detailauflösung
solcher Welten. Einzig und allein die unumgängliche, aber immer einseitige
Entscheidung, welche Optik solche Welten regieren soll, begrenzt ihre
Ästhetik.
Im folgenden möchte ich versuchen, Ihnen die zwei wichtigsten unter
diesen optionalen Optiken näher zu bringen. Wobei allerdings vorweg zu
betonen bleibt, welche Revolution gegenüber den optischen Analogmedien
schon in der Tatsache liegt, daß die Computergraphik Optiken
überhaupt optional macht. Sicher erlaubten es Photographie und Film,
zwischen Weitwinkel und Teleobjektiv oder auch diversen Farbfiltern zu
wählen. Aber weil ihre optische Hardware einfach tat, was sie unter den
gegebenen physikalischen Bedingungen tun mußte, stellte sich niemals die
Frage nach einem Algorithmus, der für Bilder optimal wäre.
Computergraphik, weil sie Software ist, besteht dagegen aus Algorithmen und
sonst gar nichts. Der optimale Algorithmus zur automatischen Bildsynthese
läßt sich daher ebenso problemlos wie unalgorithmisch angeben. Er
müßte einfach alle optischen und d.h. elektromagnetischen
Gleichungen, die die Quantenelektrodynamik für meßbare Räume
kennt, auch für virtuelle Räume durchrechnen, schlichter gesagt also
die drei Bände von Richard Feynmans Lectures on Physics in
Software gießen. Dann würden Katzenfelle, weil sie anisotrope
Oberflächen bilden, wie Katzenfelle schimmern; dann würden Schlieren
in Weingläsern, weil sich ihr Brechungsindex an jedem Punkt
verändert, die Lichter und Dinge hinter ihnen zu ganzen Farbspektren
entfalten.
Prinzipiell steht solchen Wundern nichts im Weg. Universale diskrete
Maschinen, vulgo mithin Computer, können alles, was überhaupt
programmierbar ist. Aber nicht nur in Rilkes Malte Laurids Brigge,
sondern auch in der Quantenelektodynamik sind die "Wirklichkeiten langsam und
unbeschreiblich ausführlich".[7]
Die perfekte Optik ließe sich zwar gerade noch in endlicher Zeit
programmieren, müßte aber für die perfekte Bildwiedergabe auf
unendliche Monitorwartezeiten vertrösten. Computergraphik unterscheidet
sich vom billigen Echtzeiteffekt optischer Unterhaltungsmedien durch eine
Zeitvergeudung, die es mit der Zeitvergeudung guter alter Maler aufnehmen
könnte, wenn ihre Benutzer nur geduldiger wären. Einzig im Namen der
Ungeduld beruht alle existierende Computergraphik auf Idealisierungen, die
freilich im Gegensatz zur Philosophie wie Schimpfwörter fungieren.
Eine erste basale Idealisierung geht dahin, Körper als
Oberflächen zu behandeln. Im Unterschied zur Computermedizin, die sie
notgedrungen als dreidimensionale Körper wiedergeben muß, reduziert
die Computergraphik die Dimensionen ihres Inputs vor vornherein auf die zwei
Dimensionen ihres Outputs. Das bekommt nicht nur durchsichtigen oder teilweise
durchsichtigen Dingen wie besagten Weinglasschlieren nicht. Es schlägt
auch der Tatsache ins Gesicht, daß Dinge wie Katzenfelle oder
Lämmerwolken (zumindest seit Benoît Mandelbrot) weder drei noch zwei
ganzzahlige Dimensionen haben, sondern eine sogenannte Hausdorff-Dimension von
beispielsweise 2.37.[8] Nicht umsonst
versuchen computergenerierte Filme wie Jurassic Parc gar nicht erst,
mit den Pelzmänteln auf Hans Holbeins Gesandten zu konkurrieren;
sie bescheiden sich mit gepanzerten, optisch also blanken Dinosauriern.
Wenn erst einmal diese basale Reduktion von Körpern auf
Oberflächen, Hausdorffdimensionen auf Bildlichkeiten vollzogen ist, steht
die Computergraphik vor der Frage, welcher virtuelle Mechanismus welche
Oberflächen zu sehen geben soll. In Betracht kommen zwei algorithmische
Optionen, die einander aber nachgerade widersprechen und folglich eine
Ästhetik unter Ausschluß aller anderen festlegen. Realistische
Computergraphiken, also solche, die im Unterschied etwa zu bloßen
Drahtgittermodellen mit hergebrachten Künsten konkurrieren sollen
können, sind entweder Raytracing oder Radiosity, jedoch nicht beides
zugleich.
A
In historischer Treue beginne ich mit der Strahlverfolgung einfach darum,
weil sie aus den besten oder schlimmsten Gründen von der Welt viel
älter als der Radiosity-Algorithmus ist. Wie Axel Roch es demnächst
öffentlich machen wird, entstammt der Begriff Raytracing nämlich gar
nicht der Computergraphik, sondern ihrem militärischen Vorläufer: der
Radarverfolgung von Feindflugzeugen. Und wie der Computergraphiker Alan Watt
kürzlich gezeigt hat, ist Raytracing der Sache nach noch viel
altehrwürdiger. Den ersten Lichtstrahl, aus dessen Brechungen und
Spiegelungen ein virtuelles Bild entstand, konstruierte im Jahr des Herrn 1637
ein gewisser René Descartes.[9]
Achtzehn Jahre zuvor, im Kriegsnovember 1619, hatte Descartes eine
Erleuchtung und drei Träume empfangen. Die Erleuchtung betraf eine
wundersame Wissenschaft, die seine spätere analytische Geometrie gewesen
sein dürfte. Die Träume dagegen begannen mit einem Sturm, der einen
rechtsseitig gelähmten Descartes drei- oder viermal um sein eigenes linkes
Bein herumwirbelte. Ich vermute aber, daß Traum und Wissenschaft eins
sind. Im Traum wird das Subjekt zum ausdehnungslosen Punkt oder näherhin
Mittelpunkt, um den herum der eigene Körper als dreidimensionale res
extensa die geometrische Figur eines Kreises beschreibt. Von dieser
res cogitans und jener res extensa handelt bekanntlich die
cartesische Philosophie, von algebraisch beschreibbaren Bewegungen oder
Flächen dagegen sehr viel weniger bekanntlich die analytische Geometrie.
Zum erstenmal in der Mathematikgeschichte machte Descartes es möglich,
Figuren wie etwa den Kreis nicht mehr bloß als himmlisch-geometrische
Vorgegebenheiten zeichnerisch wiederzugeben, sondern als Funktionen einer
algebraischen Variable zu konstruieren. Das Subjekt als res cogitans ritt
gleichsam alle Funktionswerte einer Gleichung ab, bis beim Initialtraum von
1619 der Kreis oder bei Münchhausens Ritt auf der Kanonenkugel die Parabel
angeschrieben war.
Als der scheue Descartes 1637 mit seinem Discours de la
méthode ans Licht der Öffentlichkeit trat, fügte er ihm
außer der Geometrie zwei optische Anhänge bei: eine
Abhandlung über das Brechungsgesetz und eine über den Regenbogen.
Beide Abhandlungen aber wendeten die analytische Geometrie schlichtweg auf
Farben und Erscheinungen an. Um das Lichterspiel des Regenbogens von seiner
eingespielten Theologie zu erlösen, bat Descartes einen Glasbläser,
ihm das hundertfach vergrößerte Simulacrum eines einzigen
Regentropfens zu liefern. Diese hohle Glaskugel war aber nur das experimentelle
Unterpfand eines Gedankenexperiments, in dessen Verlauf das cartesische
Punktsubjekt die Kugel aus allen denkbaren Winkeln ansteuerte. Das Subjekt
selbst spielte also einen Lichtstrahl, der von der Sonne kommend im
Regentropfen alle denkbare Reflexionen und Refraktionen durchmachte, bis
schließlich das einfachste Sonnenlicht nach trigonometrischen Gesetzen
ins Regenbogenspektrum zerfiel.[10]
Sicher, das Reflexionsgesetz formulierte schon Heron von Alexandria, das
Refraktionsgesetz schon Willibrord Snell. Descartes aber blieb es vorbehalten,
den Weg eines einzigen Lichtstrahls aus wiederholten Anwendungen beider Gesetze
zusammenzusetzen. Das cartesische Subjekt entsteht durch Selbstanwendung oder,
informatisch gesprochen, durch Rekursion. Genau das ist der Grund, weshalb die
cartesische Strahlverfolgung keinen Maler und kein optisches Analogmedium hat
inspirieren können. Erst Computer und näherhin Computersprachen, die
rekursive Funktionen gestatten, verfügen über die Rechenmacht, die
zahllosen Wechselfälle oder Schicksale eines Lichtstrahls in einem
virtuellen Raum voller virtueller Oberflächen überhaupt verfolgen zu
können.
Raytracing-Programme beginnen im elementaren Fall damit, den Bildschirm als
zweidimensionales Fenster mit Blick auf eine virtuelle Dreidimensionalität
zu definieren. Dann folgen zwei Iterationsschleifen über alle Zeilen und
Spalten dieses Bildschirms, bis ein Sehstrahl vom virtuellen, vor dem
Bildschirm gelagerten Auge sämtliche Pixel einmal erreicht hat. Hinter den
Pixeln aber wandern diese virtuellen Strahlen weiter, um lauter
unterschiedliche Schicksale zu erfahren. Die meisten haben zwar das Glück,
auf keine Oberfläche zu treffen, können also auf schnellstem Weg mit
dem Auftrag abbrechen, eine bloße Hintergrundfarbe wie etwa den Himmel
wiederzugeben. Andere Strahlen dagegen verstricken sich in eine durchsichtige
Glaskugel vom Descartes-Typ, wo ihnen zahllose Brechungen und Spiegelungen
bevorstünden, wenn die Ungeduld von Computergraphikprogrammen die maximal
zulässigen Rekursionen nicht künstlich begrenzen würde. Das
muß schon deshalb sein, weil ein Lichtstrahlspiel, das zwischen zwei
parallele und perfekte Spiegel geriete, nie wieder aufhören würde,
wohingegen Algorithmen durch endlichen Zeitverbrauch nachgerade definiert
sind.
Raytracing erzeugt also, kurz gesagt, aus dem Zusammenspiel eines unendlich
dünnen Lichtstrahls mit einer Menge zweidimensionaler Oberflächen im
virtuellen Raum schließlich physikalisch-reale Hochglanzbilder. Alle
Oberflächen, die die analytische Geometrie seit Descartes algebraisch
definieren kann, sind erlaubt, alle Interaktionen zwischen Lichtern,
spiegelnden und/oder teildurchsichtigen Oberflächen sind modellierbar.
Wann immer Ihnen ein Computerbild begegnet, dessen Glanzlichter wie sonst
nurmehr das himmlische Jerusalem glänzen und dessen Schatten scharf wie
sonst nurmehr in der Hölle fallen, liegt elementares Raytracing vor. Das
heißt aber leider auch, daß die optische Option namens Raytracing
mehr und weniger zeigt als die schlichte Wahrnehmung. Einfach weil der
Lichtstrahl unendlich dünn und das heißt nulldimensional ist, werden
alle lokalen Effekte maximiert, alle globalen dagegen unterdrückt. Die
Interaktion spielt nicht zwischen leuchtenden und beleuchteten Flächen,
sondern zwischen Lichtpunkten und Oberflächenpunkten. Deshalb sind
Spiegelglanzlichter ebenso hyperreal, wie matte Spiegelungen schlicht
unterbleiben. Ganz wie aus dem cartesischen Punktsubjekt in
mathematikhistorischer Konsequenz der Differentialkalkül von Newton und
Leibniz entsprang, so ist Raytracing, formal gesehen, eine einzige Folge
partieller Ableitungen. Was zählt, ist mithin die Differenz von Punkten,
was untergeht, die Ähnlichkeit von Flächen. Raytracing-Bilder, die
Vermeers wunderbarer Frau mit dem roten Hut Konkurrenz machen wollten,
hätten daher keine Schwierigkeiten mit dem scharfumgrenzten Glanzlicht,
das eine Lichtquelle von rechts vorn auf Nasenspitze und Unterlippe wirft, aber
unendliche Schwierigkeiten mit den roten Reflexionen, in die der Hut als ganzer
die linke Gesichtshälfte taucht. Raytracing, wie das cartesische
Punktsubjekt auch, ist bloße Idealisierung, die Vermeers Frau mit dem
rotem Hut notwendig verfehlt.
B
So kam es denn, daß die sogenannte Gemeinde der Computergraphiker
seit 1986, wenn auch nicht gerade mit fliegenden Fahnen, zum Gegenteil
übergelaufen ist. Holländisches Interieur nach Vermeer
hieß nicht bloß ein zeitfressendes Computerbild unter anderen,
sondern ein ganzes Programmierprogramm. Radiosity oder (in ungelenker
Verdeutschung) Lichtenergiekalkül soll besagen, daß eine sichtbare
Welt nicht mehr aus Strahlen und Flächenpunkten errechnet wird, sondern
aus leuchtenden und beleuchtenden Oberflächen. Damit kann die Farbe des
roten Hutes endlich tun, was das blutige Fachwort bluten verspricht: Die
Lichtenergie einer aktiven Oberfläche strömt streng nach Vermeer auf
alle passiven Nachbarflächen, die mit der aktiven nicht gerade im rechten
Winkel stehen. Den naheliegenden, aber allzu menschlichen Einwand, daß
die Augen solche Farbdiffusionen zu Zwecken der Wiedererkennung von Dingen
geradezu wegrechnen, läßt das Radiosity-Verfahren dabei nicht
durchgehen. Es geht schließlich ums Kalkül einer Welt, die auch
Augen sehen könnten, wenn sie nur sehen könnten. Technischer
gesprochen: das Cosinusgesetz, wie Johann Heinrich Lambert es 1760 für
perfekt diffuse Oberflächen aufgestellt hat, wird durch Integration
über alle beteiligten Flächenareale erfüllt.
Soweit die Theorie in ihrer mathematischen Eleganz, die übrigens
ebensowenig wie beim Raytracing aus der Computergraphik selber stammt. Am
Ursprung von Radiosity standen die in jedem Wortsinn teuren Probleme, die
ballistische Raketen beim Wiedereintritt in die Erdatmosphäre aufwarfen.
Ihre Metalloberfläche drohte im Konflikt zwischen extremer
Weltraumkälte und extremer Reibungshitze zu zerspringen, wenn die NASA
Fouriers analytische Theorie der Wärmediffusion von 1807 nicht entschieden
modernisiert hätte (um vom Challenger-Unfall ganz zu schweigen).
Radiosity ist mithin im Gegensatz zu Raytracing ein Notfallalgorithmus. Nur
in formaler Eleganz läßt sich die Integration als Umkehrfunktion der
Differentiation definieren, in bitterer numerischer Empirie dagegen frißt
sie dramatisch höhere Rechenzeiten. Brauchbar sind Radiosity-Programme
daher erst geworden, seitdem sie gar nicht mehr versprechen, ihr lineares
Gleichungssystem in einem einzigen Durchlauf zu knacken. Prosaischer gesagt:
man startet den Algorithmus, findet sich zunächst mit lauter Finsternissen
ab, legt die unter Programmierern berühmten Kaffeepausen ein, um
schließlich nach ein, zwei Stunden erste passable Erfolge der globalen
Lichtenergieverteilung zu begrüßen. Was die sogenannte Natur mit
ihrer Parallelberechnung in Nanosekunden schafft, treibt ihr angebliches
Digitaläquivalent zur Überbelastung.
Das cartesische Subjekt, idealisiert wie es war, bot eben darum alle
Vorzüge der Eleganz. Als dagegen das neunzehnte Jahrhundert mit Fourier
und Gauss, Maxwell und Boltzmann daran ging, Energien,
Oberflächenintegrale und Thermodynamiken zu berechnen, wurde dieses
Subjekt zumindest dysfunktional und zuhöchst - wie etwa auf
Möbiusbändern - schlichtweg verrückt. Der Schritt von der
Mechanik zum Feld, von Ableitungen zu Integralen bezog mithin einen
mathematischen Blankoscheck, den erst das laufende Jahrhundert eingelöst
hat. Digitalcomputer sind, wie Vilém Flusser nie zu betonen
unterließ, die einzig mögliche Antwort auf die Frage, die
Größe und Not des großen neunzehnten Jahrhunderts
ausmachte.
Digitalcomputer aber sind Digitalcomputer. Sie kennen nur endlose Folgen
von 0 und 1, anders gesagt: beliebige Summen aus beliebigen ganzzahligen
Zweierpotenzen. Schon die Zahl Pi, der alle Kreise, Kugeln und
cartesischen Schwindelanfälle entspringen, ist eine von Turings
computable numbers nur unter der Bedingung, bis zum gewünschten
Grenzwert angenähert zu werden. Das frißt Zeit, die die
Computergraphik nicht unbegrenzt hat. Das Radiosity-Verfahren eskamotiert daher
zu allererst alle Oberflächen, deren Gaußsche Krümmung nicht
null ist und bleibt. Während Raytracer für Kugeln und
Möbiusbänder, Kelche und Vasen geradezu prädestiniert sind,
reduziert bei Radiosity-Programmen ein Präprozessor alle geometrischen
Schönheiten erst einmal auf öde Drahtgitter, die ausschließlich
aus ebenen Flächenelementen wie Dreieck oder Viereck zusammengebastelt
sind. Die Einfallslosigkeit der Bauhausarchitektur kommt zu computergraphischen
Ehren, einfach weil die zur Lösung anstehenden Integrale andernfalls (wie
eine hübsche Formel lautet) prohibitiv schwierig würden. Solche
Plattheit legt aber nicht nur fest, welche Oberflächen darstellbar sind,
sondern auch, wie die Interaktionen zwischen ihnen mathematisch modelliert
werden. Klarerweise sollte eine leuchtende Fläche ihre Lichtenergien
für Rot, Grün und Blau allen anderen Flächen im genauen
Lambert-Maß des Winkels mitteilen, der zwischen den Flächen nun
einmal besteht. Das aber würde, horribile dictu, einen Rekurs auf
die Zahl Pi erzwingen. Deshalb blickt die leuchtende Fläche nicht
in jenem Halbkreis um sich, der aus jeder Wahrnehmung vertraut ist; sie bastelt
sich vielmehr aus Gründen der Rechenökonomie eine private
Manhattan-Block-Geometrie.[11] In
Radiosity-Bildern interagieren also, kaum anders als auf Mondrian-Bildern,
Rechtecke mit Rechtecken, auch wenn weder die einen noch die anderen welche
sind. Alle Glanzlichter, mit denen Raytracer prunken, verblassen in numerisch
angenäherten Integralen, die ja die Langeweile selber sind. Mit anderen
Worten: als Radiosity sieht sich die Computerarchitektur selber ins blind
binäre Auge. What you get is what you see, dieser grandiose Werbespruch
für moderne graphische Benutzeroberflächen, begegnet für einmal
seiner dialektischen Wahrheit: What you see is what you get. And what you got,
is a computer chip.
Das Wort Computergraphik gilt wortwörtlich. Hinter dem
Milliardengeschäft, die optische Welt noch einmal versprechen zu
können, verbirgt sich Kempelens und daher auch Benjamins schachspielender
Zwerg. Digitale Computer, zumindest solange John von Neumanns magistraler
Entwurf ihrer Architektur in Kraft bleibt, setzen dimensionslose Punkte, also
Bits oder Pixel, zu orthogonalen Speicherplätzen, Befehlssätzen usw.
zusammen. Das ist weder notwendig noch elegant, aber billig. Wir alle wissen
zum Beispiel, daß die Packungsdichten und folglich auch die
Interaktionsmöglichkeiten hexagonaler Bienenwaben viel höher liegen.
Aber for the time being, also für Sein und Zeit von heute, gelten
dümmere Gesetze. Raytracing ist eine Selbstabbildung des dimensionslosen
Punktes, die nur von Glanzlichtern und Rekursionsrekorden einigermaßen
umglänzt oder vernebelt wird. Radiosity ist gerade umgekehrt eine
Selbstabbildung der orthogonalen Chipfläche, die nur von blutigen
Farbdiffusionen und mühsamen Flächenunterteilungen einigermaßen
gekrümmt oder verrauscht wird. Raytracing als Differenzialkalkül
erschließt eine virtuelle Unendlichkeit, die sich wie bei Caspar David
Friedrich in unsere ebenso endliche wie romantische Welt hineinspiegeln
läßt. Radiosity als Integralkalkül schließt ein
virtuelles System, dessen Randbedingungen wie bei Vermeers Camera
obscura-Bildern konstant bleiben müssen, über sich selbst.
Klaustrophobe Landschaftsmalerei und klaustrophile Historienmalerei - beide
sind sie zu computergraphischer Hochform aufgelaufen.
Hätte ich statt einer halbtechnischen Einführung in die
Computergraphik also bloße Kochrezepte versprochen, wäre dieser
Kurzvortrag daher schon am Ende. Liebhaber von Interieurs würden
Radiosity-Programme aus dem Netz angeln, Liebhaber offener Horizonte dagegen
Raytracing-Programme. Und seitdem es, zumindest unter LINUX, die Blue Moon
Rendering Tools gibt, fiele auch das Entscheiden selber flach. Diese Software,
nicht minder wundersam als blaue Monde, berechnet nämlich virtuelle
Bildwelten im ersten Durchlauf nach globalen Abhängigkeiten im
Radiosity-Sinn, im zweiten dagegen nach lokalen Singularitäten im
Raytracing-Sinn. Sie verspricht mithin eine coincidentia oppositorum,
die nach allem Gesagten allerdings keine einfache Addition sein kann. Es
würde hier und heute zu weit führen, wenn ich zu erklären
suchte, warum bei solchen Zweischrittverfahren beileibe nicht erst der zweite
Schritt auf den ersten, sondern schon der erste auf den zweiten schielen
muß. Anders wären alle vier möglichen Fälle optischer
Energieübertragung gar nicht zu beherzigen.
Zum Glück läßt sich die Lehre aus den Blue Moon Rendering
Tools kürzer und formaler ziehen. Bereits als solche plaudern
computergraphische Zweischrittverfahren die bittere Wahrheit aus, daß
diffuse Reflexion und diffuse Refraktion nicht gleichzeitig mit spekulärer
Reflexion und spekulärer Refraktion zu haben sind. Lokalität oder
Spekularität ist und bleibt das Gegenteil von Globalität oder
Diffusivität, weil Integration das Gegenteil von Differentiation,
Radiosity das von Raytracing ist. Die Zeit des Weltbildes, als die Heideggers
Zorn unsere informationsgesteuerte Gegenwart schon 1938 bestimmte,[12] läuft mithin auf die Feststellung
hinaus, daß kein Algorithmus ein gleichermaßen detailliertes wie
integrales Weltbild erstellen kann. Zwischen Daßsein und Wassein,
Örtern und Flächen, Ableitungen und Integralen, Ereignissen und
Wiederholungen gibt es immer nur Kompromisse, aber keine Synthesen. Wobei der
Computergraphik als solcher freilich aller Dank dafür gebührt,
daß sie aus Exklusionen überhaupt Kompromisse hat machen
können. Denn was einst die philosophische Ästhetik, am prominestesten
wohl in Kants Kritik der Urteilskraft, über den Unterschied
zwischen Zeichnung und Kolorit, Ableitung und Integral festzulegen
beliebte[13], wird weder Tafelbildern
noch Computergraphiken gerecht.
3
Die Dinge, nach Anaxagoras' großem Wort, erscheinen und vergehen
gemäß der Gerechtigkeit. Ich habe dagegen zu zeigen versucht,
daß und warum die Bilder - beileibe nicht nur als Computergraphiken
-gemäß der Ungerechtigkeit erscheinen. Wirbeltieraugen trennen
zwischen Stäbchen und Zäpfchen als Sensoren für Wassein und
Daßsein, Bildgenuß und Ereigniskrieg. In Fortspinnung von Time
Axis Manipulation dürfte man also auch bei Raummanipulationen, die
schon als Titel den überstrapazierten Bildbegriff vorteilhaft ersetzen
könnten, an Dennis Gabor erinnern, der Heisenbergs quantenmechanische
Unschärferelation 1946 in nachrichtentechnischen Klartext übersetzte.
Wer nach dem Ort von Bildpunkten fragt, verliert deren Nachbarn aus dem Blick;
wer umgekehrt nach Punktnachbarschaften und das heißt Flächen fragt,
versäumt den Schock, der jeder Bildpunkt sein kann. Wer darüber
hinaus begreift, daß sich dieses Dilemma beim Übergang von der
Geometrie zur Optik noch einmal potenziert, kommt der Frage, deren Nichtantwort
die Computergraphik ist, schon einigermaßen nahe. Dann nämlich
spielen die Raummanipulationen nicht mehr bloß zwischen Oberflächen
und Punkten auf ihnen, sondern zwischen Oberflächen und
Oberflächenpunkten einerseits, Lichtkörpern und Punkten auf ihnen
andererseits. Mit anderen Worten: Integrale und Differentiale werden zu
Funktionen von Integralen und Differentialen. Was auf der rechten Seite der
Gleichung steht, hängt von der linken Seite ab und umgekehrt.
Die computergraphische Gerechtigkeit, wenn es sie denn gäbe, wäre
mithin ein Fredholmintegral der zweiten Gattung. Das nämlich "ist ein Typ
von Integral, dessen unbekannte Funktion sowohl innerhalb wie außerhalb
des Integrals auftritt" und dessen "wichtigste Anwendung" bezeichnenderweise
"in quantenphysikalischer Partikeldynamik liegt".[14] 1986, also während erste Radiosityprogramme den
guten alten Raytracern gerade Konkurrenz zu machen begannen, hat ein gewisser
Kajiya vom California Institute for Technology die Kühnheit aufgebracht,
seine Rendering Equation oder allgemeine Wiedergabegleichung nicht
minder paradox, nicht minder physikalistisch anzusetzen. Die Faulheit, die
unser aller Teil ist, braucht in Kajiyas Gleichung nur die eine oder andere
Menge von Variabeln in fiktive Konstanten umzufälschen, um entweder
Raytracing oder aber Radiosity als algorithmische Untermengen abgeleitet zu
haben. Der Schönheit der Quantenelektrodynamik aber ist mit Faulheiten
nicht gedient. Im Gegenteil: Seit der Rendering Equation schwebt jeder
Computergraphik ein Ziel vor, dessen Unerreichbarkeit ihr womöglich
verheißt, dereinst nicht ruhmloser zu enden als Brunelleschis gnadenlos
geometrische Linearperspektive. Computergraphik wäre erst dann
Computergraphik, wenn sie zu sehen geben könnte, was ungesehen erscheint -
optische Teilmengen quantenphysikalisch verstreuter Partikeldynamiken.
In Heideggers etymologischer Kurzsichtigkeit hieß
Phänomenologie, dieses philosophischgeschichtlich wirksamste von Lamberts
Zauberworten: legein ta phainonema, das Erscheinende sammeln. In
computergraphischer Weitsichtigkeit braucht solches Sammeln keinerlei Dasein
mehr, schon weil sich leuchtende Radiosity-Flächen für die bequemste
Projektionsfläche, strahlende Lichtpunkte für den schnellsten
Strahlverfolgungsweg entscheiden dürfen. Projektile haben Subjekt vs.
Objekt, die dümmste aller Oppositionen also, zu Grabe getragen. Unsere
Augen sind daher nicht nur in der HS 293 und ihren Cruise Missile-Kindern
über die Welt verstreut; sie dürfen seit Kajiyas Rendering
Equation erwarten, daß die Welt selber - zumindest unter der
Tarnkappe von Mikrochips - eines unsäglichen Tages ihr Bild werfen wird.
Legein ta phainomena, das Erscheinende sammeln, wird dadurch nicht einfacher.
[1] Vgl. Alan Watt, Fundamentals of
Three-Dimensional Computer Graphics. 2. Aufl. Wokingham-Reading-Menlo
Park-New York-Don Mills-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San Juan
1990, S. 353 f.
[2] Vgl. Friedrich Kittler, Real time
analysis. Time axis manipulation. In: Draculas Vermächtnis. Technische
Schriften. Leipzig 1993, S. 182 - 207.
[3] Martin Heidegger, Der Ursprung des
Kunstwerks. In: Holzwege. Frankfurt/M. 4. Aufl. 1963, S. 15.
[4] Vgl. Arthur K. Wheelock jr., Vermeer
and the Art of Painting. New Haven-London 1995.
[5] Vgl. Ernst Theodor Amadeus Hoffmann,
Der Sandmann. In: Fantasie- und Nachtstücke, hrsg. Walter
Müller-Seidel. München 1960, S. 362 f.
[6] Vgl. Michael Baxandall, Shadows and
Enlightenment. New Haven-London 1995.
[7] Rainer Maria Rilke, Die
Aufzeichnungen des Malte Laurids Brigge. Sämtliche Werke, hrsg. Ernst
Zinn. Wiesbaden, Frankfurt/M. 1955 - 1966, Bd, VI, S. 854.
[8] Vgl. Benoît Mandelbrot, Die
fraktale Geometrie der Natur. Basel 1991, S. ?.
[9] Zum folgenden vgl. Watt,
Fundamentals, S. 154 - 156.
[10] Vgl. René Descartes, Les
météores. In: Oeuvres et lettres, hrsg. André Bridoux.
Paris 1953, S. 230 - 244.
[11] Zum Verfahren der Nusselt-Analogie,
die Halbkugeln auf berechenbare Halbkuben herunterfährt, vgl. James D.
Foley, Andries van Dam, Steven K. Feiner, John F. Hughes, Computer
Graphics. Principles and Practice. 2. Aufl. Reading-Menlo Park-New York-Don
Mills-Wokingham-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San
Juan-Mailand-Paris 1990, S. 796.
[12] Vgl. Martin Heidegger, Die Zeit
des Weltbildes. Holzwege, S. 69 - 104.
[13] Vgl. Friedrich Kittler, Farben
und/oder Maschinen denken. In: Hyperkult, hrsg. XXX, YYY, ZZZ, S. AAA -
BBB.
[14] Alan und Mark Watt, Advanced
Animation and Rendering Techniques. Theory and Practice.
Wokingham-Reading-Menlo Park-New York-Don
Mills-Ontario-Amsterdam-Bonn-Sydney-Singapore-Tokyo-Madrid-San
Juan-Mailand-Paris-Mexico City-Seoul-Taipei 1992, S. 293.
|