ROBERT FISCHER

BILDER HÖREN, TÖNE SEHEN — NOTIZEN ÜBER AUDIOVISUELLE HOCHZEITEN

ESSAY

In früheren Zeiten näherten sich die Menschen den Göttern mit Musik und Tanz.

I Ging

Das Fernsehen ist noch immer nur illustriertes Radio. Technologie, Ästhetik und Inhalte des Fernsehens stammen von der Bebilderung der Sprache, und die orthodoxe TV-Ideologie hat es seither nie weiter gebracht. Die mächtig-schweren Kameras des „primitiven Fernsehens“ erlaubten im Prinzip nur die Direktübertragung von Ereignissen. Die Ablichtung von sprechenden Menschen - „Talking Heads“ - erwies sich als die einfachste und billigste „Fernseh-Produktion“. Der vordergründige Einsatz von Fernsehen besteht darin, einen RadioSprecher bis zur Gürtellinie abzulichten, der Nachrichten, Hintergrundinformationen, Kontext-Angaben, geschichtliche Hinweise ab Papier vorliest, worauf eventuell Live-footage eingespielt wird. Sit-Coms, Talk-Shows, TV-Kabarett, Panel-Discussions, Studio-Gäste sind die Weiterentwicklung des sprachgebundenen Fernsehens. Mit historischen Ausnahmen wurden outdoor-events auf dem europäischen Kontinent bis spät in die 60er Jahre mit Film gedreht, der dann im Studio „live“ kommentiert wurde. Das System hat die Techno-Kaste der Fernseh-Moderatoren ins Leben gerufen: Menschen ohne Unterleib, die in redundanter Weise mit Bildern konkurrieren, die aus einem anderen Ressort stammen, wo die Bilder stumm sind. Wenn der Sportredakteur, das Fußballmatch kommentierend, bemerkt, daß die Nummer 5 geschossen hat, und ein Tor mit einem „Goal!“ quittiert, habe ich das ja bereits mit meinen eigenen Augen gesehen. Progressive Sportredakteure quittieren jetzt einen Torschuß mit dem Kommentar: „Zehntausend Kehlen im Stadion schreien,Goal‘!“ Immerhin bringt der Kommentar manchmal Informationen, die sich nicht im Bild befinden. Ich habe sie aber oft bereits mit den eigenen Ohren gehört!

Die Kinder stürmen in die Wohnung. Nach dem langen Schultag auf der harten Schulbank sollten sie jetzt eigentlich das Federball-Spiel, den Gummi-Twist oder die Schlüssel zum Velo nehmen und eine Stunde lang rennen, springen und hüpfen. Sie schmeißen die Schulsachen in ihr Zimmer und stellen den Fernseher an: MTV - MUSIC TELEVISION („You hear it first“). Bummm! Die Wohnung beginnt zu beben. Die neueste Ladung stubenrein zurechtgeschusterten US Black Ghetto Beats drönt aus dem Apparat. Bummm Bummm Bummm! Die Mädchen werfen einen Blick auf die Mattscheibe. Sie kennen diesen Clip und verschwinden in ihr Zimmer ohne zurückzuschauen. In der Wohnung dröhnt es weiter. Ich überhöre die Diskussion im Kinderzimmer: Public Enemy soundso ... Lenny Kravitz soundso ... Rod Stewart ist doof ... Tina Turner ist alt ... Plötzlich stehen sie wieder vor dem Fernseher. Diesen Clip haben sie noch nicht gesehen, diesen Song haben sie noch nie gehört. Es wird kommentiert. Den Tanzschritt haben sie schon bei Dee Lite gesehen ... dem Tänzer werden wie immer die Beine abgeschnitten ... der Bildausschnitt ist lausig ... tanzende Köpfe sind völlig uninteressant ... der Schnitt ist viel zu schnell ... bei Tanzsequenzen sollte man längere Einstellungen machen ... der Schnitt stimmt nicht mit dem Takt überein ... die eingestreuten Blumen passen nicht zum aggressiven Ton: Die Kinder audiovisionieren. Zurück im Zimmer wird der Tanzschritt nachgemacht. Das wird wohl den Gummi-Twist, das Velo und das Federball-Spiel an der schon lange nicht mehr frischen Luft ersetzen müssen.

Die Research & Development Ingenieure vom MC AIR und Kaiser Elektronics haben 1987 ein „Integrated Helmet Mounted Display & Sight (HMDS) System“ entwickelt, das für Angriff-Szenarien im FT5-Kampfflugzeug-Simulator von McDonnell Aircraft eine Verdoppelung der Informations-Ratio gegenüber traditionellen Cockpit-Displays ergeben hat. Das „Agile Eye“-System vermittelt Informationen über ein im Helm integriertes Display und ist somit unabhängig von der Kopfposition des Piloten. Für den F-15E soll die Informations-Ratio gegenüber dem traditionellen Cockpit-Display bis zu 3.8:1 betragen. Die Ingenieure erhoffen sich zwar einen Ausgleich zwischen Helm- und Cockpit-Display durch die Entwicklung des „Big Picture Cockpit“, d. h. mittels eines größeren, mehrschichtigen Bildschirm-Displays mit verbesserter Auflösung. Die Forschung auf dem Gebiet von HDTV entspricht diesem Bedürfnis. Gegenüber der Verbesserung der Flat Panel Displays wird ebenfalls an eine größere Kapazität des HMDS-Systems gearbeitet. Mit dem Eye-Tracking-System, das die Bewegungen des Auges verfolgt, werden Informationen („Situation Awareness“) mit einem Nieder-Volt-Laser-Beam direkt auf die Netzhaut des Auges projiziert. Die notwendigen Informationen werden durchgehend als errechnete Daten - und nicht mehr als optische Erscheinungen - bereitgestellt und direkt an die kortikalen Befehlszentren des Piloten vermittelt. Die Sensoren der Kampfmaschine funktionieren als Wahrnehmungs-Prothesen des menschlichen Systems. Die Daten werden dem Rechner übergeben, der ein virtuelles Bild - als Zahlenreihe - rekonstruiert, das direkt den optischen Nerven weitergeleitet wird. Der Pilot fliegt in einem „Blind Cockpit“. Er braucht kein Fenster, keine „Aussicht“ mehr um Luft-Luft-, Luft-Boden- und System-Informationen zu erkennen. Das Bild der Vision als Abbild der Wirklichkeit ist im Wahrnehmungsprozeß verschwunden. Visuelle Information ist nicht mehr abhängig von der Materialität des Bildes.

1984 erhielt ich ein Besprechungsexemplar der Platte „Sonic Waters“ des französischen EM-Komponisten Michel Redolfi (Hat AKT 2002 1984), das die Resultate seiner Forschungen mit Unterwassermusik in California wiedergibt. In der Atmosphäre werden Töne mit einer Geschwindigkeit von 350 m/Sek. übertragen, während sie im Wasser 1450 m/Sek. erreichen. In der Atmosphäre werden die Töne über das Trommelfell wahrgenommen. Unter Wasser hören wir durch Resonanz der Knochen. Nicht das Trommelfell, sondern das ganze Knochengerüst vibriert. Der Hörer vernimmt die Töne mitten im Kopf. Der von den beiden Ohren bedingte Stereo-Effekt ist aufgehoben. Die Geschwindigkeit des Tons macht es unmöglich, verschiedene Quellen ausfindig zu machen. Redolfi hat Sound-Scores zusammengestellt, die sich besonders eignen, unter Wasser gehört zu werden. Er verwendete dabei die sehr „reinen“ Töne des damals experimentellen Synclavier des Dartmouth College sowie elektronisch präparierter Flöte und Harfe. Das Doppelalbum präsentiert auf der ersten Platte „trockene“ Musik (auf der A-Seite eine Süßwasser-Komposition, auf der B-Seite eine Salzwasser-Komposition). Die Kompositionen sind nach Worten des Musikers „kompatibel“, d. h. man kann sie ebensogut in der Luft wie unter Wasser hören. Sie wurden in beiden Milieus getestet und darauf abgestimmt, in jedem Fall einen „poetischen Raum“ zu schaffen. Auf der zweiten Platte hat Redolfi Unterwasser-Auf nahmen mittels Hydrophone (das flüssige Pendant zu Mikrophone) gemacht, eine Komposition, aufgenommen beim Eintauchen ins Meer am Strand von Lajolla, nach einiger Zeit hört man das Kratzen des Hydrophons auf den Steinen unter Wasser sowie eine Komposition, aufgenommen während einer Vorführung bei Sonnenuntergang in einem 37 Grad warmen und mit 15 Unterwasserlautsprechern bestückten Schwimmbad der Universität Kalifornien in San Diego, bei dem 120 Konzertbesucher die Musik mit den Knochen hörten. Als ich das Rezensionsexemplar erhielt, machte ich eine Stereo-Kassetten-Kopie, installierte den Walkman im Badezimmer, packte einen Lautsprecher in einen Plastiksack und versenkte ihn in meiner mit Wasser gefüllten Badewanne. Mit Schnorchel ausgerüstet, habe ich Redolfis Kompositionen in ihrem Naturelement ziemlich direkt in meinem Hirn „gehört“. Das System funktioniert übrigens auch mit anderer Musik, diese aber meistens nicht mit dem System. ZZTop oder Charlie Parker haben nichts unter Wasser zu suchen. Dafür tibetanischer Mönchsgesang und, natürlich, Walfisch-Gesang.

Träume sind stumm. Wenn ich im Traum Menschen sprechen, Geräusche tönen oder Musik erklingen „höre“, erträume ich Töne (oder soll man sagen: mit Tönen), wie ich Bilder erträume. Ich entnehme sie meinem persönlichen akustischen Speicher. Wenn jemand in meinem Traum Englisch oder Russisch spricht, weiß ich, daß er sich dieser Sprachen bedient, aber ich höre sie nicht. Wenn eine Tür mit einem Knall zufällt, wenn Wasser mächtig rauscht, wenn eine Klavier-Sonate im Mondschein-Hintergrund ertönt, weiß ich, daß Bilder Töne haben. Die akustischen Informationen nehmen aber eine besondere Stellung im Geschehen ein und haben im Primärprozeß den gleichen Gehalt wie die Bilder. Es scheint ganz so, als ob man selten Träume hat, in denen sich Ton und Bild gleichzeitig ereignen, jedoch einen je verschiedenen Bedeutungsinhalt tragen (additiv, substraktiv, potenzierend etc.). Im allgemeinen wird scheinbar in Bildern geträumt. Und diese Bilder sind stumm. Man darf annehmen, daß die Spezialisierung der Traumaktivität auf visuelles Material u.a. von der Konzentration der tiefenpsychologischen Forschung auf die Sprache des Bildes beeinflußt worden ist. Es gibt keine Psychologie der Traumtöne. Es ist also durchaus möglich, daß die abendländische Kultur vor allem in Bildern träumt, weil die Tiefenpsychologie sich ausschließlich mit Traumbildern beschäftigt. Man möchte meinen, auch in außereuropäischen Kulturen finde eine hauptsächlich visuelle Traumtätigkeit statt. Die Forschung primitiver Mythen hält narrative Ereignisse fest, die alle in Bilder und nur selten in Töne übersetzt sind. Dies mag wiederum an der Rezeptionsstruktur der westlichen Forschung liegen, die unter einem möglichen Bildimperialismus leidet und eine Tontraum-Ebene gar nicht wahrnimmt. Halbbewußte, traumverwandte Zustände der Besessenheit und Trance bei außereuropäischen Kulturen funktionieren jedoch fast ausschließlich auf einer akustischen Ebene. Die visuelle Trance scheint einer europäischen Tradition Vorbehalten zu sein, einer Tradition, die sich eines ausgefeilt kodifizierten, schriftlichen Sprachsystems bedient. Wir finden die rein visuelle Trance hauptsächlich bei sogenannten Hochkulturen. Die vordergründige Folgerung dieser Diskrepanz ließe sich denn folgendermaßen formulieren. Die schriftliche Kodifizierung der akustischen Sprache hat die Töne der Sprache in Bilder verwandelt. Die Linguistik ist mit der Erfindung der reproduzierbaren Tonträger entstanden. Aber noch heute werden Sprachen weitgehend unabhängig davon untersucht, ob sie über eine ausschließlich orale oder auch über eine zusätzlich literale Ebene verfügen. Benjamin Whorf untersuchte 1934 rund dreißig Weltsprachen, verglich dabei u. a. Hopi-Dialekte mit europäischen Hochkultur-Sprachen ohne Rücksicht auf mündliche oder schriftliche Modifizierung. Ein wesentlicher Beitrag zur Verwandlung der akustischen Ebene der Sprache in Bildinformation ist unter dem Einfluß der Psychoanalyse Ende des 19. Jahrhunderts, zur Zeit der Verbreitung der Photographie, entstanden. Der stumme Film der Pionierzeit bildete denn die perfekte Metapher für das Traumgeschehen der abendländisch-technologischen Kultur: Stummfilm-Bilder sind Traumbilder. Das Erlebnis der Projektion der Stummfilm-Traumbilder in die Außenwelt (auf die Leinwand) muß damals unerträglich gewesen sein. Man bemühte sich sogleich, eine Tonebene zu schaffen, die den stummen inneren (Film-/Traum-)Bildern ihre lärmige Äußerlichkeit zurückverlieh. Ton ist die Charakteristik von Wirklichkeit.

In der frühen Morgenstunde glitzert der Fluß Susquehanna in der Wintersonne. Das Licht reflektiert sich in tausend gebrochenen Sonnenpartikeln an der verrußten Decke des Lofts. Der 250-Quadratmeter-Raum befindet sich im obersten Stock eines der ältesten Backsteinhäuser von Owego, einem kleinen Städtchen unweit von Binghampton, Upstate New York. Im Loft ist das „Experimental TV-Center“ eingerichtet, ein Überbleibsel der gloriosen Techno-Hip- pie-Epoche der späten 60er Jahre. Paul Hocking hatte damals an der Universität von Binghampton eine Video-Klasse eingerichtet, die sich mit dem neuen Medium in Theorie und Praxis auseinandersetzte. Mitte der 70er Jahre legte sich der progressive Wind. Die Universität besann sich auf ihre akademischwissenschaftliche Aufgabe und schickte die Praxis fort. Hockings gründete das „TV-Center“ mit der bescheidenen Unterstützung des Council for the Arts. Er begegnete dem Autodidakten und Elektroniker David Jones, der während Jahren in Amsterdam für die elektrische Light-Show der „Video-Heads“ die Technik besorgt hatte und in den Catskills in einer Video-Kommune die Apparaturen für Gary Hill umbaute. Für das TV-Center konstruierte Jones 1976 eine volt-controlled Bildmanipulationsmaschine, die noch heute funktioniert. Jones baute ferner, inspiriert von den früheren Magnet-Experimenten von Paik, einen „TVWobbler“ sowie einen Frame-Buffer für 30 Bilder. Die wohl fünf Meter lange Konsole der Bildmanipulationsmaschine ist schwarz angemalt und mit Hunderten von schwarzen Knöpfen ausgerüstet. Man nehme also ein Video-Bild, lese es in den Frame-Buffer ein und beginne an den Knöpfen zu drehen. Man verwandle eine Rose „in mysteriösen Sandstein, in glitzernden Quarz, in schimmernden Goldstaub, in matten Blütenstaub oder in Erde, in Schlamm, in Eisen, in Stahl, in Wasser, in Luft. Man drehe und regle und kombiniere und verbinde, bis ein schönes Bild entsteht. Die Übergänge sind fließend. Eine psychedelisch-elektronische Bild-Meditation, die uns mit der Urmaterie visueller Wahrnehmung in Verbindung setzt. Nach nächtelanger Arbeit am Mischpult ist die Grenze zwischen Wirklichkeit und Traum aufgehoben. Das menschliche Nervensystem hat sich auf das Maschinensystem eingestimmt. Es ist eine organische Beziehung Mensch-Maschine entstanden. Die Maschine ist nicht mehr „außen“, aber wir sind auch nicht „innen“. Das Interessante am Konzept des „TV-Centers“ ist, daß es hier keinen Schnittplatz hat. Die Künstler bringen ihre Bilder (ab Band) mit, setzten die von der Technologie erlaubten „Effekte“ auf ihre Bilder und nehmen diese dann wieder mit nach Hause, um sie dort zu schneiden. Das Center ermöglicht lediglich die Bearbeitung von Bildsignalen. Es funktioniert wie eine elektronische Camera Obscura. Im Unterschied aber zur optischen Camera Obscura, wo die Erfassung der Bildinformation mit der Kameralinse erfolgt, um dann direkt auf die Filmemulsion übertragen zu werden, fangen wir hier das Bildsignal nach dem Eindringen durch die Linse ab und beginnen es zu transformieren, bevor wir es auf dem magnetischen Trägermaterial fixieren. Die elektronische Bild-Technologie erlaubt uns, auf der Ebene des maschinellen Nervensystems direkt in den Wahrnehmungsprozeß einzugreifen. Die videoptische Sehprothese hat die visuelle Erfahrung um neue Wahrnehmungsebenen bereichert. Das „Experimental TV- Center“ in Owego als elektronische Camera Obscura hat eine Entwicklung vorweggenommen, die mit der Digitalisierung des elektronischen Bildes heute einen festen Platz im Umgang mit visueller Information hat und die dabei ist, neue Programme für den menschlichen Neuro-Computer zu entwerfen.

Die magnetische Bildspeicherung Video bedient sich der gleichen Technologie wie die Tonspeicherung. Der Speichercode von Bild und Ton ist seit der Einführung von Video identisch. Zwar entwickelte sich in der Filmtechnologieeine optische Codierung von Ton, die den Ton an das Bild anglich. Der umgekehrte Weg, d.h. die Angleichung des Bildes an den Ton, hat aber die wissenschaftlich-experimentelle Conditio der Umkehrbarkeit des Experiments mit sich gebracht und eine hermeneutische Kompatibilität ermöglicht. Wenn die linguistischen Elementareinheiten von zwei neurologisch verschiedenen Kommunikationssystemen austauschbar reduktibel sind, kann eine neue linguistische Ebene entstehen. Roland Barthes meinte Ende der 50er Jahre, als viel die Rede von interdisziplinären Studien war, daß diese nur einen Sinn hätten, wenn aus dem Zusammenfügen verschiedener Disziplinen „eine neue Disziplin“ entstehe. Der Prozeß der Angleichung von Bild und Ton auf der Ebene der Kodifizierung wird heute mit der Digitalisierung von Informationseinheiten weitergeführt. Bild und Ton kann jetzt errechnet, d.h. synthetisch hergestellt werden. Die Sprache erlebt einen ähnlichen Prozeß mit der Bereitstellung computerunterstützter Sprachlektüre und -Synthese. Die digitalen Technologien bewirken eine Kompatibilität der Kommunikationssysteme, die schließlich zu einem Abbau ihrer bisher hierarchischen Disposition führen muß. In der Wüste von Zentralaustralien betreibt eine Gruppe von Warlpiri-Aborigines eine Fernsehstation mit eigenem Satelliten-Slot. Sie bedient sich einer audiovisuellen Technologie, wobei ihre auf einer oralen Tradition beruhende Kultur noch kaum von der westlichen alphabetisch-kodifizierten Kommunikationsstruktur kontaminiert wurde. Nun ist es zwar möglich, daß der Imperialismus der alphabetisch-codifizierten Machtstruktur die integrierte audiovisuelle Sprachsynthese als Unterdrückungs- und Manipulationsmechanismus weiterführen wird. Es ist aber davon auszugehen, daß außereuropäische Kulturen - seien es Hochkulturen oder solche, für die die orale Tradition noch in frischer Erinnerung ist - ihre eigene Kultur in den Umgang mit dieser westlichen Technologie einbringen werden. Die Vormachtstellung der alphabetischen Sprachcodifizierung kommt durch die Einführung der audiovisuellen Synthese ins Wanken.

Illustrationen von YACH

Robert Fischer
geb. 1942, Kulturkritiker, arbeitet im Dreieck von Kultur, Ethnologie und Kommunikationstheorie, schreibt u. a. über Video- und Medienkunst in der Neuen Zürcher Zeitung, jüngste Buch-Publikation (als Hg.): Kunst in der Schweiz, Köln 1991.
(Stand: 2019)
[© cinemabuch – seit über 60 Jahren mit Beiträgen zum Schweizer Film  ]