H. J. Krysmanski

Die Transformation der Massenmedien durch die Welt der vernetzten Computer - und was Wissenschaft damit zu tun hat

 

Wenn heute von den 'neuen Medien' geredet wird, ist nichts anderes gemeint, als daß alle Medien neu geworden sind durch die Welt der vernetzten Computer. Denn Medien als kulturtechnisches Unterfutter des gesellschaftlichen Zusammenhangs treten immer und überall als Medienmix, als mediale Systeme auf. Insofern sind beispielsweise die Printmedien durch die digitale Technologie beinahe eher umgewälzt worden als die Massenmedien Telefon, Radio und Fernsehen, die allerdings im Augenblick auf dramatische Weise in die Mixmaschine der Informations- und Kommunikationstechnologien hineingezogen werden.

Dabei ist die digitale Umgestaltung dieser Massenmedien auf den ersten Blick nicht einmal sonderlich weit vorangeschritten. Die maßgeblichen Medienmacher reden zwar viel über Cyberspace und versuchen einschlägige Macht- und Monopolpolitik zu treiben; sie sind aber in ihrem tatsächlichen Produktionsverhalten noch weit hinter den Möglichkeiten zurück. Auch die öffentliche Wissenschaft, fixiert auf die amerikanischen Verhältnisse, hat sich im Kampf um Finanzierungstöpfe dem Hype angeschlossen, arbeitet und produziert aber in einer eigenen Teilwelt der vernetzten Computer und Supercomputer, ohne in die öffentlichen Netze der Netze um der Verbreitung wahren Wissens willen nachhaltig hineinzuwirken.

Zwei der wichtigsten Akteure einer freien, demokratischen und zuverlässig informierten Öffentlichkeit - professionelle Medienmacher und etablierte Wissenschaftler - haben sich also auf die neue Situation der Medien noch nicht richtig eingelassen, obgleich ihrer beider Welten durch die Welt der vernetzten Computer längst vollkommen unterhöhlt sind. Ich will diese Situation im folgenden vor allem aus der Sicht der Soziologie beleuchten, von der ja einst allen Ernstes behauptet wurde, sie sei die Schlüsselwissenschaft der 20. Jahrhunderts. Das medien- bzw. kulturtechnische Analphabetentum dieser Wissenschaft ist typisch für die meisten sozialwissenschaftlichen Disziplinen einschließlich der Erziehungswissenschaft. Selbst ein so bedeutender Politikwissenschaftler wie Benjamin Barber verstieg sich jüngst zu der Behauptung, "that there is no convergence yet between computers, television and telephones, and [that] some argue it will never come." (Barber 1998, 2)

Eines allerdings gilt inzwischen für fast alle wissenschaftlichen Praxen: zumindest am institutionellen Arbeitsplatz hat die Netzkultur sie erfaßt (oder zumindest berührt); und selbstverständlich wird überall mithilfe von Computern wissenschaftlich produziert und publiziert. Es ist also an der Zeit, bezüglich des Computermediums den entscheidenden Weg von der Technikexpertise zur Kulturkompetenz zu gehen, was letztlich heißt, die Frage nach dem Verhältnis von wissenschaftlicher und massenmedialer Öffentlichkeit, nach den Entfaltungsbedingungen einer spätkapitalistischen - oder sollte man sagen: postmodernen - Weltkultur zu stellen. Welchen ‘Ansatz’ aber wählt man, um diesen Weg für die Sozialwissenschaften zu erhellen?

Die Systemtheorie bietet sich an, denn sie propagiert, vor allem in Gestalt Luhmanns, in ihren Zettelträumen seit längerem ein Bild von Gesellschaft, das sich in der virtuellen Kommunikation der Netze nunmehr zu realisieren scheint. Viele medienwissenschaftliche Autoren operieren selbst mit der Systemtheorie; doch ist sie, wie ich noch ausführen werde, eher part of the problem. Interessant sind auch Versuche, die Welt der vernetzten Computer als Subkultur- und Randgruppenphänomen zu betrachten; doch damit bleibt, um es vorwegzunehmen, außer Acht, daß wir es mit einer industriellen Revolution zu tun haben, daß Informationstechnologie zuallererst die Produktions- und Konsumtionssphäre umgewälzt hat, bevor sie als globale Kulturtechnologie auf uns zurückfiel. Natürlich wäre es reizvoll, den historisch-materialistischen Ansatz einer erweiterten Produktivkrafttheorie hervorzuholen - im Kontext einer umfassenden ökonomischen und kulturellen Theorie des Spätkapitalismus ist er auch vielversprechend. Doch denke ich, daß die Anschließbarkeit an den derzeitigen intellektuellen Diskurs am besten erhalten bleibt, wenn im folgenden bestimmte Fragestellungen der Wissenssoziologie aufgenommen werden - und insbesondere deren zentrale Frage: was ist Wahrheit?

Die Wissenssoziologie, das ist nämlich fast vergessen, hat schon sehr früh, vor allem etwa durch Karl Mannheims 'Ideologie und Utopie', auf die Relativierung des Wissens durch die modernen Massenmedien und die darin beschlossene geistige Gewaltausübung reagiert. Sie hat Kontexte und Strategien erarbeitet, um auch unter solchen Bedingungen, welche durch die digitalen Technologien noch komplizierter geworden sind, die Frage nach 'wahrem' oder zumindest 'orientierendem' Wissen sinnvoll stellen zu können - eine Frage, die zwar auch Luhmann umtrieb, die er aber bewußt suboptimal, in verbissener Abwehr des Historischen Materialismus, beantwortet hat. Mit Hilfe der Wissenssoziologie hingegen ist es möglich, die Zone der Virtualität des Gesellschaftlichen (die früher 'Ideologie und Utopie' hieß) als eine aus den sozio-ökonomischen Prozessen emergierende Sphäre zu begreifen, die einer, wie etwa Fredric Jameson sagt, spätkapitalistischen Logik folgt, welche begreifbar und schließlich und endlich auch bewußten Handlungen zugänglich ist.

Bevor ich mich mit den Vorstellungen und Begriffen von Virtualität, von Virtualisierung des Sozialen usw. auseinandersetze, möchte ich deshalb auf eine zentrale Einsicht von Fredric Jameson verweisen. Die subjekttheoretischen Implikationen des Aufkommens der immensen Kommunikations- und Computernetze, mit denen das globale System des gegenwärtigen multinationalen Kapitalismus inzwischen seine Kontexte steuert, münden, so Jameson, in dem Problem, daß das heutige Individuum über keine Wahrnehmungs- und Erkenntnisapparate verfügt, um diese neuen Hyper-Räume aufnehmen zu können. Dies ist eine historisch nicht unbekannte Situation, denn Wissens- bzw. Informationsexplosionen hat es immer wieder gegeben und sie mußten immer wieder in jahrhundertelanger ‘Nacharbeit’ eingeholt werden.

Typisch für die gegenwärtige Erkenntnissituation ist die Krise des geometrischen, euklidischen Raumverständnisses und der bisherigen Raumerfahrung durch das Subjekt, eine Krise, wie sie sich insbesondere im postmodernen urbanen Raum und natürlich im Umgang mit den Netzen manifestiert. Die Hauptthese von Jameson lautet, "daß es mit dieser neuesten Verwandlung von Räumlichkeit, daß es mit diesem Hyperraum gelungen ist, die Fähigkeit des Körpers zu überschreiten, sich selbst zu lokalisieren, seine unmittelbare Umgebung durch die Wahrnehmung zu strukturieren und kognitiv seine Position in einer vermeßbaren äußeren Welt durch Wahrnehmung und Erkenntnis zu bestimmen." (zit. in Bühl 1997, 355f.) Der Hyperraum stellt für Jameson eine unvermeidliche historische und sozio-ökonomische Realität dar. Der Cyberspace sei "die dritte große neuartige und weltweite Expansion des Kapitalismus."

‘Gesichertes’ Wissen ist unter diesen neuen Bedingungen nur erreichbar, wenn die Geistes- und Sozialwissenschaften sich auf ein Zeitalter der kultur- oder bewußtseinstechnologisch induzierten Abenteuer und Entdeckungen einlassen. Für diese Bereitschaft und Aktivität hat Jameson das Programm eines Cognitive Mapping vorgeschlagen: ein Programm der Kartierung, eine Jahrhundertanstrengung der Topologisierung und letztlich der ‘zivilisierenden Besiedlung’ jenes Hyperraums, der ja, trotz seiner Unübersichtlichkeit, ein Produkt der Geschichte, eine vom Menschen erzeugte Totalität ist. Cognitive Mapping ist also auch ein wissenssoziologisches Konzept, welches die evidente Relativierung des Wissens im Hyperraum nicht sich selbst überläßt, sondern dialektisch als gesellschaftliche Katastrophe und Fortschritt zugleich denkt. (Bühl 1997, 356)

 

Einige typische Zugänge zur virtuellen Welt der vernetzten Computer

Das globale System der vernetzten Computer, mit ungeheurer ökonomischer (und militärischer) Macht in die Welt gesetzt, taucht also nicht wie ein technologischer Schicksalsschlag in unserer Wirklichkeit auf, sondern als Entwicklungsstufe der dominanten Wirtschaftsweise bzw. Gesellschaftsformation. Und zu begreifen ist die Computerwelt nur, wenn klar ist, daß im sozio-ökonomischen Prozeß der Weg von der Technologie (von den Werkzeugen, den ‘Produktivkräften’) zur Kultur (zur wissenschaftlichen und ästhetischen Erkenntnis, zur Mündigkeit im Sinne von literacy) - und zurück - immer ein Weg ist, der über ‘Medien’ verläuft, in sich historisch herausbildenden ‘Medienlandschaften’, durch gesellschaftlich objektivierte Vermittlungsstrukturen zwischen Subjekt und Objekt.

Was also ist Virtualität? Für die meisten von uns gleicht sie dem Atlantischen Ozean, wie er den Mannschaften der Santa Maria, der Pinta und Nina nach drei Wochen auf See erschienen sein muß: als endlose, unheimliche Ursuppe zwischen Himmel und Hölle, in welcher unsere braven kleinen Existenzen sich aufzulösen drohen. Wir können uns an nichts anderes klammern als an die drei Karavellen (und deren Potential, einst zu Titanics, Atom-U-Booten, Supertankern und Kreuzfahrtschiffen zu werden) und an die kruden Karten in Kolumbus’ Kajüte.

Die Computer aber sind Karavellen, die sich ihren virtuellen Okeanos selbst erzeugen. Sie sind keine, wie irrtümlicherweise geglaubt wird, Maschinen wie alle vorhergehenden, sondern Elemente eines neuen symbolischen Systems, einer universellen, abstrakten Maschinerie, die mit Bedeutungen, representations und Zeichen handelt und ihre welterschließenden Metaphern und Allegorien nicht, wie Druckmaschine oder Cinemascope-Kamera, lediglich herstellt (das natürlich auch), sondern selbst von Grund auf aus Zeichen besteht. (Johnson 1997, 15) Da dieses symbolische System allerdings seine eigene Technik mitbringt, enthält es langfristig neue Möglichkeiten der Gestaltung von Gesellschaft durch Wissen und Wissenschaft.

Der einzige derzeit praktikable Zugang zu den Ereignissen in diesem computergenerierten Hyperraum oder Cyberspace (aus dem heraus längst die meisten ökonomischen und kulturellen Prozesse geformt und gesteuert werden) sind die ‘Benutzeroberflächen’, die Interfaces, die uns auf Millionen Monitoren entgegenleuchten. Warum sollten wir sie nicht Santa Maria, Pinta und Nina nennen? Unsere Fähigkeit, in den virtuellen Welten zu navigieren, hängt zunächst davon ab, wie wir optimale, sogar ‘investigative’ Interfaces entwerfen und organisieren. Wie einst die Romane von Charles Dickens uns durch die Welt der ersten industriellen Revolution steuerten, schreibt Steven Johnson, so ist im Zeitalter der virtuellen Welten die ‘Benutzeroberfläche’ das Medium des Cognitive Mapping. Um zu wissen, was der Hyperraum uns bringt, müssen die Sozialwissenschaften auch Aspekte ihrer Theorien als interfaces gestalten - und je besser das in den nächsten Jahrzehnten gelingt, um so genauer werden wir erfahren, was an Gesellschaft virtuell geworden ist.

Dies ist der Schlüssel, mit dem die gegenwärtig operierenden Sozialwissenschaften sich erst einmal in ein Verhältnis zu den gegenwärtig operierenden Massenmedien setzen können, ein Schlüssel, der sich - anders als die absurde Beobachter-Scholastik Luhmanns und seiner Schüler - auf das kulturtechnische Niveau des Symbolsystems der Computer einläßt, also Software nicht nur als Protokollschicht, sondern als eine neue kulturelle Praxis begreift, um auf dieser Basis gerade nicht von außen oder oben (aus dem 'Krähennest') die Entwicklung zu beobachten oder zu bespiegeln, sondern sich als Teil von ihr zu bewegen: learning by doing eben.

Die Suchbewegungen und Selbstexperimente bezüglich der Welt der vernetzten Computer und ihrer massenmedialen Implikationen sind glücklicherweise vielfältig und zum Teil auch spannend genug, um dem megalomanen Anspruch bestimmter Theoriekonzepte erst gar nicht verfallen zu müssen. Ich stelle im folgenden einige Zugänge zur virtuellen Welt der vernetzten Computer vor, aus denen sukzessive und in der Summe eine Vorstellung von der Entwicklung des Zusammenhangs von Wissenschaft, Massenmedien und Öffentlichkeit im digitalen Zeitalter entstehen wird. Die Autoren und Publikationen sind nach dem Zufallsprinzip arrangiert; sie alle aber umkreisen das entscheidende Phänomen 'Virtualität', dessen wir habhaft werden wollen - und so sind sie insofern typisch.

a) Typus 'Intellektuelle Cyberpunks'

Also: die Auseinandersetzung mit der Welt der vernetzten Computer geht nicht ohne Selbstversuche ab. Zu den wildesten Theoretikern des Cyberspace gehören Arthur Kroker und Michael A. Weinstein, in der Montrealer Szene großgeworden, genau wie der Regisseur David Cronenberg (‘Videodrome’ usw.). In ihrem Buch mit dem englischen Titel 'Data Trash. The Theory of the Virtual Class' sind Artikel aus der ersten Hälfte der 90er Jahre zusammengestellt. Und aus dem Montrealer Cyberpunk-Milieu stammt auch ihre appetitlichste These, die vom ‘menschlichen Fleisch, das in der Virtualität verdunstet’. Die beiden entwickeln dann aber, in der unmittelbaren Auseinandersetzung mit dem amerikanischen Nachbarn, eine von typisch kanadischem Abscheu geprägte ‘Kritik der politischen Ökonomie virtueller Realität’, in der durchaus eine umfassende Theorie des Spätkapitalismus steckt - auch wenn deren Form, wie so oft bei Linksradikalen, zur Ohnmacht verdammt. Das Buch handelt von den Erzeugern des 'Datenmülls': der 'virtuellen Klasse'. Sie sei die Verkörperung einer "aufsteigenden Politik des liberalen Faschismus und des Retrofaschismus" (Kroker / Weinstein 1997, 11). Die Autoren sprechen von "Möchtegern-Astronauten, die niemals eine Chance bekommen haben, den Mond zu betreten" (ebenda, 16), von "geschwätzigen Hype-Propheten des Information-Highways - von Präsident Bill Clinton (USA) bis Präsident Bill Gates (Microsoft)" (ebenda, 21) und schließlich vom ‘kreativen Zerstörungswerk’ (Schumpeter) des ‘Pan-Kapitalismus’, für den noch verschiedene andere Bezeichnungen ins Spiel kommen. "Es ist eine der herausragendsten Ironien, daß es eine primitive Form von Kapitalismus, ein Retro-Kapitalismus ist, der Virtualität umsetzt. Der visionäre Cyberkapitalist ist ein hybrides Monster aus Sozialdarwinismus und techno-populistischem Individualismus." (ebenda, 29) Zwar würden die neuen Manager-Eliten ihren ‘Willen zur Virtualität’ als eine ‘sanfte Ideologie’ verkaufen, doch entfalteten sie damit eine Ökonomie, die es in sich hat. "Der Kapitalismus ist [zum ersten Mal in der Geschichte] auf sich selbst angewiesen und sieht sich allein mit seinem mörderischen Double konfrontiert: dem Faschismus. Hier ist Kapitalismus nicht mehr ein Modell der Produktion und Konsumtion, sondern etwas ganz anderes: Nintendo-Kapitalismus...Im Zeitalter des Pan-Kapitalismus erhebt sich der Faschismus überall wieder. Er ist jedoch kein Faschismus mehr in seiner ursprünglichen europäischen Form [, sondern ein] Bündel von politischen Symptomen wie etwa die verhaßte eigene Existenz, der Wille zum Willen, der Wille zur Virtualität und der (todbringende) Wunschtraum der Ersetzung. Virtueller Faschismus ist eine soziale Bewegung im Sinne von Talcott Parsons" (ebenda, 91f.) usw. usf. Kroker und Weinstein sind letztlich Literaten, haben eine literarische Form entwickelt, sogar Rockmusik komponiert, um die kulturelle Anti-Stimmung unserer Techno-Epoche einzufangen, in welcher, wie sie sagen, unsere Körper sich weigern müssen, "als von der virtuellen Klasse weggeworfenes Fleisch übrigzubleiben". Und so hoffen sie auf die Subkultur der Computer-Kids, die sich anschicken, ihre Körper auf eigensinnige Weise für die Hyper-Text Virtualität einzurichten. Dieser alternative, subversive "Hyper-Text-Körper ist somit der Vorbote einer neuen Welt der multimedialen Politik, der fraktalen Ökonomie, von Anfangspersönlichkeiten und Beziehungen, die (auf kybernetischem Wege) durch Schnittstellen entstehen. Warum sollte die virtuelle Klasse [die] digitale Realität monopolisieren?" (ebenda, 33)

Für unser Verständnis der Massenmedien bedeutet dies, daß zweifellos auch in ihnen das Verhältnis von Kapital und Arbeit, von Wertabstraktion und konkreter Körperlichkeit wirksam ist, daß aber in einer Ökonomie, deren Leitindustrie die Kulturindustrie geworden ist, unter Verwertungsgesichtspunkten die auf die Spitze getriebene Abstraktion, die Virtualität, in eine besonders zerstörerische Beziehung zur 'Arbeitskraft' und sogar zu den Konsumenten tritt - während sich in dieser virtuellen Produktionsöffentlichkeit zugleich, unter Emanzipationsgesichtspunkten, vielfältige Subkulturen mit kulturtechnischen Kompetenzen herausbilden, die 'subversiv', als Hacker, als Cyberpunks usw. die hochgradig empfindliche Kultursphäre wieder vom Kopf auf die Füße stellen können - und dieses auch, in einem ongoing process, längst hier und da tun.

b) Typus 'Seriöse Informatiker'

Peter Fleissner und eine Gruppe von Mitarbeitern sammeln in ihrem Buch 'Der Mensch lebt nicht vom Bit allein...Information in Technik und Gesellschaft' Expertenwissen und Informationen über den Informationsbegriff, über geschichtliche Entwicklungslinien, Informationsverarbeitung in technischen und 'menschlichen' Systemen und über gesellschaftliche Aspekte von Informationsstrukturen, darunter Kapitel zur Technikgeschichte, zur Ökonomie, zum ‘Computer Integrated Manufacturing’, zu den Themen 'Wissenschaft und Forschung' und ‘Vernetzung’ sowie zur Strategie der Informatik in der Informationsgesellschaft. Also: viel Interessantes und vor allem Konkretes zu der trivialen Beobachtung, daß "der Computer unser Leben verändert und buchstäblich allgegenwärtig geworden" ist. (Fleissner et al 1997, XI) Zugleich macht man auch mit diesem Buch die - typische - Erfahrung, daß auf dem Buchmarkt erhältliche Informationen über Informatik fast ein Widerspruch in sich sind, weil die Halbwertzeit dieses Wissens sich kaum in die langwierigen Publikationsprozeduren des Printmediums fügt und weil praktisch alle Informationen zuvor schon in den hochreflexiven elektronischen Wissenschaftsnetzen abrufbar sind - so man zu suchen versteht. Neben den technikgeschichtlichen Kapiteln ist es vor allem ein Abschnitt über ‘Informationsverarbeitung in menschlichen Systemen’, der die meisten Anregungen zum Problem der Virtualität bietet. Schon der Titel allerdings ist vertrackt, weil es ja eigentlich um die Frage geht, inwieweit menschliches Denken zum Modell für ‘maschinelle informationsverarbeitende Systeme’ werden kann bzw. schon geworden ist. Die Schulen der ‘Kognitionswissenschaft’, die dann zuvörderst zu Rate gezogen werden, hatten sich aber ihrerseits schon, salopp gesprochen, auf die Computermetapher des Gehirns geeinigt. (ebenda, 115) Menschliches Denken wird dort also schon technologisch verkürzt begriffen. So bereitet denn all dieses ‘computational modelling of psychological theories’ (ebenda, 119) umgekehrt jene verarmte, kulturferne Architektonik des virtuellen Computerraums vor, auf die wiederum unsere Kultureliten nur verächtliche Blicke werfen, bevor sie zurück in die Welt der Bücher flüchten. Zwei einander bedingende Auswege aus dieser verengten Sichtweise auf menschliche Informationsverarbeitung mittels Computertechnologie werden angesprochen: Sprachtheorien wie die von Whorf, welche die Sprache (auch der Computer) nicht nur als Informationsträger betrachten, sondern als Möglichkeit, die Wirklichkeit symbolisch zu sehen (ebenda, 120); und die wissenssoziologische Grundeinsicht, daß Technologien immer Medien sind: Produkt der menschlichen Kreativität (und dieser dadurch prinzipiell unterlegen) und zugleich einzige Möglichkeit, uns zu ‘objektivieren’, uns auszudrücken. Deshalb sind wir gezwungen, neue Technologien und schon gar neue Kommunikationstechnologien immer wieder, ‘mit aller Macht’, gesellschaftlich und kulturell einzuholen. In einem emanzipativen Kontext gilt es geradezu, Technik durch Kultur zu kolonialisieren. Hierzu bieten insbesondere die eingestreuten Hinweise auf Bolter, ‘Writing Space’, und Febvre / Martin, ‘The Coming of the Book’, wichtige Anknüpfungspunkte. Ein negatives Modell für die gesellschaftliche Kolonialisierung der Technik stellt die Computer Integrated Warfare dar. Nicht zuletzt politisch lobenswert (und überhaupt nicht selbstverständlich) ist es, daß Fleissner et al diesem Thema der faktischen Verdampfung von Fleisch durch Virtualität ein ganzes Kapitel widmen.

Die Massenmedien, das wird in einer solchen Faktensammlung über die Welt der vernetzten Computer überdeutlich, werden in dreifacher Weise durch diese technologische Entwicklung transformiert: zum einen, sozusagen 'rein technisch', verdrängen digitale Techniken (weil einfacher, schneller, billiger, flexibler usw.) mit wachsender Geschwindigkeit ihre analogen Vorgänger. Da sie aber deren 'kulturtechnische' Eigenschaften simulieren können, hat das in bestimmten Bereichen der Massenmedien, ob das die 'Neue Zürcher Zeitung', 'arte' oder 'Hollywoodfilme' sind, bezüglich der Erzählformen und Inhalte zunächst keine besonders auffälligen Folgen. Zweitens läßt sich also sogar sagen, daß mithilfe der neuen Techniken gegen deren kulturelles Transformationspotential angegangen werden kann (was aber letztlich nur aufschiebende Wirkung hat, denn diese Produkte werden im virtuellen Milieu immer 'bemühter' wirken). Drittens schließlich geht es um den Haupttrend; hier bleibt für die Medientheorie der Golfkrieg von 1991 - Desinformation als System - das Schlüsseldatum: wir werden uns an die Möglichkeit der völligen Virtualisierung der massenmedialen Inhalte und Informationen 'gewöhnen' müssen. Es wird nichts anderes übrig bleiben, als aus dieser Lage heraus zu erforschen, woher 'das Rettende naht'.

c) Typus 'Schriftgelehrter''

Eine erstaunliche Eigenschaft der Welt der vernetzten Computer ist sicherlich ihre Fähigkeit, zur Bibliothek aller Bibliotheken, zum Speichermedium des gesamten verschrifteten Wissens werden zu können. Auf diesen Aspekt hat sich Hartmut Winkler mit seinem Buch 'Docuverse. Zur Medientheorie der Computer' versteift. Allerdings serviert er, nicht zufällig, diese Seite der virtuellen Welt ganz und gar aus deutscher Sicht, aus verquälten Tagungsdiskussionen mit der ‘Kasseler Schule’ um Kittler, Bolz und Tholen einerseits und mit dem Ars Electronica Kreis um Weibel und Rötzer andererseits, aus dem Unbehagen über das Jahr 1989 mit seinem "teigigen Kanzler und der potentiellen Verewigung/Globalisierung der Bürgerherrlichkeit" (Winkler 1997, 358) und aus den Erfahrungen eines ‘IBM-PC-Programmierers alter Prägung’, der es, nach der (längst überholten) Unterscheidung Umberto Ecos, mit den bildlosen, abstrakten, protestantischen PCs hält und nicht mit den bebilderten Schirmen für die katholische Apple-Gemeinde. (ebenda, 365) Jedenfalls vertritt Winkler die These, daß die vernetzten Rechner eine globale Infrastruktur, ein "Universum der maschinenlesbaren Dokumente, Programme und Projekte" darstellen, das zwar "technisch, gesellschaftlich und institutionell eigenen Regeln und eigenen medialen Gesetzmäßigkeiten folgt", aber im wesentlichen eine Welt der Schrift, der Schriften bleibt, "in keiner Weise sinnlich und in keiner Weise visuell" - eben ein ‘Docuverse’. (ebenda, 9f.) Diese erstaunliche Verengung des Blicks führt zu vielen schönen, intelligenten Einzelbeobachtungen. Doch wenn die Welt der vernetzten Computer tatsächlich nur für die technische Ermöglichung des Traums von der Bibliothek aller Bibliotheken gehalten wird, kann die Frage, warum es zu dieser technologischen Revolution überhaupt gekommen ist, nicht beantwortet werden. Und in der Tat, Winkler ist verblüfft darüber, daß "eine so grundsätzliche Innovation, ein so grundsätzlicher Umbau der Medienlandschaft überhaupt stattfindet". Er fragt tatsächlich, in aller Unschuld, was diesen Umbau erzwingt und warum "Millionen von Privatleuten Geld, Freizeit und Lebensenergie aufwenden, um Zutritt zu dem neuen Universum zu erhalten". Und statt das Offensichtliche zu antworten, zwingt er sich zu einer Perspektive und einem methodischen Ansatz auf der Basis der These, "daß es eigentlich um Wünsche und nicht um harte Fakten geht". Kurz gesagt, um Microsoft zu verstehen, müsse man "den Blick umlenken auf die Faszination, aus der die Entwicklung ihre Kraft bezieht." (ebenda, 12) Andererseits weiß Winkler durchaus, daß man mit solchen Thesen zwar im kulturdeutschen Raum bestehen kann, nicht aber in der großen weiten Welt. So findet sich im Anhang des Buches folgendes Geständnis: "Auf einer Tagung habe ich den schüchternen Versuch gemacht, zumindest den Zusammenhang zu benennen, der zwischen der globalen Arbeitsteilung und dem Kommunikationsbedarf und damit der Entwicklung der Medien besteht. Dafür aber bin ich entsetzlich geprügelt worden, weil man der Meinung war, solch marxistische Restbestände seien inakzeptabel, wo man doch inzwischen wisse, daß nicht die Ökonomie der Motor aller Dinge sei." (ebenda, 367) Es gehört sicherlich zu den Gesetzmäßigkeiten der 'pan-kapitalistischen Ökonomie', daß sie am besten funktioniert, wenn ihre historischen und allgemeinen Bedingungen gar nicht thematisiert oder, noch besser, mythisch überhöht werden. Insofern endet auch diese deutsche Version der Virtualität als "Strategie im Reich der Wünsche" (ebenda, 331) - ohne daß allerdings die praktischen Implikationen der Virtualisierung des Schriftverkehrs ganz vergessen würden.

Bei den Machern der Massenmedien ist diese Sicht auf die Welt der vernetzten Computer weit verbreitet. Kaum ein arriviertes Printmedium, daß nicht damit begonnen hätte, seine Archive und Jahrgänge zu digitalisieren und auf den Netzen partiell verfügbar zu machen; kaum ein Redakteur, der nicht im Zuge von Recherchen zahllose Dokumente vom Netz herunterladen würde. Das 'Docuverse' dehnt sich also in der Tat ungeheuer aus. Dennoch ist das nur die halbe Wahrheit, weil selbstverständlich die Welt der Texte nunmehr auch einem ganz neuen, der digitalen Netztechnik entspringenden Gesetz unterliegt: dem Gesetz der nomadisierenden, der 'sinnlosen' Sinnverknüpfungen. Hier werden nicht-intendierte Folgen des Schriftverkehrs aktiviert, welchen weder die Auswerter in den Nachrichtendiensten noch die traditionellen literati gewachsen sind. Außerdem können Übersetzungen und Sprachanalysen in Windeseile hergestellt werden; die lingua franca des Englischen breitet sich aus, unter deren alles überwucherndem Netz sich zugleich ein neuer Typus von Sprachenvielfalt (durch Übersetzungssoftware an den globalen Prozeß gebunden) auf lokaler Ebene etabliert usw. Vor allem aber wird die Welt des verschrifteten Wissens immer stärker in scheinbar lediglich visuelle, in Wirklichkeit aber strukturelle und prozessuale Muster eingebunden, welche - z.B. als 'Interface Culture' (s.u.) - die Entfaltung von gesellschaftlichem Sinn künftig viel stärker bestimmen werden als die verschrifteten Inhalte unserer kulturellen Tradition.

d) Typus 'Feuilletonisten'

Die mediale Selbstreflexion der gegenwärtig produktiven Intellektuellen-Generationen läuft auf Hochtouren. Bezugspunkt der Essays des suhrkamp-Bändchens ‘Mediengenerationen’, herausgegeben von Jochen Hörisch, ist die Sozialisationstheorie vom formativen (und ‘formatierenden’) Einfluß der medientechnologischen Entwicklung auf diejenigen Gruppen, die derzeit in den Feuilletons das Sagen haben bzw. um die ‘Macht’ kämpfen’: die 68er (‘noch rüstig’) und die 89er (‘Bocksgesänge’). Weitgehend autobiographisch wird das Hinübergleiten des intellektuellen Diskurses aus der Moderne in die Postmoderne beschrieben, von der kämpferischen Suche nach Wahrheit (unterstützt vom ‘Wahrheitsfernsehen’ der 60er, das Stefan Aust mit Spiegel TV einst weiterführen wollte) zur Absage an die Möglichkeit von Wahrheit (unterstützt von ‘Reality TV’). Der von keiner Kenntnis der Produktionswirklichkeit des ‘Medienkomplexes’ getrübte Luhmannsche Topos von der Mediatisierung der Gesellschaft hält das Bändchen wohl zusammen: "In der operativ aktuellen Gegenwart [können] die Welt, wie sie ist, und die Welt, wie sie beobachtet wird, nicht unterschieden werden." (zit. in Hörisch 1997, 54) Von solchem Schwebepunkt aus läßt sich die 68er-Bewegung zunächst einmal trefflich charakterisieren: Uwe C. Steiner spricht von einer TV-Bewegung, deren Selbstverständnis, endlich die "Autorität von Eltern, Politikern, Ordinarien und Institutionen" zu demontieren, eigentlich auf der gesellschaftlichen Wirkung einer neuen Medientechnologie beruhte. "Via Bildschirm ist auf der Bühne des Sozialen die Grenze zwischen repräsentativem Vordergrund und privatem Hintergrund systematisch verwischt worden. Die Informationshierachien haben sich umgekehrt: die Führungsfiguren von heute müssen der totalen Überwachung durch die Medien gewärtig sein, während sie im vorelektronischen Zeitalter den Zugang zu ihrer Person noch systematisch abschirmen konnten." (ebenda, 30f.) Hinzu kam wohl auch, daß für diese Generation mit dem Fernsehen erstmals ‘die weltweite Vernetzung und das entsprechende Verbreitungstempo’ hergestellt und damit eine neue Raumwahrnehmung, ein neues Verhältnis von Nähe und Ferne, vorbereitet wurden. Das alles ist schön und plausibel, illustriert den Zusammenhang zwischen Technologieentwicklung und kultureller Sozialisation, führt dann aber auch, sobald die 89er das Sagen über sich bekommen, mitten in den affirmativen Hype der Gegenwart. Was hatte Winkler (1997, 365) noch, ganz unakademisch, über Norbert Bolz gesagt, der unter den Feuilletonisten dieses Bändchens ganz besonders die Stimme erhebt? "Bolz hat irgendwann kalt berechnet, daß diese Republik einen Medienfuzzi braucht, der ihr in genügend gebildeten Worten sagt, was sie hören will, und es hat funktioniert." Dessen Abrechnung mit der Kritischen Theorie der Frankfurter Schule wird den Bossen der Deutschen Bank denn auch wie Honig über die Konten laufen. Die Fernsehredaktionen selbst seien, sagt Bolz mit Schelsky, "das ideale Biotop des ‘kritischen Bewußtseins’" geworden: "Gerade die pathetischsten Kritiker der Massenmedien sind ihre skrupellosesten Nutzer." (Bolz, in Hörisch 1997, 78f.) Die nicht unsympathischen Macher, welche einem hierzu einfallen, dürften den Machtanspruch dieser nächsten Generation - die inhaltlich nichts zu bieten hat als die Hinkelsteine Niklas Luhmann, Arnold Gehlen und Odo Marquard - zu Recht nicht gerne hören. Doch führt Bolz den Befreiungsschlag gegenüber modernistischen Mahnern der politischen Korrektheit, gegenüber ‘Entrüstungspessimisten‘ (Nietzsche) usw. nicht ungeschickt, hat auch ein Gespür für den theoretischen Fortschritt im Postmodernismus, bis er selbst in einen "neuen Pathos des planetarischen Bewußtseins" hineinstolpert: "One World, Internet, Netzwerk, Ökologie, Neue Ethik, Untergang des Kommunismus, Globalisierung, Multikulturalität" (ebenda, 78). ‘Pan-Kapitalismus’ nannten bekanntlich Kroker und Weinstein das. Wie sie erkennt Bolz einen Gegensatz von ‘Fleisch’ und ‘Virtualität’, doch macht er ihm keine Angst. "Wenn ich recht sehe," schreibt er, "verfolgen die neuen Mediengenerationen eine Doppelstrategie: Naturalisierung und Virtualisierung der Wirklichkeit." (ebenda, 87) Im ökologischen Diskurs, argumentiert - ‘retro-faschistischen’ Geistes? - er weiter, "nimmt die Natur genau die Stelle ein, die im revolutionären Diskurs noch das Proletariat innehatte: unterdrückt, beleidigt, ausgebeutet". So locker läßt sich Fleisch verdunsten. Um dann, komplementär dazu, "die ‘Rettung’ der wirklichen Wirklichkeit überhaupt auch nur denken zu können", müsse man sie, so Bolz, nur noch "zu einer Wirklichkeitsmöglichkeit unter anderen depotenzieren - gleichsam zur Real-Life-Option im Menü der virtuellen Realitäten." (ebenda, 88) Mit anderen Worten, diese Mediengeneration wird alles mit sich machen lassen.

Diese Mediengeneration gibt aber in den Massenmedien auch den Ton an, wenn es um deren reflexive Selbstbestätigung geht. Besonders komisch mutete das an, als 1996 mit dem Erscheinen der definitiven Ausgabe von Luhmanns 'Die Realität der Massenmedien' sich alle möglichen Redaktionen bemüßigt fühlten, diese hochtheoretische Monomanie zu paraphrasieren und so zu tun, als hätten Luhmanns ramblings etwas mit der eigenen Praxis zu tun, allen voran 'Der Spiegel'. Doch der Kaiser hat keine neuen Kleider. Die Funktion dieses Hype-Mix aber ist klar: die neuen Kulturtechniken, die neuen Kommunikationsformen, die neuen Erfahrungen im Hyperraum müssen so interpretiert werden, daß sich insbesondere bezüglich der Machtverhältnisse in der Produktionsöffentlichkeit nichts ändert, daß nicht etwa Netzkompetenz in Kulturkompetenz und schließlich in Entscheidungskompetenz hinübergleitet, daß nicht etwa eine Zirkulation und Ablösung der massenmedialen Herrschaftseliten in Gang kommt. Und in dieser Hinsicht, bei der Vermittlung einer Weltsicht, in der alles Neue beim Alten bleibt, war Luhmann wirklich der Meister.

e) Typus 'Hilflose Empiriker'

Die ‘wirkliche Realität’ der Virtualität mit der empirischen Ausrüstung der Kommunikations- bzw. Publizistikwissenschaft fassen zu wollen, ist dagegen das erklärte Ziel von Publikationen wie den von Irene Neverla (‘Das Netz-Medium’) respektive Lutz M. Hagen (‘Online-Medien als Quellen politischer Information’) herausgegebenen Sammelbänden. Die erkenntnistheoretische Problematik aber bleibt uns erhalten, denn gerade die erfreuliche Nüchternheit und Seriosität dieser Publikationen hängt davon ab, daß die meisten Autoren an einer wohlausgestalteten, professionellen Beobachterposition außerhalb ihres Gegenstandes, des Netz-Mediums, festhalten - und damit neben ‘Hype’ auch weitgehend ‘Beteiligung an der Entwicklung’ vermeiden. Siegfried Weischenberg beispielsweise (‘Pull, Push und Medien-Pfusch’) verteidigt einerseits, völlig zu recht, journalistische Kompetenz und einen sozialwissenschaftlichen Begriff von Medien "primär als institutionalisierte soziale Kommunikations- und Handlungskontexte - mit Zulieferbetrieben, Produktionsapparaten und differenzierten Berufsrollen" (in Neverla 1998, 52) gegen die voreilige Erhebung des World Wide Web zum Medium in diesem Sinne. Andererseits scheint er - entlang Kubiceks fragwürdiger Unterscheidung von Medien erster Ordnung (‘ohne Hintergrund und Organisation’, wie Telefon und Telefax) und zweiter Ordnung (im Sinne von Massenmedien) - das Internet ("trotz Net-Browsern und erheblicher Vergrößerung des Zugriffs aufs Netz") für wenig mehr als ein ‘Telefon-Netz’ zu halten. Wer aber tagtäglich mit dem Internet/WWW auch wissenschaftlich zu arbeiten begonnen hat, müßte wissen, daß hinter dem Browser-Thema nicht nur das Börsengerangel zwischen Microsoft und Netscape steht (in Neverla 1998, 56), sondern - wie hinsichtlich ‘channels’, zwischengeschalteten Providern usw. auch - die Tatsache der massenmedialen Organisation von Zugängen zu Information und Wissen. Und wo hat es jemals im Telefonnetz eine derart komplexe und funktionale Vermittlungsstruktur gegeben wie die Welt der websites, homepages und aller übrigen Formen von interfaces? So geht es eher um die Frage, wie diese neue Technologie sich in unsere alltägliche Kreativität und Kommunikation ‘hineinarbeitet’, eine Frage, die beispielsweise der Herausgeber des Online-Magazins Feed, Steven Johnson, mit der detaillierten Beschreibung einer emergierenden Interface Culture beantwortet hat (s.u.). Das WWW, so gesehen, hat inzwischen diese Stufe einer ‘Kultur’ auch insofern erreicht, als es nur noch wächst und wachsen kann, indem es sich auf die übrigen Massenmedien bezieht und diesen seinerseits Beziehungen zu sich aufzwingt. Die empirischen Untersuchungen der Nürnberger Forschungsgruppe um Lutz M. Hagen bestätigen ansatzweise die Dynamik dieses neuen Elements im massenmedialen Stratum, auch wenn sie nur eine (nun schon über 2 Jahre alte) ‘Momentaufnahme’ bieten. Der Nutzertyp des ‘introvertierten Technikfans’ wird nach diesen Befunden immer mehr vom Typus des ‘kommunikativen Innovatoren’, des ‘Meinungsführers’, ergänzt und verdrängt. Die (nachwachsenden) Intellektuellen laufen also dem neuen Medium zu. Im Vordergrund steht, sieht man von der zunehmenden Kommerzialisierung ab, zwar noch immer die interpersonelle Kommunikation, doch Differenzierung und Spezialisierung schreiten voran. So war es beispielsweise schon 1996 selbstverständlich, daß die "aktuellen politischen Redaktionen in den herkömmlichen Massenmedien unterschiedlicher Art" sich der Online-Medien in beachtlichem Umfang zu Recherchezwecken bedienten (in Hagen 1998, 15) - wobei das Konzept der ‘Recherche’ selbst, über die üblichen journalistischen und wissenschaftlichen Routinen hinaus, angesichts der netztypischen ‘nomadisierenden Sinnverknüpfungen’ in Bewegung gerät. Auch die Nürnberger Untersuchungen aber, die ja nach Online-Quellen politischer Informationen fragten, gingen kaum gesondert auf die im Netz bereits komplex verknüpften Bestände wissenschaftlichen Wissens ein. Im politikwissenschaftlichen Überblicksartikel von Theodor Zipfel (‘Online-Medien und politische Kommunikation im demokratischen System’) wird mit keinem Wort die Frage angesprochen, inwieweit Politikwissenschaft selbst auf dem Netz vermittelt ist. (in Hagen 1998, 20ff.) Bei befragten Redakteuren rangierte die Informationsquelle Hochschulen/Forschungseinrichtungen an vorletzter Stelle. (Winfried Schulz / Daniela Leidner, in Hagen 1998, 182) Dabei ist die steigende Repräsentation des wissenschaftlichen Universums, ob in disziplinärer oder in individueller Gestalt, insgesamt das bemerkenswerteste Phänomen des Internet. Zwar stehen diesem Angebot, dem breitesten und qualifiziertesten auf dem Netz, offenbar noch keine Massen kompetenter Nutzer gegenüber (noch nicht einmal in den jeweiligen Disziplinen); und die dominanten kommerziellen Diffundeure von Online-Medien haben (trotz aller Lippenbekenntnisse) an der massenhaften, kostenfreien Erschließung des wissenschaftlichen Wissens überhaupt kein Interesse. Doch wäre es gerade deswegen nicht uninteressant, wenn empirische Netz-Forschungen - was natürlich mit ‘Eingreifen’ in diesen Medienprozess verbunden wäre - die Präsenz, Strukturierung und Zugänglichkeit wissenschaftlichen Wissens auf den Netzen mit vorantreiben würden. Dies könnte allein schon dadurch geschehen, daß der Forschungsprozess selbst sich, wo der Gegenstand es nahelegt, wenigstens partiell auf dem Netz abspielte und auch seinen aktuellen Progreß elektronisch veröffentlichte - was wiederum mit beträchtlichen (auch technischen) Innovationen verbunden sein müßte. Aber: warum sollte sich Virtualität durch Virtualität nicht noch besser erforschen und erklären lassen?

Empirische Forschungen über Massenmedien (insbesondere Wirkungsforschung) sind natürlich ein etablierter und in vieler Hinsicht auch einflußreicher Forschungszweig. Mit dem Prozeß der Virtualisierung von gesellschaftlichen Prozessen allerdings, also mit einem Vorgang, in welchem kulturtechnische Methoden selbst eine Wirklichkeit erzeugen, die nicht nur 'imaginär' ist, sondern Teil der ökonomischen Realität, sind diese Methoden nunmehr auch einzig und allein in der Lage, diese Wirklichkeit adäquat zu untersuchen. Diese eigenartige neue 'Empirie' hat sich ungeheuer beschleunigt und verändert auch die 'alte': Teilnehmerzahlen ('Zugriffe'), Verhaltensmuster, Einstellungen, Kontakte und Interaktionen lassen sich im Augenblick ihres Vollzugs 'statistisch' festhalten und, mit entsprechender Software, genauso schnell auswerten und interpretieren. Ja, man kann sagen, daß eine bestimmte Art 'empirischer' Forschung (oder Selbsterforschung) unabdingbarer Teil des virtuellen Realitätsprozesses geworden ist. Und auch hier gilt - außer vielleicht in der unter diesem Aspekt durchaus realistischen direkten Abhängigkeit von Einschaltquoten -, daß die Tiefe der Transformation der Massenmedien durch Virtualisierung noch gar nicht begriffen ist, die sich auch in der Ablösung der 'alten' Empirie durch eine vernetzte 'real time'-Empirie ausdrücken wird.

f) Typus 'Die 486er Generation'

Virtualität braucht Bandbreiten und Datenraten. Der erstaunlichste Befund ist, daß in kaum einer der bis jetzt erwähnten Publikationen die einfachste materielle Voraussetzung für ‘Virtualisierung’ thematisiert wird: das Vorhandensein ausreichender Datenübertragungskapazitäten. Dabei wäre, aus europäischer Sicht und im Vergleich zu den USA, von einer schon skandalösen Verhinderung des Massenmediums Internet durch die europäischen und insbesondere deutschen Netzbetreiber zu berichten. Fleissner et al (1998, 256ff) breiten zwar einige Fakten zur physischen Basis der Netze und auch zur Gefahr ihrer ‘Vergebührung’ aus; Kleinsteuber (in Neverla 1998, 74f) macht auf den etatistisch-zentralistisch-monopolistischen Charakter der europäischen Telekommunikationspolitik aufmerksam. Doch die reale Kostenstruktur, die großen Leistungsunterschiede zwischen öffentlich geförderten Netzen (etwa dem 'Deutschen Forschungsnetz') und privaten Netzen (z.B. Banken, Lotto), das Desinteresse der Kabelbetreiber an einer billigen, interaktiven Netz-Infrastruktur usw. werden nirgendwo systematisch behandelt – obgleich das die beste Gelegenheit wäre, aus dem ‘Reich der Wünsche’ (Winkler) mit einer handfesten Strategie auf dem Boden der Virtualität zu landen.

Um es als kulturelle Selbstverständlichkeit zu begreifen, daß Virtualität zu einem wichtigen ökonomischen Verwertungsraum geworden ist, daß sich sogar bestimmte Aspekte der Eigentumsfrage dorthin verlagern, muß man mit der Chipentwicklung der letzten fünfzehn Jahre, mit den entsprechenden Spielen, Filmen, Romanen und insbesondere Computerzeitschriften großgeworden sein - und selber aktiv Angebote auf das Netz gelegt haben. Eigentlich sind die 68er und 89er Generationen für unsere Fragestellung deshalb bereits uninteressant geworden. Auf die 486er Generation ist zu achten - und auf die Pentium-Kohorten, die gerade studieren! Die 486er wissen aus eigener Erfahrung, daß heute jede ambitiöse Berufs- und Lebensperspektive an diese neuen Entwicklungen gebunden ist. Das Buch ‘Die virtuelle Gesellschaft’ von Achim Bühl ist schon aus solchen biographischen Gründen ein Silberstreif am Problemhorizont. Bei ihm wird beispielsweise die Bandbreiten- und Regulierungsfrage - unter der beruhigend traditionellen Überschrift ‘Macht und Herrschaft in globalen Netzen’ - adäquat gestellt, auch wenn mechanistische Vorstellungen darüber mitschwingen, daß sich, wie einst im Überbau, die realgesellschaftlichen Macht- und Herrschaftsverhältnisse auch im virtuellen Raum lediglich spiegeln. (Bühl 1997, 209ff.) Wenn dem so wäre, machte unter emanzipatorischen Gesichtspunkten die Beschäftigung mit den Netzen keinen Sinn: die abgestandenen Strategien der Moderne wären alles, was der Gesellschaftskritik bliebe. Erfreulicherweise bleibt Bühl aber ambivalent und entfaltet beeindruckende Vorüberlegungen zu einer Theorie der virtuellen Gesellschaft: beeindruckend, weil sie sich mit unbekümmerter Souveränität der vielen herumschwirrenden Vernetzungs-Metaphern (Datenautobahn, globales Dorf, virtuelle Gemeinschaft usw.) und ‘Gesellschaftsbegriffe im Zeitalter der Globalisierung’ (Informationsgesellschaft, Wissensgesellschaft, Multioptionsgesellschaft usw.) annehmen und den Mut haben, ein soziologisches Modell der virtuellen Gesellschaft auf den Schriften von Stanislaw Lem (insbesondere dessen Summa technologiae) aufzubauen. Ich finde, daß mit der ‘Phantomatik’ bzw. Phantomologie Lems so etwas wie das Behaimsche Astrolabium für die Navigation im Hyperraum vorliegt; und die Schaubilder und Tabellen von Bühl sind ein (auch für die Lehre) nützliches, wenngleich ‘krudes’, Kartenwerk. Hinzu kommt eine konzise Darstellung der technologischen Entwicklung - vom ‘soziologischen Modell’ des modernen Rechners über Multimedia, Vernetzung, Techniken der Virtual Reality, Neuroinformatik und künstliche Intelligenz. Und man sollte sich merken, "daß der Rechner historisch betrachtet zwar eng mit der Moderne verbunden ist, er aber Potenzen in sich birgt, welche die klassischen Strukturen der Industriegesellschaft transzendieren." (ebenda, 128) Die letzten rund 200 Seiten des Buches tauchen ein in Beispiele für realisierte Anwendungen der ‘virtuellen Gesellschaft’. Was dem Soziologen hier am meisten auffallen müßte, ist das Ausmaß der nicht durch kanonische Kategorien und Theoriebestände (des Faches) abgedeckten Erscheinungsfülle: Militär und Raumfahrt; Architektur, Maschinenbau, Medizin; Forschung, Ausbildung und Lehre; Unterhaltungs- und Freizeittechnologien; Verkehrswesen; Psychotherapie und Verwaltung; Kunst; virtuelle Unternehmen und Betriebsorganisation; Konsumtion, Distribution, Finanzwesen; Nationalstaat und Demokratie usw. Natürlich entgleitet dem Autoren hier oft die theoretische Kontrolle über das - meist aus dem Expertenstratum (aber auch aus bunteren Ecken) der Massenmedien herangezogene - Material. Immerhin gibt es hier, unter der Prämisse, daß eine qualitativ neue Gesellschaftsformation heraufzieht, welche sich "von den Wesensmerkmalen der modernen Industriegesellschaft deutlich abgrenzen läßt", viel Stoff für einen lebendigen soziologischen Diskurs jenseits der Jahrtausendwende. Das Konzept der ‘virtuellen Gesellschaft’ ist sicherlich noch nicht genügend durchdacht. Die Vorstellung, daß sich "in allen Bereichen der Gesellschaft ‘Parallelwelten’ herausbilden", daß eine Dialektik von ‘Realwelt’ und ‘Spiegelwelt’, von ‘Realraum’ und ‘virtuellem Raum’ zu "qualitativ neuen Mechanismen der Vergesellschaftung in allen gesellschaftlichen Subsystemen" führt (ebenda, 360), wird erst durch den Rückgriff auf fundamentale theoretische Problemkonstellationen fruchtbar werden. Vor allem die ‘Schnittstellen’, die interfaces zwischen diesen Parallelwelten werden dann wohl interessant - und umkämpft. Überdies ruft die qualitative Veränderung des historischen Prozesses, welche sich möglicherweise durch die Verknüpfung von Utopie und Elektronik ergibt, viele seltsame ideologische Vögel auf den Plan, z.B. auch das Bundesministerium für Bildung, Wissenschaft und Technologie: "Der Computer verstärkt nicht allein mechanische und intellektuelle Kräfte des Menschen, nun scheinen auch Einbildungskraft, Phantasie und Gefühle technisch verstärkbar und veränderbar zu sein." (zit. in Bühl 1997, 360)

In den Massenmedien hat diese 'Dialektik von Realwelt und Spiegelwelt' zu neuen Erzählweisen geführt, für die immer wieder die Ästhetiken von CNN und von MTV angeführt werden. Auf allgemeinerer Ebene handelt es sich um eine narrative Methode, in welcher - ob am Rande, ob im Zentrum - immer Elemente von Science Fiction, von Zukunftsspekulation, auch von Andeutungen von Konspiration mitschwingen; sozusagen halbwissenschaftliche Gedankenexperimente, welche, zusammen mit digitalen Tricks, schnellen Schnitten usw., für eine ganz eigenartige, den Alltag der Medienkonsumenten permanent transformierende Aufgeregtheit und Dauerspannung sorgen. Und diese Erzählweise selbst präformiert die anstehende Konvergenz und Integration von Fernsehen, Internet und anderen Daten-, Informations- und Zerstreuungsträgern. In der 'virtuellen Gesellschaft' wird zunächst überall auf diese Weise erzählt werden; doch es geht auch auf vielfältige Weise anders, wie man von Steven Johnson (im nächsten Abschnitt) lernen kann. Was also außerordentlich interessant ist: auch unter diesen Bedingungen bleibt die Kunst des Erzählens zentral, sie wird, durch die technologische Revolution hindurch, zu einer Zukunftsaufgabe, welche, beispielsweise, auch die Wissenschaften erfüllen müssen, wenn sie öffentlich bleiben wollen.

g) Typus 'Culture-Freak'

Abschließend sei noch auf Steven Johnsons wichtiges Buch mit dem Titel 'Interface Culture. How New Technology Transforms the Way We Create and Communicate' hingewiesen. "We should", schreibt G. Fischer, "strive for ‘interfaceless systems’ in which nothing stands between users and their tasks (and in which system objects become ‘ready-at-hand’ in a Heideggerian sense). Human-computer interaction should be concerned with tasks, with shared understandings, with explanations, justifications, and argumentation about actions, and not just with interfaces." (Fischer 1993) Das wird nicht gehen: die Entscheidung gegen Substanzdenken und für den Relations- und Vermittlungscharakter von Wissen und Information setzt sich in der Computerwelt unwiderstehlich fort. Oder praktisch formuliert: nicht nur Wahlkämpfe kommen nicht ohne Verpackungskünstler aus, nicht nur fortgeschrittene TV-Channels wie CNN oder MTV bieten inzwischen (schein)interaktive Zugangsflächen; auch die Erschließung des gesamten, wie auch immer gespeicherten Wissens- und Informationsuniversums ist eine Frage der ‘Benutzerführung’. Und die Flexibilität und Effektivität von elektronischen interfaces hat längst alle anderen Präsentations-, Selektions- und Suchmethoden (auch wenn sie, wie im Bibliothekswesen, eine jahrhundertelange Entwicklungszeit hatten) weit hinter sich gelassen bzw. in sich aufgehoben. Mit Fug und Recht kann man deshalb vom heutigen Stand der Medienentwicklung rückwärtsblickend mit Johnson sagen, daß die gesamte mediale Kultur in gewissem Sinne eine Interface Culture war und ist. Johnson, um die 30 Jahre alt, ist mit der PC-Entwicklung und deren Software aufgewachsen. Diese Computer-Kids konnten zwei Wege gehen: den des Technik-Freaks, dem Software Teil des technischen Systems bleibt und der sie, großgeworden, als Protokollschicht auffaßt und damit den Hardware- oder Netzprotokollen in ihrer Funktion des Auf-/Abbaus von Kommunikation gleichsetzt; oder den des Culture-Freaks, der, technisch genauso versiert, als Erwachsener Softwareentwicklung als Kulturphänomen erfährt, wie Johnson Semiotik und Englische Literatur studiert und sich schließlich anschickt, "this strange new medium of interface design" in einen größeren historischen Zusammenhang zu stellen. Jenseits jeglicher ‘Kommunikationseffizienz’ beginnen dann die graphischen Benutzeroberflächen als ein Medium zu erscheinen, "as complex and vital as the novel or the cathedral or the cinema". Nicht nur für Johnson - "We will come to think of interface design as a kind of art form - perhaps the art form of the next century." (1997, 213) - repräsentieren die komplexen Fensterarrangements der Benutzeroberflächen den endgültigen Abschied von der Zentralperspektive der Moderne und damit die Möglichkeit der kulturellen Bearbeitung der Erfahrung nicht-euklidischer Räume. Die Erfahrungen räumlicher Tiefe und ‘Verschachteltheit’, die beispielsweise das klassische Computerspiel Myst vermittelte, stehen dann auf gleicher Stufe wie die psychologischen Tiefen von Marcel Prousts ‘Suche nach der verlorenen Zeit’. Oder: es ist zu beobachten, daß interfaces, die ursprünglich nur der individuellen Benutzerführung dienten, inzwischen virtuelle soziale Welten aufbauen, nicht nur downtowns und ‘Marktplätze’, sondern VRML worldscapes und komplexe, mehrdimensionale topologische Räume. Oder: nachdem der Trend im interface design zunächst auf Standardisierung ging (Apple, Windows), ist durch die Softwareentwicklung längst eine fast unbegrenzte Vielfalt möglich geworden; die simplistischen Simulationen (etwa eines Arbeitsplatzes oder Büros) werden durch "more limber, loose fitting metaphors" (ebenda, 232) abgelöst. Zugleich zeigt sich, daß allein interfaces die Bewältigung der fragmentierten Welterfahrung erlauben, wie sie uns per Modem oder Kathoden-Röhre entgegenkommt: "the interface serves largely as a corrective to the forces unleashed by the information age." (ebenda, 236f.) Insofern beginnt die Interface Culture, wie alle Kultur zuvor, eine verwirrende, vielfältige, ‘unendliche’ Wirklichkeit zu repräsentieren und zu interpretieren - und nimmt, je weiter ‘Virtualisierung’ voranschreitet, allmählich die Mitte der Bühne ein. "The interface came into the world under the cloak of efficiency and is now emerging - chrysalis-style - as a genuine art form." (ebenda, 242) Das Spannende an dieser Sichtweise ist natürlich noch etwas ganz anderes, was unseren Computer-Kids, so ganz und gar inmitten dieser Entwicklung aufgewachsen und von ihr mitgerissen, noch gar nicht auffällt: wenn eine solche technische Entwicklung, auf die sich heute alle ökonomische Macht konzentriert, nicht nur die sozialen und politischen Verhältnisse zu prägen beginnt, sondern sich schon auf die geheimsten Produktionsstätten epochalen Selbstverständnisses, auf die Kunst, zubewegt und damit die Utopie ästhetischer Welterkenntnis, alle Widersprüche für den Augenblick aufzuheben, für sich beansprucht, dann ist es höchste Zeit, an die Widersprüche zu erinnern, welche hier ästhetisch ruhiggestellt werden könnten. Dann wird es, beispielsweise, sinnvoll, sich mit den wirklichen Dimensionen einer heraufziehenden Geopolitical Aesthetic (Jameson) zu beschäftigen.

Was heißt, um die letzte Bemerkung aufzugreifen, das Konzept einer geopolitischen Ästhetik für die Massenmedien? Ganz ohne Zweifel ist die von Johnson beschriebene Interface Culture die Trägerin und Vermittlerin des Globalisierungsprozesses, sofern damit die globale Vernetzung von Informations- und Kommunikationsprozessen gemeint ist. Es kann nicht oder nur zum Teil um die Standardisierung bzw. Kompatibilität von Softwareprotokollen gehen, viel wichtiger ist die in symbolische Strukturen und Muster eingebundene - und damit selbstverständlich auch 'vorinterpretierte' - inhaltliche Organisation der Kommunikation, sozusagen über alle lokalen Sprachen und Kulturen hinweg, aber zugleich auf sie bezogen und durch sie gespeist. Interfaces in diesem Sinne sind etwas Interessantes und Schönes, dem sich künftige Kulturproduzenten sicherlich widmen werden. Da der Globalisierungsprozeß aber zugleich ein geopolitischer Prozeß ist, das heißt, ein Kampf um Einfluß und Hegemonie seitens der unterschiedlichsten globalen Akteure, werden auch Interfaces, wie bislang alle anderen kulturellen Manifestationen, in Zukunft auf ihren ideologischen und utopischen Gehalt geprüft werden müssen. Dies aber erfordert skills, wie sie im Augenblick eher auf der Seite der Culture-Freaks und Cyberpunks anzutreffen sind - was für erhebliche Unruhe sorgen dürfte...

 

Wie wahres Wissen in die Massenmedien kommt

Was also ist Wahrheit unter den Bedingungen der Virtualisierung? Das System der vernetzten Computer ist ein Symbolsystem der nomadisierenden Sinngebungen, es könnte virtuell alles mit allem verknüpfen - wenn man es ließe. Es dient, mittels 'Interface Culture', längst der Kontextsteuerung des kapitalistischen Weltsystems; ihm strömen alle relevanten Daten zu - und werden verschlüsselt. Es enthält tendenziell die Möglichkeit der Symbolisierung und des Cognitive Mapping weltgesellschaftlicher Zusammenhänge in ‘Echtzeit’: die erfüllte Utopie der Enzyklopädisten. "Today it is the instant speed of electronic information that, for the first time, permits easy recognition of the patterns and the formal contours of change and development. The entire world, past and present, now reveals itself to us like a growing plant in an enormously accelerated movie. Electric speed is synonymous with light and with the understanding of causes." (Marshall McLuhan, zit. in Johnson 1997, 4) Für die Wissens- und Wissenschaftssoziologie war das alles wie ein Zukunftsschock. Weder die Vertreter des Theorems der Informationsgesellschaft noch führende Theoretiker der Wissensgesellschaft, schreibt Bühl, haben rechtzeitig jenen fundamentalen Paradigmenwechsel in der Computertechnologie zur Kenntnis genommen, "der die elektronische Rechenmaschine in eine Allzweckmaschine zur Produktion von Spiegelwelten verwandelt hat." (Bühl 1997, 67)

Dies ist also das Problem und die Aufgabe: die Informationsgesellschaft ist über uns gekommen aufgrund tiefgreifender technologischer Innovationen. Diese haben die in der traditionellen Struktur des ideologischen und utopischen Überbaus enthaltenen Tendenzen zum Relativismus, zur Gleichsetzung von Information und Desinformation, zur Unkenntlichmachung des wahren Wissens, schließlich zur Konstruktion und Fabrikation vollkommen künstlicher Welten zur Realität gemacht. Dieser Prozeß, wenn er als Evolution, als Differenzierungsprozeß - und nicht etwa als radikaler Bruch -, zur Kenntnis genommen wird, kann durchaus zu einer scheinbar abschließenden Feststellung wie der folgenden von Luhmann führen: "Der Name ‘virtual reality’ begünstigt den Irrtum, daß es trotzdem noch eine wirkliche Realität gebe, die mit der natürlichen Ausrüstung des Menschen zu fassen sei, während es schon längst darum geht, diese natürliche Ausrüstung als nur einen Fall unter vielen möglichen zu erweisen." (zit. in Paetau 1998, 119)

An diesem 'letzten Wort' und der Frage seiner Richtigkeit (oder Wahrheit) hängen mächtige Interessen. Denn es impliziert, daß - beispielsweise - die Massenmedien und die Wissenschaften ihre bisherige Praxis nicht grundlegend zu überdenken haben, daß sich zwar mit dem Prozeß der Virtualisierung des ideologischen und utopischen Überbaus Gewaltiges ändert, daß aber zugleich die alten Ideologen und Utopisten sich gewissermaßen nur einen grenzenlosen Zynismus zulegen müssen (der real als Unterwerfung unter die ökonomische Logik des Spätkapitalismus erscheint), um unter Beibehaltung der bisherigen Machtverhältnisse weitermachen zu können wie bisher. Dieses 'weiter so' wird aber jenem fundamentalen Paradigmenwechsel nicht gerecht. Die elektronische Rechenmaschine ist das Endprodukt des Industrialismus; die 'Allzweckmaschine zur Produktion von Spiegelwelten' (Bühl) dagegen ist das Anfangsprodukt des Postindustrialismus. Dieser jedoch ist, bei aller Destruktion, auch der Beginn der Möglichkeit des Cognitive Mapping der historisch-gesellschaftlichen Totalität in einem - technisch induzierten - ganz neuartigen Sinne: erinnern wir uns nur der erstaunlichen Aussage von McLuhan, daß es heute möglich werde, die Muster und formalen Konturen von Entwicklung und Wandel in 'Lichtgeschwindigkeit' abzubilden - also in einer durch die physikalische 'Echtzeit' von Computeroperationen ermöglichten Beschleunigung und Rhythmisierung unserer Erkenntnisprozesse, die 'endlich' der Reichweite unserer 'welthistorischen' und 'kosmologischen' Begriffe entspricht.

Überall wird von der ‘Virtualisierung des Sozialen', von der 'Informationsgesellschaft zwischen Fragmentierung und Globalisierung’ geredet. In den bundesrepublikanischen Sozialwissenschaften selbst aber ist, wie gesagt, die Kenntnis der Medienpraxis, in welcher sich Virtualisierungsprozesse abspielen, und die alltägliche Einbindung in die Praxis der neuen Informationstechnologien und sogar das Einlassen auf Fragmentierungserscheinungen oder gar das Mitspielen im 'geopolitischen ästhetischen Spiel' vollkommen unterentwickelt. Erkenntnistheoretisch ist die Sache aber auch deshalb kompliziert, weil beispielsweise Soziologen die ‘wirkliche Realität’ immer nur als etwas Soziales, das durch Soziales erklärbar war, begreifen konnten und deshalb im Begriff der Virtualität einerseits diese ihre eingefahrene Praxis erkennen, andererseits aber nicht das ganz fundamental Neue an diesem 'Hyperraum' wahrhaben wollen. Zwar hat die 'Erklärung des Sozialen durch das Soziale' die soziologische Disziplin auf die eine oder andere Weise durchaus vorangebracht. Doch das schloß nicht aus, daß außerhalb dieses Denkzirkels die einen als archimedischen Punkt die 'Philosophische Anthropologie’, die anderen, wie auch Luhmann, die Biologie und wieder andere den Historischen Materialismus brauchten - und die Parsonsianer wenigstens das Konzept der ‘Emergenz’.

Vielleicht ist das Konzept der Emergenz in diesem Zusammenhang sogar das entscheidende. Denn die 'virtuelle Wirklichkeit', welche für die Wissenssoziologie noch aus 'Ideologie und Utopie' bestand, hat sich heute durch die Symbolmaschinerie der vernetzten Computer in einem Autonomisierungsprozeß zum Hyperraum verselbständigt und wirkt so, als informationstechnologisch amplifizierte Ideologie und Utopie, um ein Vielfaches verstärkt in die Gesellschaft, die Weltgesellschaft, zurück. Wenn heute, beispielsweise, Eigentum in Gestalt von Aktienbesitz als virtuelles Eigentum emergiert und in dieser Eigenständigkeit auf eine Art und Weise, wie es nie zuvor möglich war, auf die ökonomischen Prozesse zurückwirkt und sie bis zur Unkenntlichkeit verändert, wenn also in gewisser Weise Eigentum selbst virtualisierte Ideologie und Utopie geworden ist, dann verschlägt das, auch wenn diese Erkenntnisse dämmern (vgl. Jameson 1997), gerade den Sozialwissenschaften die Sprache.

Mit den alten Mitteln des autoritativen Buches können sie dieses nicht mehr erzählen, über die neuen Mittel des Erzählens, des Erzählens auf und mit den Netzen etwa, verfügen sie nicht. Den sich verändernden Erzählweisen der Massenmedien stehen sie hilflos gegenüber. Das gilt auch für die Luhmannianer, die sich den tatsächlichen, 'materiellen' Prozessen der Medienproduktion aus offensichtlich 'systematischen' Gründen verschließen. Dort aber, in den Massenmedien, wird im Augenblick gerade die Geschichte mit dem Eigentum erzählt - die Geschichte von der Virtualisierung des Eigentums auf den Aktienmärkten, die Fabel vom Anteilseigentum für alle, das Märchen von der Daseinsmitte 'Aktienmarkt'. Umgekehrt haben die Massenmedien ein Gespür dafür entwickelt, daß im Prozeß der Virtualisierung von Gesellschaft das Älteste und Unterste nach Vorne und Oben gespült wird, daß die Wissenschaften 'dran' wären, diese Vorgänge zu erläutern und zu erklären. Die Massenmedien reagieren mit Strömen pseudowissenschaftlichen Unsinns. Die Ankoppelung an die stockenden Erkenntnisprozesse in den Wissenschaften selbst gelingt also kaum. Fenster in die wissenschaftliche Welt der vernetzten Computer und Supercomputer werden nicht geöffnet - vor allem weil man nicht weiß, wie.

Vor diesem Hintergrund habe ich ein von der Europäischen Kommission gefördertes Forschungprojekt mit dem Titel 'European Popular Science Information Project' durchgeführt, an dem u. a. Spiegel TV, das Deutsche Forschungsnetz, das British Film Institute und der WDR beteiligt waren. Die voraufgehenden Überlegungen sind in diesem Kontext entstanden. Die Projektergebnisse laufen derzeit auf zwei Handlungsstrategien hinaus: die eine zielt auf die - auf der Basis der neuen Kulturtechniken möglichen - Formen des Erzählens von, sagen wir einmal, 'wahren wissenschaftlichen Geschichten'; ganz konkret in Gestalt der Entwicklung netzfähiger elektronischer 'storyboards'. Die andere Handlungsstrategie zielt auf die Möglichkeit, Schnittstellen, oder genauer: komplexe Interfaces, herzustellen, und zwar zwischen den auf den Netzen vielfältig und zum Teil schon fast vollständig gespiegelten Wissenschaften einerseits und den Massenmedien (insbesondere TV) andererseits - Fenster, wenn man so will. Zusammengefaßt werden könnten diese Strategien unter einem dritten Aspekt, den ich zunächst nur mit dem Begriff 'webbing the broadcasts' charakterisieren will. Dazu kurze Erläuterungen:

a) Storyboards: auch wenn, wie gesagt, die Wissenschaften sich mit ihren Institutionen, Personen, Diskursen und Ergebnissen zumindest in der angelsächsischen Welt immer vollständiger auf den Netzen vorstellen, bleibt die Form der Selbstdarstellung dem 'Docuverse' (Winkler) verhaftet, sind die ästhetischen und narrativen Mittel kaum weiter entwickelt als in traditionellen Bildungs- und Lehrmaterialien usw. Die Möglichkeiten des Erzählens 'mit dem Web' (der intelligente Einsatz von Hypertext, links, Visualisierungen usw., ganz zu schweigen vom Einsatz der avanciertesten Software) werden auch von 'Netzfanatikern' kaum ausgenutzt. Wir haben für verschiedene Themen 'storyboards' entwickelt, welche in der Zusammenarbeit mit den verschiedenen TV-Wissenschaftsredaktionen, in der pre-production und als ergänzendes Web-Informationsangebot zu mehreren TV-Sendungen verwendet wurden. Hier, auf einem Feld, das wir 'the digital art of designing storyboards' nennen, wäre eine breite Qualifizierungsanstrengung zumindest bei den Wissenschaftlern sinnvoll, die an der öffentlichen Rolle und Wirksamkeit von Wissenschaft interessiert sind.

b) Interfaces: über die kulturtechnische Bedeutung von interface design ist weiter oben bereits das Nötige gesagt worden (Abschnitt 'Culture-Freaks'). Im konkreten Fall des Forschungsprojekts bestand unser Problem darin, visuell interessante wissenschaftliche Selbstdarstellungen auf dem World Wide Web, die es in beschränkter Zahl und in zum Teil beeindruckender Qualität gibt, im Massenmedium Fernsehen (hier: bei Spiegel TV-Sendungen und Wissenschaftssendungen des WDR) in professioneller Form wiederzugeben. Zu diesem Zweck - 'broadcasting the web' - mußten Fenster, Portale, 'Benutzeroberflächen' entwickelt werden, durch welche die beiden Medien Internet und TV (von denen alle Welt sagt, daß sie konvergieren) nun einmal ganz praktisch verknüpft werden konnten. In mehrere Sendungen sind solche 'Fenster' als 3D-Animationen eingebaut worden, doch überzeugend gelungen sind diese Versuche bis jetzt nicht. Wir konzentrieren uns derzeit im Sinne von 'Grundlagenforschung' auf eine Kulturgeschichte der Windows-Metapher und den Entwurf von Interfaces für bestimmte Wissensgebiete und Theoriezusammenhänge, um anhand konkreter Beispiele das, was 'wissenschaftliches interface design' sein könnte, demonstrieren zu können.

c) Webbing the Broadcasts: im Hintergrund des Projekts scheint die Tatsache auf, daß mit der Welt der vernetzten Computer eigentlich auch eine konkrete Neubestimmung des Systems der Massenmedien ansteht. Während wir uns im Projekt um Wege bemühten, das Netz fernsehgerecht zu präsentieren, läuft ja schon der viel fundamentalere Prozeß der Vernetzung und Verknüpfung aller Massenmedien über die digitalen Computernetze, wo sie, im übrigen, zugleich virtuell - allerdings mit harten Abschottungen und vielen 'privaten' und 'geheimen' Regionen - mit den Produktions-intranets, den Banken-intranets, den militärischen intranets usw. verbunden sind, und zwar auf eine Weise, daß eine Auflösung dieser Verbindungen einer Auflösung des spätkapitalistischen Gesamtsystems, das sich längst aus jener Virtualität heraus steuert, gleichkäme. Also: webbing the broadcasts ist ein anderer Ausdruck für den massenmedialen Effekt der Welt der vernetzten Computer. Webbing the broadcasts bereitet aber auch den Boden für das Eintreffen von Marshall McLuhans Prophezeihung von der wachsenden Möglichkeit des 'Verstehens der Ursachen'.

Was ist nun mit dem wahren Wissen in den Massenmedien? Dazu muß man sich noch einmal mit einer ganz bestimmten Seite des Systems der vernetzten Computer beschäftigen: der Art und Weise, wie in ihm Informationen verarbeitet und bewegt werden. Ein Merkmal ist zweifellos seine Indifferenz gegenüber bestimmten Inhalten. Indem 'Ideologien' und 'Utopien' auf den Netzen bewegt werden, verlieren sie ihren spezifischen Sinn, ihre wahren und falschen Konnotationen, und behalten nur, und zwar in immens verstärkter, eben vernetzter, Form ihre Virtualität: d.h. ihre Sinngehalte sind nicht mehr eindeutig fixierbar, sie nomadisieren. In diesem Sinne kann man in der Tat davon sprechen, daß ein postideologisches und postutopisches Zeitalter angebrochen ist, aber eben zugleich auch ein Zeitalter der 'virtuellen Spiegelwelten', in denen die gesellschaftliche und bewußtseinsmäßige Kraft von Ideologien und Utopien mehr als aufgehoben ist. Zweitens nämlich, und das ist ganz entscheidend, werden in der Welt der vernetzten Computer heute und tendenziell immer schneller und umfassender alle Daten aus der Wirklichkeit ohne Rücksicht auf Interessenlagen prozessiert. Zwar versucht in Gegenbewegungen die Verschlüsselungs- und Regulierungstechnologie die Datenströme unter Kontrolle zu halten, doch die kryptologische Front ist völlig offen. Allein schon die heute auf den Netzen fließenden Informationen bringen - etwa auf den Aktienmärkten - viele Interessen- und Machtstrukturen ins Wanken. Hinzu kommt ein weiteres: mit der Welt der vernetzten Computer setzt sich eine Realzeit des Datenaustauschs durch, die den Strukturen der Zeitorganisation der dominanten Wirtschaftsweise und ihren Interessenkonstellationen das Wasser abgräbt (vgl. Krysmanski 1998). Der Kapitalismus in jedweder Form kann, beispielsweise, nur auf der Basis vertraglich und spekulativ restringierter Zeit funktionieren. Nur so kann seine Grundoperation des Beleihens und Kreditierens sich vollziehen (Heinsohn / Steiger 1996). Wenn die vernetzte Computerwelt dagegen dieses Zeitregime unterläuft, indem sie alle ökonomischen Daten, so wie sie anfallen, für alle Akteure unmittelbar, in real time, zugänglich macht, so daß z.B. aus Fristen und Terminvorteilen (und dem damit verbundenen Herrschaftswissen) keine - kulturell verbrämten - Profitoperationen mehr organisiert werden können, so beginnt nicht nur eine andere Epoche des Wirtschaftens, sondern insgesamt ein anderer informierender und orientierender Umgang mit den Daten, welche der historisch-gesellschaftliche Prozeß insgesamt uns zuströmen läßt.

Die Massenmedien, so scheint es, sind gegen diesen Zustrom 'wahren Wissens' wie keine andere Institution geeicht. Sie vertreten das Zeitregime und die Kultur des Kapitals, keine Frage. Alle Widerstände und Vorkehrungen gegen die Verbreitung 'wahren Wisssens' scheinen bereitzustehen. Ökonomisch werden die abstrusesten Regelungen und Grenzziehungen durchgesetzt, um claims abzustecken und Eigentumsansprüche durchzusetzen. Kulturell sind es gerade die Interfaces, die konsumwirksam optimierten und zunehmend auch kostenpflichtigen 'Benutzerführungen', welche sich zu virtuellen Konsumtempeln auftürmen und nicht etwa zu Pfaden der Erkenntnis werden. Andererseits aber treten die Massenmedien nicht mehr 'einzeln', im Zugriff klar zu bestimmender Interessen auf, sondern in Gestalt verflochtener Systeme mit inzwischen, global betrachtet, Millionen und Abermillionen Medienarbeitern, also als ein komplexes, sowohl real als auch virtuell vernetztes Gebilde.

Vor diesem Hintergrund deutet vieles darauf hin, daß die Welt der vernetzten Computer auch so strukturiert ist, daß Wissen über den Zustand der Welt in ihr virtuell zu sich selbst zu kommen versucht. Der Vernetzungseffekt, der Relativierungseffekt (bei gleichzeitiger Steigerung des Bedürfnisses nach Cognitive Mapping), der Echtzeit-Effekt tun ihre Wirkung. Und diese Wirkungen sind dem wissenschaftlichen Wissen, das ich hier als 'wahres Wissen' bezeichnet habe, näher und kongenialer als dem - sagen wir einmal - Konsum- und Profitwissen. So ist es denkbar, daß Utopien des 'ganz Anderen', Utopien der 'Alternative', gerade nicht durch den Ausstieg aus den neuen Kulturtechnologien, sondern durch die volle und intelligente Aneignung dieses derzeit höchsten Niveaus der Produktivkraftentwicklung verfolgt werden können - wobei im Begriff der Produktivkräfte die Implikation wirksam ist, daß alles dies im Interesse der Hauptproduktivkraft, des realen Menschen, geschehen kann.

 

Literatur

Benjamin Barber, Which Technology and Which Democracy? posted December 6 1998, http://media-in-transition.mit.edu/conferences/democracy/barber.html

Barbara Becker, Michael Paetau (Hg.), Virtualisierung des Sozialen. Die Informationsgesellschaft zwischen Fragmentierung und Globalisierung. Frankfurt/New York: Campus Verlag 1997

Achim Bühl, Die virtuelle Gesellschaft. Ökonomie, Politik und Kultur im Zeichen des Cyberspace. Opladen/Wiesbaden: Westdeutscher Verlag 1997

J. D. Bolter, Writing Space. The Computer, Hypertext, and the History of Writing, London 1991

L. Febvre, H. J. Martin, The Coming of the Book. The Impact of Printing 1450-1800, London, New York: Verso 1990

G. Fischer, Beyond Human Computer Interaction: Designing Useful and Usable Computational Environments. In: J. L. Alty et al, People and Computers, VIII. Proceedings of HCI ’93, Cambridge 1993

Peter Fleissner, Wolfgang Hofkirchner, Harald Müller, Margit Pohl, Christian Stary, Der Mensch lebt nicht vom Bit allein...Information in Technik und Gesellschaft. Frankfurt am Main/Berlin/Bern/New York/Paris/Wien: Peter Lang 1997

Lutz M. Hagen (Hrsg.), Online-Medien als Quellen politischer Information. Empirische Untersuchungen zur Nutzung von Internet und Online-Diensten. Opladen/Wiesbaden: Westdeutscher Verlag 1998

Gunnar Heinsohn, Otto Steiger, Eigentum, Zins und Geld. Ungelöste Rätsel der Wirtschaftswissenschaft, Reinbek: Rowohlt 1996

Jochen Hörisch (Hrsg.), Mediengenerationen. Frankfurt am Main: Suhrkamp Verlag 1997

Fredric Jameson, The Geopolitical Aesthetic. Cinema and Space in the World System, London 1992

Fredric Jameson: Postmoderne - zur Logik der Kultur im Spätkapitalismus. In: Andreas Huyssen (Hrsg.), Postmoderne. Zeichen eines kulturellen Wandels, Hamburg 1993, 45-102

Fredric Jameson, 'Culture and Finance Capital', in: Cultural Inquiry 21 (Herbst 1997), 246-265

Steven Johnson, Interface Culture. How New Technology Transforms the Way We Create and Communicate. San Francisco: HarperEdge 1997

Arthur Kroker, Michael A. Weinstein, Datenmüll. Die Theorie der virtuellen Klasse. Wien: Passagen Verlag 1997

H. J. Krysmanski, Indifferenz und Desintegration. Grenzen einer Soziologie der Moderne, in: Ästhetik&Kommunikation, Nr. 102, September 1998

Niklas Luhmann, Die Realität der Massenmedien, Opladen: Westdeutscher Verlag 1996

Marshall McLuhan, Die magischen Kanäle. Understanding Media, Basel 1995 (Neuaufl.)

Irene Neverla (Hrsg.), Das Netz-Medium. Kommunikationswissenschaftliche Aspekte eines Mediums in Entwicklung. Opladen/Wiesbaden: Westdeutscher Verlag 1998

Hartmut Winkler, Docuverse. Zur Medientheorie der Computer. o.O.: Klaus Boer Verlag 1997

 

erschienen in:
Ingrid Lohmann / Ingrid Gogolin (Hg.)
Die Kultivierung der Medien, Leske+Budrich, Opladen 2000

Site Map / Classes / Publications / Projects