Prognosen zu Klima und Terror

Eine letzte Runde hat die Lesegruppe Nate Silver und seiner „Berechnung der Zukunft“ gewidmet. Silver erfindet sich gegen Ende des Buches nicht neu, sondern bleibt auf seinem pragmatischen journalistischen Pfad.

In Kapitel 12 geht er auf die Prognosen zur Klimaveränderung ein. Er ruft in Erinnerung, dass erste Hypothesen schon Ende 19. Jahrhunderts auftauchten. Erst in den 1980er Jahren wurden aber die Temperatursignale vom natürlichen Trend unterscheidbar. Der Autor ist sichtlich bemüht, in der aufgeheizten Diskussion der USA eine abwägende Tonart anzuschlagen.

Er plädiert dafür, Theorien anhand von Prognosen zu überprüfen. „Die Prognosen der Klimatologen trafen gelegentlich ein, gelegentlich aber auch nicht.“ Dann breitet er die Kontroverse zwischen Scott Armstrong und Al Gore aus, die sich über kurzfristige Trends gebalgt haben. Silver ist zu sehr Bestseller Autor, um sich das Showdown Moment dieses Pseudodramas entgehen lassen. Er treibt damit aber die Lesenden auf ein Terrain, das er anderswo als irrelevant taxiert. Einzelne Jahre und kurzfristige Trends haben absolut nichts mit Klimatrends zu tun, die sich auf Jahrhunderte bis Jahrtausende beziehen.

Zurecht weist Silver in Bezug auf den Prognosehorizont darauf hin, dass Klimatologen kurzfristig keinen Feedback zu ihren Modellen bekommen können, während Meteorologen permanent ihre Modelle justieren können. Ausnahmsweise bringt er in Bezug auf die Prognoseunsicherheit auch endlich einmal einige konzeptuelle Begriffe ins Spiel. Er unterscheidet Unsicherheiten von Anfangsbedingungen, von Szenarien und strukturelle Unsicherheiten. Letztere beruhen auf einem mangelhaft tiefen Verständnis des Klimasystems und seiner mathematischen Modellierung.

Er weist auf das Spannungsfeld zwischen Wissenschaft und Politik hin. Auf dem einen Feld sind Relativierungen und Unsicherheitsangaben erwünscht – im politischen Kampf zählen Einfachheit und eingängige Parolen.

Ein weiteres Kapitel widmet Silver dem Thema Voraussagbarkeit von Terror. Er geht von der Diskussion zum Überfall auf Pearl Harbor aus, wo es durchaus Indizien für den japanischen Überfall von 1941 gab. Hier verlässt er das Gebiet der eigentlichen Prognostik und müsste eigentlich ausführlich auf die Problematik und Methoden einer Lageanalyse eingehen. Auch die Auseinandersetzung mit 9-11 bleibt unbefriedigend. Auch wenn Silver zurückhaltend bleibt, erweckt er den Eindruck, Indizien hätten mit etwas mehr Professionalität sicher eingeordnet werden können.

So sympathisch Silvers Pragmatismus, so interessant manches Beispiel sein mag: Dem Text fehlt es etwas an Tiefgang.

Prognosen-Elend

Weitere zwei Abende hat sich die Lesegruppe der Digitalen Allmend mit Nate Silver beschäftigt und der sich mit der „Berechnung der Zukunft“.

Zu den Stärken von Silver gehört sein journalistisches Vorgehen. Wo er nicht auf eigene Erfahrung zurückgreifen kann, spricht er mit Experten und benennt diese Quellen. Ein Beispiel ist Jan Hatzius, Chefökonom von Goldmann Sachs. Silver ist von dessen Prognoseleistungen und einer nüchternen Haltung beeindruckt. Hatzius hält es für anhaltend schwierig, den Konjunkturzyklus zu prognostizieren, auch wenn in den USA 45‘000 Indikatoren zur Verfügung stehen.

Die Identifikation von Ursache und Wirkung bereitet Probleme. Kritisch merkt Silver an, dass manche Ökonomen einfach eine Handvoll Indikatoren in den Mixer werfen und das Resultat als Haute Cuisine verkaufen würden. Nicht alles, was etwa mit Rezessionen in den USA korreliert, muss einen ursächlichen Zusammenhang haben. Etwas unglücklich illustriert Silver die Möglichkeit nichtkausaler Korrelation mit Glacéverkäufen und Waldbränden. Tatsächlich verursacht der Glacékauf keinen Waldbrand. Trotzdem sind beide insofern kausal verknüpft, als es eine gemeinsame steuernde Grösse gibt, die Lufttemperatur. Echte nichtkausale Korrelationen lagen zeitweise etwa zwischen der National Football League und der Börsenentwicklung vor.

Mit Hatzius sieht Silver in der ständigen Veränderung der Wirtschaft eine zweite Ursache für die Prognoseproblematik. Eine Kausalität und der entsprechende Aspekt eines Modells mögen eine Zeitlang hinreichend stabil sein, um als Baustein einer Prognose zu dienen. Irgendwann ändert sich die Konstellation so stark, dass Kausalität und Korrelation unscharf werden oder wegfallen.

Beide Problemkreise – Zufallskorrelation und Strukturwandel – würden eigentlich den Schluss nahelegen, dass ein Verstehen des Systems respektive eine qualitative Analyse nötig wären, um die Qualität und Reichweite von Parametern wie Modellen klären zu können. Das ist aber nicht Silvers Ding.

Er nimmt aber eine wohltuend nüchterne Haltung und identifiziert mit Hatzius einen dritten Grund für die Unzuverlässigkeit von Konjunkturprognosen: Die zur Verfügung stehenden Daten „sind auch nicht besser“ als die Prognosen selbst (S. 229). Als Beispiel nennt er den Indikator des Konsumentenvertrauens. Da rückt er das Element in den Vordergrund, dass Konsumenten möglicherweise als letzte merken, wenn etwas schief zu laufen beginnt.

In weiteren Kapiteln geht der Autor dann auf Schach und Poker ein, wobei er genüsslich ein das Thema Mensch gegen Maschine in Form eines Showdowns inszeniert: Kasparow versus BigBlue. Neu ist das nicht. Er bringt aber weiteres interessantes Material und bleibt auch hier lesenswert.

Wetter digital

Wenn sich Nate Silver über hunderte von Seiten mit der Berechenbarkeit der Zukunft auseinandersetzt (1), darf das Thema Wetter nicht fehlen. Die Lesegruppe der Digitalen Allmend beugt sich über Gittermodelle und Wetterprognosen.

Erst ziemlich spät, ab Mitte des 19. Jahrhunderts, wenden sich Naturwissenschaftler auch dem Wetter zu. Das Verständnis des Wettergeschehens und die Prognosefähigkeit bleiben vorerst bescheiden. Ein methodischer Durchbruch gelang Lewis Fry Richardson 1916, als er die Idee des Gittermodells aufs Papier brachte und erste Berechnungen versuchte. Die scheiterten allerdings aufgrund der grossen Kantenlänge, der Beschränkung auf zwei Dimensionen und der fehlenden Rechenkapazitäten.

Das wird von Silver eingängig präsentiert. Weiter geht es allerdings nicht. Dabei würde uns ja mindestens in grossen Zügen interessieren, was denn so gerechnet wird für diese Grids. Immerhin macht Silver mit dem Gridmodell mehr deutlich, als das etwa bei der Erdbebenprognose geschieht.

Der Autor beleuchtet grundsätzliche Probleme von Prognosen über das Wetter und andere dynamische Systeme. Eine Problematik wird unter dem Titel Chaostheorie seit den siebziger Jahren diskutiert. Damals stiess der Meteorologe Edward Lorenz beim Hantieren mit einem Computermodell darauf, dass minimste Änderungen an einem Parameter zu völlig anderen Ergebnissen führen können. Die von mechanistischem Determinismus beseelte naturwissenschaftliche Community war perplex.

Der Volksmund hat das Problem allerdings schön längst im Tropfen, der das Fass zum Überlaufen bringt, gefasst – die Philosophiegeschichte im dialektischen Umschlagen von Quantität in Qualität. Das nun stammt allerdings nicht von Silver.

Der weist darauf hin, dass die Naturwissenschaften seit der Quantentheorie eigentlich auf die Relativität allen Prognostizierens vorbereitet war. Jahrhunderte lang hatte die Hypothese starke Anhängerschaft, dass die Position und Dynamik der Atome im Universum potentiell analysierbar und die Zukunft darum determiniert und voraussehbar sei. Damit war mit der Quantenmechanik Schluss. Wenn das System nicht deterministisch funktioniert, gibt es auch kein perfektes Modell dafür.

Silver macht uns also eindringlich auf die prinzipiellen Grenzen aufmerksam. Das führt aber zu einem Problem, das dem Autor gar nicht aufzufallen scheint: Wenn das Universum respektive das Wetter so indeterminiert sind, warum sind denn überhaupt Prognosen möglich? Welche Systemeigenschaften erlauben Wetterprognosen mit erheblicher Wahrscheinlichkeit auf fünf Tage hinaus möglich? Warum nicht nur auf zwei Minuten? Warum nicht auf zwei Jahre hinaus?

Weder beim Thema Erdbeben noch beim Thema Wetter macht uns der Autor einigermassen klar, was ein Modell in Bezug auf Realität überhaupt ist und leisten kann. Wir sind gespannt, was noch folgt. Der Text ist lesenswert und wartet mit interessanten Details auf. Wer hätte gedacht, dass es bei einer 14Tage Wetterprognose besser ist, den langfristigen Durchschnitt zu präsentieren als die Modellergebnisse?

1) „Die Berechnung der Zukunft“

Datenflut und Prognoseflops

Ob Berufserfahrung am Pokertisch die geeignete Qualifikation für einen Prognose-Experten bilden? Vielleicht schon. Nat Silver jedenfalls nimmt sich in „Die Berechnung der Zukunft“ die Verheissungen von Big Data und die Fehlleistungen mancher Prognosen vor. Die Digitale Allmend hat sich von Beginn weg auch für die Frage interessiert, ob digitale Technologien mit einer gesteigerten Daten- und Informationsmenge auch zu mehr und besserem Wissen beitragen. Mehr Wissen müsste sich auch in besseren Prognosen niederschlagen.

Dass von stetig besseren Prognosen im Computerzeitalter keine Rede sein kann, macht Silver anhand seines Spezialgebiets der US Wahlprognosen klar. Ein hoher Anteil der Prognosen liegt daneben. Und das ist eigentlich auch egal. Wie der Autor anhand einer regelmässig parlierenden TV Expertenrunde zu zeigen versucht, herrscht eine Kultur des raschen Vergessens. Niemand wertet aus oder reflektiert die die zugrundeliegenden Annahmen.

Einleitend geht Silver auf das Spannungsfeld zwischen Information und Wissen ein. Er legt gleich mit der Prognose los, dass „noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Information in nützliches Wissen umzuwandeln“. Dann zitiert er zustimmend Krugmann mit der These, in den 70er Jahren habe es einen riesigen Theorieüberhang auf der Basis geringer Informationsmengen gegeben, mag das in speziellen Gebieten ökonomischer oder meteorologischer Modelle zutreffen. Krugmann bezieht sich auf eine bestimmte Konzeption des Modellbaus. Da wird mit beschränktem Wissen über das zu modellierende System einfach mal modelliert. Dann werden historische Datenreihen durchs Modell gerattert und die Stellschrauben solange gedreht, bis die auftretenden Anomalien minimiert sind. Dann wird in die Zukunft projiziert.

Bei Krugmanns These geht aber der Zusammenhang verloren, dass im Allgemeinen völlig hinreichende Information vorhanden waren, um Vorgänge wie den Ersten Weltkrieg, die Grosse Depression oder die Entwicklungsdynamik der Sowjetunion zu analysieren. Silver verpasst es leider ein weinig, Prognosefelder zu unterscheiden. 1980 den Zusammenbruch der Sowjetunion oder am Montag das Freitagswetter fürs Tessin zu prognostizieren sind doch zwei verschiedene paar Schuhe.

Silver macht deutlich, dass er diesen Methoden auch in der Big Data Variante mit der nötigen Distanz gegenüber tritt. Sein Ansatz ist pragmatisch. Wo er dann allerdings methodische Annahmen deutlich macht, wird es schon mal problematisch. So stellt er die geeignete Grundhaltung eines Prognostikers zur Diskussion. Er bevorzugt die Figur des Fuchses: Der bedient sich verschiedener Fachgebiete und Perspektiven, ignoriert eigene Haltungen und ist offen für Komplexität. Gar nichts hält er von Igeln, die selbstbezogen mit starren Methoden und ideologisch fixiert agieren. So angemessen eine pragmatische Haltung erscheint, das ist doch etwa schlicht auf schwarz-weiss getrimmt. Nun ist ja das Buch auch im Heyne-Verlag erschienen, dem kein Hang zur Überkomplexität nachgesagt werden kann.

Vereinfachung ist allerdings doch unumgänglich, wie die Lebhafte Diskussion der Lesegruppe über das Thema Finanzkrise zeigt. Silver schafft es auf ein paar Seiten, wichtige Züge der Entwicklung zu skizzieren. Er gibt auch einzelne Hinweise darauf, warum etwa die Ratingagenturen nicht rechtzeitig Alarm schlugen. Ihre Modelle waren durch falsche Annahmen unterlegt und das Risiko eines schweren Einbruchs der Immobilienpreise wurde unterschätzt.

Trotz mehrerer wichtiger Beobachtungen gelangt hier Silver mit seinem pragmatisch positivistischen Erklärungsmodell an seine Grenzen. In der Diskussion wird etwa auf die Interessensteuerung hingewiesen: Die meisten Player handelten einfach so, wie es ihren kurzfristigen Geschäftsinteressen entsprach. Weiter wird Silver kritisiert, dass er die Vorstellungswelt nicht analysiert, mit denen die direkten Akteure, aber auch Journalistinnen, Wirtschaftsprofessoren oder Regulierungsbehörden und eine weitere Öffentlichkeit unterwegs waren. Sogar ohne Internet waren in jedem Dorfkiosk die Informationen über die Entwicklung der problematischen Produkte und die ersten Risse im US-Immobilienmarkt greifbar. Wer relevante Information in eine erheblich unangemessene Weltsicht einsortierte, gelangte zu einer verzerrten Einschätzung von Risiken und Handlungsoptionen.

Support für Einsame

Nach den Personenstudien im ersten zieht Daniel Miller im zweiten Teil der Studie Schlussfolgerungen. Da kommt “Das wilde Netzwerk” zu einer erstaunlich wohlwollenden Einschätzung von Facebook.

Einleitend verweist Miller darauf, dass Menschen nicht erst seit der Erfindung von Facebook zu sozialen Netzwerken gehören. Dabei lässt Miller dem Milliardenkonzern die Selbststilisierung zum sozialen Netzwerk durch. Da würde es durchaus klärend wirken, ausdrücklich zwischen Facebook als medialer Infrastruktur und den sozialen Beziehungen, die zwischen den Usern gepflegt werden zu unterscheiden.

Miller sieht durchaus einen Unterschied zwischen Infrastruktur und Beziehung. Das wird in seiner ersten These sichtbar: „Facebook erleichtert das Führen von Beziehungen“. Das meint er nicht einfach in einem elementaren Sinn eines technischen Behelfs. Vielmehr rückt er als Begründung die Defizite der Kontaktaufnahme im ‚wirklichen‘ Leben ins Zentrum: Viele Leute haben Hemmungen, direkt Kontakt zu knüpfen, es besteht die Möglichkeiten zu Komplikationen und Missverständnissen, schon gar wenn es um Liebe geht. Zudem könnten User sich auf Facebook über andere informieren, bevor Kontakt aufgenommen wird. So habe sich Facebook zu einer riesigen Dating-Agentur entwickelt.

In einer weiteren These meint Millter: „Facebook hilft den Einsamen“. Hier spinnt Miller die Argumentation weiter, dass Facebook Möglichkeiten schafft, die Restriktionen des sozialen Lebens zu Überschreiten. So hat der früher im Buch angesprochene Arvind als Farmville Spieler Kontakte gefunden – das Netzwerk hat ihm „zweifellos geholfen“.

Die Rolle von Facebook als Defizit Kompensator löst lebhafte Diskussion aus. Da ist ein weitläufiges Problemfeld angesprochen. Tatsächlich unterliegen viele (oder alle) Menschen Einschränkungen bei Knüpfen von Kontakten. Das hängt auch mit Defiziten in der Alltagskultur des Urban Lifestyle zusammen. In konventionellen Locations bis hin zur Szenebar ist es in Europa – und vielleicht auch in Trinidad – unklar, unter welchen Umständen und wie spontane Kontakte angesagt sind. Da wirkt Millers Position durchaus plausibel: Die Kontaktaufnahme via ein technische Medium ist kühler, mittelbarer, niederschwelliger.

Was bei Miller zu kurz kommt, ist eine Gesamtbilanz von Nutzen und Kollateralschäden: Eine Begleitthese könnte lauten: Wer seine Defizite beim Pflegen von direkten Beziehungen weitgehend durch Mediennutzung kompensiert, bleibt auf seinen Defiziten sitzen. Diese Fragestellung lässt sich allerdings nicht mit Millers Methode klären. Es wäre interessant, Typen von NutzerInnen zu bilden und entsprechende Gruppen über ein, zwei Jahrzehnte zu verfolgen.

Es wäre durchaus interessant zu sehen, wie extensive Facebook-Beziehungspflege als Twen sich auf die Fähigkeit auswirken, zehn Jahre später mit LebensparterIn und ein, zwei lebhaften Kleinkindern im echten 3D Raum zurecht zu kommen. Generell ist Millers Optimismus wohl schon angebracht. Das Beziehungspotential von Menschen ist gross und wird auch Facebook überleben. Im Ausmass geht aber Miller mit seiner positiven Wertung deutlich zu weit. Es fehlt an kritischer Distanz: Nicht weil er mit Milliardenkonzernen sympathisiert, sondern weil er seinen Figuren nicht zu nahe treten will.

Miller bringt eine Reihe von weiteren Thesen zur Sprache, etwa Facebook als Meta-Freund oder die Limiten als Instrument politischer Aktion. Die meisten sind in der Lesegruppen Runde wenig kontrovers diskutiert worden. Unter dem Strich ein wertvolles Buch. Miller bringt relevante Themen auf. Und vor allem: Er fabuliert nicht einfach sondern ist hingegangen, hat mit den Leuten gesprochen und Material gesammelt.

Postkoloniale Gemengelage

Die Lesegruppe der Digitalen Allmend bespricht weitere Fallstudien der Internetkultur auf Trinidad. Vieles im Material von Daniel Miller gleicht den Verhältnissen, wie wir sie in Europa kennen. Die digitale Moderne überlagert sich aber mit Elementen des kolonialen Erbes zu einer komplizierten Gemengelage.

Das zeigt sich etwa in der Figur von Arvind, der dem Facebook online Game Farmville verfallen ist. Der Autor macht keinen Hehl aus seiner Abneigung gegen eine Haltung, die der besten Tradition Trinidads direkt entgegenläuft. Die sieht Miller in der Figur von Eric Williams (1911-1981) verkörpert. Der führte Trinidad in die Unabhängigkeit und engagierte sich, um der kolonialen landwirtschaftlichen Rohstoffabhängigkeit eine wirtschaftliche Alternative mit mehr Wertschöpfung entgegen zu stellen.

Und was tun nun Jugendliche wie Arvind? Sie spielen ein Landwirtschaftsspielchen, dass ihnen ein US-Konzern anbietet.

Nun ist Miller allzu sehr Ethnologe, um da stehen zu bleiben. Er sieht sich die soziale Lage von Arvind genauer an, der zu den Verlierern einer neueren Entwicklung gehört. Er ist kein Sprössling der Oberschicht, welche sich wenig um den lokalen Kontext kümmert und den Nachwuchs an den besten Schulen und internationalen Unis platziert. Persönlich erscheint Arvind eher scheu und gehemmt. Facebook und Farmville erlauben ihm, vor dem Bildschirm auf indirektere Art dabei zu sein. Schlussendlich nimmt Miller von jeglicher Verurteilung Abstand. Sein Vorschlag, Medien wie Facebook oder Farmville „nach ihrem Nutzen für die Benachteiligten“ zu beurteilen, führt allerdings zur weiteren Frage, wie dieser Nutzen gefasst werden kann.

Noch sind wir allerdings bei den eher beschreibenden Fallbeispielen. Im Schlussteil des Buches will der Autor dann das Material analysieren.

Tropisches Netz

Passend zu den Minusgraden wendet sich die Lesegruppe der Digitalen Allmend wärmeren Gefilden zu und diskutiert “Das wilde Netzwerk. Ein ethnologischer Blick auf Facebook” (1). In einem für uns wenig vertrauten Kontext arbeitet Daniel Miller Züge der neuen Medienkultur plastisch heraus. Allzu plastisch?

Der Autor präsentiert das Material seiner Feldforschungen auf Trinidad in sieben Portraits, die nicht reale Personen sondern verdichtete Figuren präsentieren. Das ist nachvollziehbar, soweit der Autor typische Elemente klarer herausarbeiten und den Figuren mehr Kontur verleihen will. Das wird aber auch zum Problem, weil dem Leser die Möglichkeit zum Kalibrieren fehlt. Die Figuren wirken überkoloriert, was der Schilderung einen exotistischen Drall verleiht.

Da ist Marvin, der sein geschäftliches Kontaktnetz auf Facebook nicht nur für Geschäfte nutzt, sondern mit weiblichen Kundinnen gerne anbändelt. Seine Frau sieht das eher ungern. Es hilft nun auch nicht, dass Marvin für vertrauliches Geplauder in geschlossene Chats ausweicht. Die Ehe ist futsch.

Dann wird uns Vishala näher gebracht, anfangs zwanzig, mit Kind aber ohne dessen Papa unterwegs. Sie nutzt Facebook, um sich in Bildern und erotisch expliziten Texten als attraktive Zeitgenossin zu präsentieren. Sie dokumentiert eindrücklich den zentralen Stellenwert, den die Internetplattform für ihre Identitätsproduktion und Selbstwertgefühl einnimmt. Sie stilisiert das Web zur dynamischen Quelle von Wahrheit, wo aufgrund von Kommentaren und Interaktionen niemand auf die Länge seinen wahren Charakter verbergen könne.

Das alles lässt den Leser etwas ratlos zurück. Die Phänomene sind bekannt. Sind die jungen Mittelständler in Trinidad einfach noch etwas impulsiver und unbedarfter? Es entsteht der Eindruck, sie würden noch weniger als manche Jugendliche hier die Folgen ihres Tuns überblicken. Der Autor lässt den Stereotyp der naiven naturhaften Tropen aufscheinen – wohl gegen seine Absicht.

1) Suhrkamp, 2012

Zenit des Fernsehens

Unermüdlich pflügt sich die Lesegruppe der Digitalen Allmend durch die bundesrepublikanische Mediengeschichte. Im neuesten Kapitel geht es um Aufstieg und Niedergang des Leitmediums Fernsehen.

Die 60er und 70er Jahre sieht Werner Faulstich im Zeichen des Fernsehens und einer medialen Alternativkultur. 1963 beginnt das ZDF als zweiter nationaler Kanal zu senden. Die Sendedauer expandiert und nähert sich einem Vollprogramm. Die Durchdringung mit TV-Geräten ist nun hoch. Vor allem wird das Fernsehen zu einer wichtigen Bühne gesellschaftlicher Meinungsbildung. Der Autor fasst das mit dem Begriff des Leitmediums im Sinne einer „Meinungsführerschaft in einer grösseren schichten- oder milieuübergreifenden Öffentlichkeit“. Er meint damit nicht einfach politische Themen sondern umfassender: Kultivierung, Agenda-Setting, Meinungsbildung. Das Leitmedium verändert das Leben vieler Menschen und strukturiert es neu (1).

In der Diskussion wird die generelle kulturelle Leitfunktion kaum angezweifelt. Bei der gesellschaftspolitischen Meinungsbildung dürften aber Zeitungen und Zeitschriften gerade bei den zwanzig Prozent am meisten Interessierten das Leitmedium geblieben sein. Und das Radio dürfte hier auch eine Rolle gespielt haben.

Auf Ebene des gesellschaftlichen Mainstreams erscheint die These des Leitmediums jedoch plausibel. Der Autor zeigt nun auf, dass das kein Zustand für die Ewigkeit war. Einerseits hat sich das Fernsehen selbst ausdifferenziert. Mit einem breit angelegten Mix vom anspruchsvollen Magazin wie „Monitor“ bis zu unterschiedlichsten Unterhaltungsformaten entwickelt es sich zum konturlosen Gemischtwarenladen. Hinzu kamen immer mehr private und ausländische Sender.

Andererseits schuf die Bindung an den biederen Mainstream die Voraussetzung für eine Absetzbewegung der Jugend. Die Jugendkultur der 60er und 70er Jahre wurde „von ganz anderen Medien getragen“ – Radio, Schallplatten und Tonband. Unter dem Stichwort alternative Medienszene geht Faulstich allerdings kaum auf die riesige Vielfalt kleiner Printmedien. Bei den Tonträgern zeigt er eindrücklich, wie die alternative musikalische Jugendkultur weitgehend vorerst am Tropf von ein paar nicht eben alternativ wirkenden Konzernen hing. Erst im Lauf der Zeit gewannen unabhängigere Trägermedien und Labels an Gewicht.

Der Aufstieg des Fernsehens setzte andere Medien unter Druck. Beim Buch konstatiert der Autor einen „Niedergang“, der noch von der wachsenden Zahl an Neuerscheinungen überdeckt wurde. In den 70er Jahren deutet sich „ein allmählicher Niedergang des Mediums Zeitung als öffentlichkeitskonstitutives Forum an“. In der Diskussion wurde die Frage erörtert, wie weit auf dem Feld der öffentlichen Debatte das Fernsehen eine produktive Rolle spielen kann. Es kann durchaus eine Verbindung hergestellt werden zwischen dem vergleichsweise qualitativ hochstehenden öffentlichen Fernsehen im Deutschland der letzten Jahrzehnte und dem im europäischen Vergleich überdurchschnittlichen Funktionsfähigkeit von Staat und Wirtschaft.

Faulstich sieht die Medienlandschaft im Trend einer massiven Kommerzialisierung. Die Konzentration im Zeitungswesen, die Bestseller-Kultur beim Buch und werbefinanziertes Fernsehen werden als Indizien herangezogen. Das müsste genauer angesehen werden. Möglicherweise gibt es eine seit Jahrzehnten zunehmende Bereitschaft des Mainstreams, Medienleistungen durch Werbeberieselung statt durch Kauf oder Gebühren abzugelten. Und eine Abnahme ideeller Motive zur Medienproduktion.

Anderseits waren seit je her private Medienunternehmen aus kommerziellen Motiven aktiv. Der Autor relativiert das insofern, als er auf den Hugenberg-Konzern der zwanziger Jahre verweist, der primär um eine politische Achse herum entwickelt wurde und letztendlich auch erfolgreich den Nationalsozialisten den Weg bereiten half. Faulstich sieht die modernen Grosskonzerne wie Springer primär von unternehmerischen Interessen getrieben, auch wenn sie sich jahrelang an vorderster Front in die gesellschaftspolitische Konfrontation einmischen, wie das die Springer-Presse gegen die Studentenbewegung gemacht hat.

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012.

 

Medien im Nachkriegs-Vakuum

Die Lesegruppe der Digitalen Allmend hat sich mit der Medienlandschaft unter nationalsozialistischer Herrschaft befasst. Nun geht es um die Entwicklungen der Nachkriegszeit. Werner Faulstich interpretiert sie im Kontext eines „allgemeinen Wertevakuums“ (1).

Der Autor skizziert zwei Linien, um die herum dieses Vakuum gefüllt wurde. Konsum und Bewältigung. In den Trümmern der unmittelbaren Nachkriegszeit wuchsen die Fundamente der bundesrepublikanischen Konsumgesellschaft. Plakate und Anzeigen transportierten mit vorerst wenig innovativen medialen Mittel die Werbebotschaften für Konsumgüter. Faulstich spricht von einer „Kompensation durch Konsum“, welche die Orientierungskrise milderte und Material für eine neue Alltagskultur lieferte. Über die Konsumgüter hinaus nimmt Faulstich darum auch den Aufschwung von Comics und Groschenromanen in den Blick.

Offen lässt er, Comics in Deutschland auch einen nennenswerten erwachsenen Leserkreis fanden, wie in Frankreich. Zweifellos waren aber Arztromane, Landserhefte oder Jerry Cotton Geschichten sehr beliebt.

Zusammen mit dem Aufschwung von Presse und Taschenbüchern konstatieren wir für die fünfziger Jahre eine ausgeprägte Lesekultur, auch für längere Texte. Zusammen mit dem weiterhin bedeutenden Radio und der Ausbreitung des Fernsehens schliessen wir in der Diskussion auf einen quantitativ erhebliche Ausdehnung des Medienkonsums, der möglicherweise mit der Reduktion der Arbeitszeit zusammenhängt. Es stellt sich auch die Frage, wie weit eine Aufwertung des Bildungsgedankens den Konsum beeinflusste. Das Buch geht auf die Medienrezeption wenig ein.

Den Aspekt der Vergangenheitsbewältigung dokumentiert Faulstich anhand der Fotografie. Hier wurden etwa Kriegsserien, Trümmerfotos und auch Szenen aus Konzentrationslagern dokumentiert. Teilweise zwangen die Alliierten Ladenbesitzer dazu, derartige Darstellungen im Schaufenster auszustellen, um die Bevölkerung mit den Gräueln des Nationalsozialismus zu konzentrieren.

Hinter ein Verbinden einer kulturellen Strategie wie der Bewältigung mit einzelnen Medien hat die Diskussion ein Fragezeichen gesetzt. Sicher dienten Groschenhefte eher einfach der Unterhaltung. Gerade die Landserhefte tragen aber auch ein Element der (selektiven) Bewältigung. Die Fotografie entzieht sich aber Zuordnung, da gab es ja auch die grosse Bandbreite gedruckter Fotografien und den ganzen Bereich der privaten Alltagsfotografie.

Drastisch sichtbar wird in der NS-Zeit wie in den Nachkriegsjahren, wie die politischen und gesellschaftlich Randbedingungen die konkrete Medienlandschaft modellieren. Betroffen sind weniger die längerfristigen Entwicklungstrends der Medientechnologie, wohl aber die konkreten Medien, ihre Gestalt und Ausrichtung. Die Alliierten legten für Zeitungen und Rundfunk klare Bedingungen fest. Unter anderem bestanden sie auf einer starken Dezentralisierung der elektronischen Medien, die einem Hang zu zentralistisch-autoritärer Politik entgegenwirken sollten. Die Folgen zeigen sich bis heute auf jedem zentraleuropäischen TV: In Form der ARD und den starken Länderanstalten.

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012. Zitat S. 195

Medien im 20. Jahrhundert

Um die digitalen Medien in einem grösseren Zusammenhang zu diskutieren, pflügt sich die Lesegruppe der Digitalen Allmend durch eine Mediengeschichte des 20. Jahrhunderts (1). Bereits um 1900 lässt sich eine grosse Vielfalt persönlicher und öffentlicher Medien konstatieren.

Die mediale Moderne hat sich in mehreren Schüben ausgeprägt. Gegen Ende des 19. Jahrhunderts entsteht die Massengesellschaft mit entsprechenden alltagskulturellen und medialen Formen. Ein zweiter Schub erfolgt in den zwanziger Jahren. Da formieren sich nicht nur in New York, Paris und London, sondern auch in Tokyo, Shanghai und Berlin vibrierende Formen der Populärkultur: Kinos, Sechstagerennen, Kabaretts, Boulevardblätter, Illustrierte und tausende von spezialisierten Publikationen.

Die wichtige Rolle Berlins und Deutschlands rechtfertigt durchaus einen exemplarischen Blick. Dass Werner Faulstich im Titel „Die Mediengeschichte des 20. Jahrhunderts“ verspricht, um dann nur von Deutschland zu schreiben, geht dann aber vielleicht etwas weit.

Der Autor setzt mit der Situation Ende des 19. Jahrhunderts ein und skizziert materialreich die Medienlandschaft. Überraschend wirkt manche Gewichtung, wenn er etwa das „Ende des Theaters als Medium“ bespricht. Wie in der Diskussion der Lesegruppe dann immer klarer wird, hat das seinen Grund in Faulstichs Medienbegriff. Der zentriert sehr stark um die technisch-materielle Form. Das hat durchaus erfrischende Folgen. Konsequent blickt der Autor so auch ausführlich auf unspektakuläre Medien und rückt etwa mit Briefmarken, Spielkarten oder Kochrezepten auch die grosse Gruppe von Blattmedien umfassend ins Blickfeld.

Zu Recht identifiziert Faulstich für das Ende des 19. Jahrhunderts „erste Tendenzen des Umschwungs zu den elektrischen Medien“. Das ist im Fall des Telefons offensichtlich. Bei Film und Schallplatten kann allenfalls von ersten Anzeichen die Rede sein, zumal das Grammophon um 1900 weder elektrischen Antrieb noch elektronische Verstärkung aufwies.

Der Autor skizziert die enorme Vielfalt der Printmedien, die sich um 1900 und erneut in den zwanziger Jahren herausgebildet hat. Neben bekannteren Tageszeitungen und illustrierten Wochenzeitschriften erschienen tausende von weiteren Printmedien von Kunst bis Klassenkampf, von Wissenschaft bis Lebensreform. Hinzu kamen an Organisationen gebundene Publikationen von Berufsverbänden, Parteien oder Vereinen. Hier lässt sich durchaus die These einer weit entwickelten printbasierten Informationsgesellschaft einbringen, in der interessierte ZeitgenossInnen eher mit Informationsüberlastung als mit Informationsmangel zu kämpfen hatten.

Nun war es auch in den zwanziger Jahren nicht so, dass die neugierige städtische Mittelschicht sich hinter Klassiker und gelehrte Zeitschriften klemmte. Faulstich charakterisiert eine Medienkultur, „die von Werbekultur, Propaganda und vor allem Unterhaltungskultur in einem bislang noch nicht da gewesenen Ausmass bestimmt wurde“. Entsprechend stiegen die Ansprüche an grafische Gestaltung und Schriftsatz, was mit einer Professionalisierung dieser Berufe und einem Aufschwung der Kunstgewerbeschulen einherging. Hier stellt sich die Frage, wie weit auch ästhetische Elemente in ein Medienkonzept eingehen. Die Gestaltung von Titelbildern, Fotoseiten oder elegante Modeinserate gehören mit zur Vorstellung bestimmter Medientypen etwa in den zwanziger Jahren.

Das interessiert den Autor aber weniger. Seine Zentrierung auf einen technisch-materiellen Medienbegriff lässt kuluturelle Aspekte verblassen. Das geht weit über die Gestaltung hinaus. Faulstich macht kaum plausibel, mit welchen soziokulturellen Entwicklungen die Medientrends etwa in den zwanziger Jahren interagieren.

 

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012. (Die ersten Kapitel besprochen am 10. Juni und 2. Juli 2013).