Wetter digital

Wenn sich Nate Silver über hunderte von Seiten mit der Berechenbarkeit der Zukunft auseinandersetzt (1), darf das Thema Wetter nicht fehlen. Die Lesegruppe der Digitalen Allmend beugt sich über Gittermodelle und Wetterprognosen.

Erst ziemlich spät, ab Mitte des 19. Jahrhunderts, wenden sich Naturwissenschaftler auch dem Wetter zu. Das Verständnis des Wettergeschehens und die Prognosefähigkeit bleiben vorerst bescheiden. Ein methodischer Durchbruch gelang Lewis Fry Richardson 1916, als er die Idee des Gittermodells aufs Papier brachte und erste Berechnungen versuchte. Die scheiterten allerdings aufgrund der grossen Kantenlänge, der Beschränkung auf zwei Dimensionen und der fehlenden Rechenkapazitäten.

Das wird von Silver eingängig präsentiert. Weiter geht es allerdings nicht. Dabei würde uns ja mindestens in grossen Zügen interessieren, was denn so gerechnet wird für diese Grids. Immerhin macht Silver mit dem Gridmodell mehr deutlich, als das etwa bei der Erdbebenprognose geschieht.

Der Autor beleuchtet grundsätzliche Probleme von Prognosen über das Wetter und andere dynamische Systeme. Eine Problematik wird unter dem Titel Chaostheorie seit den siebziger Jahren diskutiert. Damals stiess der Meteorologe Edward Lorenz beim Hantieren mit einem Computermodell darauf, dass minimste Änderungen an einem Parameter zu völlig anderen Ergebnissen führen können. Die von mechanistischem Determinismus beseelte naturwissenschaftliche Community war perplex.

Der Volksmund hat das Problem allerdings schön längst im Tropfen, der das Fass zum Überlaufen bringt, gefasst – die Philosophiegeschichte im dialektischen Umschlagen von Quantität in Qualität. Das nun stammt allerdings nicht von Silver.

Der weist darauf hin, dass die Naturwissenschaften seit der Quantentheorie eigentlich auf die Relativität allen Prognostizierens vorbereitet war. Jahrhunderte lang hatte die Hypothese starke Anhängerschaft, dass die Position und Dynamik der Atome im Universum potentiell analysierbar und die Zukunft darum determiniert und voraussehbar sei. Damit war mit der Quantenmechanik Schluss. Wenn das System nicht deterministisch funktioniert, gibt es auch kein perfektes Modell dafür.

Silver macht uns also eindringlich auf die prinzipiellen Grenzen aufmerksam. Das führt aber zu einem Problem, das dem Autor gar nicht aufzufallen scheint: Wenn das Universum respektive das Wetter so indeterminiert sind, warum sind denn überhaupt Prognosen möglich? Welche Systemeigenschaften erlauben Wetterprognosen mit erheblicher Wahrscheinlichkeit auf fünf Tage hinaus möglich? Warum nicht nur auf zwei Minuten? Warum nicht auf zwei Jahre hinaus?

Weder beim Thema Erdbeben noch beim Thema Wetter macht uns der Autor einigermassen klar, was ein Modell in Bezug auf Realität überhaupt ist und leisten kann. Wir sind gespannt, was noch folgt. Der Text ist lesenswert und wartet mit interessanten Details auf. Wer hätte gedacht, dass es bei einer 14Tage Wetterprognose besser ist, den langfristigen Durchschnitt zu präsentieren als die Modellergebnisse?

1) „Die Berechnung der Zukunft“

Datenflut und Prognoseflops

Ob Berufserfahrung am Pokertisch die geeignete Qualifikation für einen Prognose-Experten bilden? Vielleicht schon. Nat Silver jedenfalls nimmt sich in „Die Berechnung der Zukunft“ die Verheissungen von Big Data und die Fehlleistungen mancher Prognosen vor. Die Digitale Allmend hat sich von Beginn weg auch für die Frage interessiert, ob digitale Technologien mit einer gesteigerten Daten- und Informationsmenge auch zu mehr und besserem Wissen beitragen. Mehr Wissen müsste sich auch in besseren Prognosen niederschlagen.

Dass von stetig besseren Prognosen im Computerzeitalter keine Rede sein kann, macht Silver anhand seines Spezialgebiets der US Wahlprognosen klar. Ein hoher Anteil der Prognosen liegt daneben. Und das ist eigentlich auch egal. Wie der Autor anhand einer regelmässig parlierenden TV Expertenrunde zu zeigen versucht, herrscht eine Kultur des raschen Vergessens. Niemand wertet aus oder reflektiert die die zugrundeliegenden Annahmen.

Einleitend geht Silver auf das Spannungsfeld zwischen Information und Wissen ein. Er legt gleich mit der Prognose los, dass „noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Information in nützliches Wissen umzuwandeln“. Dann zitiert er zustimmend Krugmann mit der These, in den 70er Jahren habe es einen riesigen Theorieüberhang auf der Basis geringer Informationsmengen gegeben, mag das in speziellen Gebieten ökonomischer oder meteorologischer Modelle zutreffen. Krugmann bezieht sich auf eine bestimmte Konzeption des Modellbaus. Da wird mit beschränktem Wissen über das zu modellierende System einfach mal modelliert. Dann werden historische Datenreihen durchs Modell gerattert und die Stellschrauben solange gedreht, bis die auftretenden Anomalien minimiert sind. Dann wird in die Zukunft projiziert.

Bei Krugmanns These geht aber der Zusammenhang verloren, dass im Allgemeinen völlig hinreichende Information vorhanden waren, um Vorgänge wie den Ersten Weltkrieg, die Grosse Depression oder die Entwicklungsdynamik der Sowjetunion zu analysieren. Silver verpasst es leider ein weinig, Prognosefelder zu unterscheiden. 1980 den Zusammenbruch der Sowjetunion oder am Montag das Freitagswetter fürs Tessin zu prognostizieren sind doch zwei verschiedene paar Schuhe.

Silver macht deutlich, dass er diesen Methoden auch in der Big Data Variante mit der nötigen Distanz gegenüber tritt. Sein Ansatz ist pragmatisch. Wo er dann allerdings methodische Annahmen deutlich macht, wird es schon mal problematisch. So stellt er die geeignete Grundhaltung eines Prognostikers zur Diskussion. Er bevorzugt die Figur des Fuchses: Der bedient sich verschiedener Fachgebiete und Perspektiven, ignoriert eigene Haltungen und ist offen für Komplexität. Gar nichts hält er von Igeln, die selbstbezogen mit starren Methoden und ideologisch fixiert agieren. So angemessen eine pragmatische Haltung erscheint, das ist doch etwa schlicht auf schwarz-weiss getrimmt. Nun ist ja das Buch auch im Heyne-Verlag erschienen, dem kein Hang zur Überkomplexität nachgesagt werden kann.

Vereinfachung ist allerdings doch unumgänglich, wie die Lebhafte Diskussion der Lesegruppe über das Thema Finanzkrise zeigt. Silver schafft es auf ein paar Seiten, wichtige Züge der Entwicklung zu skizzieren. Er gibt auch einzelne Hinweise darauf, warum etwa die Ratingagenturen nicht rechtzeitig Alarm schlugen. Ihre Modelle waren durch falsche Annahmen unterlegt und das Risiko eines schweren Einbruchs der Immobilienpreise wurde unterschätzt.

Trotz mehrerer wichtiger Beobachtungen gelangt hier Silver mit seinem pragmatisch positivistischen Erklärungsmodell an seine Grenzen. In der Diskussion wird etwa auf die Interessensteuerung hingewiesen: Die meisten Player handelten einfach so, wie es ihren kurzfristigen Geschäftsinteressen entsprach. Weiter wird Silver kritisiert, dass er die Vorstellungswelt nicht analysiert, mit denen die direkten Akteure, aber auch Journalistinnen, Wirtschaftsprofessoren oder Regulierungsbehörden und eine weitere Öffentlichkeit unterwegs waren. Sogar ohne Internet waren in jedem Dorfkiosk die Informationen über die Entwicklung der problematischen Produkte und die ersten Risse im US-Immobilienmarkt greifbar. Wer relevante Information in eine erheblich unangemessene Weltsicht einsortierte, gelangte zu einer verzerrten Einschätzung von Risiken und Handlungsoptionen.

Support für Einsame

Nach den Personenstudien im ersten zieht Daniel Miller im zweiten Teil der Studie Schlussfolgerungen. Da kommt “Das wilde Netzwerk” zu einer erstaunlich wohlwollenden Einschätzung von Facebook.

Einleitend verweist Miller darauf, dass Menschen nicht erst seit der Erfindung von Facebook zu sozialen Netzwerken gehören. Dabei lässt Miller dem Milliardenkonzern die Selbststilisierung zum sozialen Netzwerk durch. Da würde es durchaus klärend wirken, ausdrücklich zwischen Facebook als medialer Infrastruktur und den sozialen Beziehungen, die zwischen den Usern gepflegt werden zu unterscheiden.

Miller sieht durchaus einen Unterschied zwischen Infrastruktur und Beziehung. Das wird in seiner ersten These sichtbar: „Facebook erleichtert das Führen von Beziehungen“. Das meint er nicht einfach in einem elementaren Sinn eines technischen Behelfs. Vielmehr rückt er als Begründung die Defizite der Kontaktaufnahme im ‚wirklichen‘ Leben ins Zentrum: Viele Leute haben Hemmungen, direkt Kontakt zu knüpfen, es besteht die Möglichkeiten zu Komplikationen und Missverständnissen, schon gar wenn es um Liebe geht. Zudem könnten User sich auf Facebook über andere informieren, bevor Kontakt aufgenommen wird. So habe sich Facebook zu einer riesigen Dating-Agentur entwickelt.

In einer weiteren These meint Millter: „Facebook hilft den Einsamen“. Hier spinnt Miller die Argumentation weiter, dass Facebook Möglichkeiten schafft, die Restriktionen des sozialen Lebens zu Überschreiten. So hat der früher im Buch angesprochene Arvind als Farmville Spieler Kontakte gefunden – das Netzwerk hat ihm „zweifellos geholfen“.

Die Rolle von Facebook als Defizit Kompensator löst lebhafte Diskussion aus. Da ist ein weitläufiges Problemfeld angesprochen. Tatsächlich unterliegen viele (oder alle) Menschen Einschränkungen bei Knüpfen von Kontakten. Das hängt auch mit Defiziten in der Alltagskultur des Urban Lifestyle zusammen. In konventionellen Locations bis hin zur Szenebar ist es in Europa – und vielleicht auch in Trinidad – unklar, unter welchen Umständen und wie spontane Kontakte angesagt sind. Da wirkt Millers Position durchaus plausibel: Die Kontaktaufnahme via ein technische Medium ist kühler, mittelbarer, niederschwelliger.

Was bei Miller zu kurz kommt, ist eine Gesamtbilanz von Nutzen und Kollateralschäden: Eine Begleitthese könnte lauten: Wer seine Defizite beim Pflegen von direkten Beziehungen weitgehend durch Mediennutzung kompensiert, bleibt auf seinen Defiziten sitzen. Diese Fragestellung lässt sich allerdings nicht mit Millers Methode klären. Es wäre interessant, Typen von NutzerInnen zu bilden und entsprechende Gruppen über ein, zwei Jahrzehnte zu verfolgen.

Es wäre durchaus interessant zu sehen, wie extensive Facebook-Beziehungspflege als Twen sich auf die Fähigkeit auswirken, zehn Jahre später mit LebensparterIn und ein, zwei lebhaften Kleinkindern im echten 3D Raum zurecht zu kommen. Generell ist Millers Optimismus wohl schon angebracht. Das Beziehungspotential von Menschen ist gross und wird auch Facebook überleben. Im Ausmass geht aber Miller mit seiner positiven Wertung deutlich zu weit. Es fehlt an kritischer Distanz: Nicht weil er mit Milliardenkonzernen sympathisiert, sondern weil er seinen Figuren nicht zu nahe treten will.

Miller bringt eine Reihe von weiteren Thesen zur Sprache, etwa Facebook als Meta-Freund oder die Limiten als Instrument politischer Aktion. Die meisten sind in der Lesegruppen Runde wenig kontrovers diskutiert worden. Unter dem Strich ein wertvolles Buch. Miller bringt relevante Themen auf. Und vor allem: Er fabuliert nicht einfach sondern ist hingegangen, hat mit den Leuten gesprochen und Material gesammelt.

Postkoloniale Gemengelage

Die Lesegruppe der Digitalen Allmend bespricht weitere Fallstudien der Internetkultur auf Trinidad. Vieles im Material von Daniel Miller gleicht den Verhältnissen, wie wir sie in Europa kennen. Die digitale Moderne überlagert sich aber mit Elementen des kolonialen Erbes zu einer komplizierten Gemengelage.

Das zeigt sich etwa in der Figur von Arvind, der dem Facebook online Game Farmville verfallen ist. Der Autor macht keinen Hehl aus seiner Abneigung gegen eine Haltung, die der besten Tradition Trinidads direkt entgegenläuft. Die sieht Miller in der Figur von Eric Williams (1911-1981) verkörpert. Der führte Trinidad in die Unabhängigkeit und engagierte sich, um der kolonialen landwirtschaftlichen Rohstoffabhängigkeit eine wirtschaftliche Alternative mit mehr Wertschöpfung entgegen zu stellen.

Und was tun nun Jugendliche wie Arvind? Sie spielen ein Landwirtschaftsspielchen, dass ihnen ein US-Konzern anbietet.

Nun ist Miller allzu sehr Ethnologe, um da stehen zu bleiben. Er sieht sich die soziale Lage von Arvind genauer an, der zu den Verlierern einer neueren Entwicklung gehört. Er ist kein Sprössling der Oberschicht, welche sich wenig um den lokalen Kontext kümmert und den Nachwuchs an den besten Schulen und internationalen Unis platziert. Persönlich erscheint Arvind eher scheu und gehemmt. Facebook und Farmville erlauben ihm, vor dem Bildschirm auf indirektere Art dabei zu sein. Schlussendlich nimmt Miller von jeglicher Verurteilung Abstand. Sein Vorschlag, Medien wie Facebook oder Farmville „nach ihrem Nutzen für die Benachteiligten“ zu beurteilen, führt allerdings zur weiteren Frage, wie dieser Nutzen gefasst werden kann.

Noch sind wir allerdings bei den eher beschreibenden Fallbeispielen. Im Schlussteil des Buches will der Autor dann das Material analysieren.

Tropisches Netz

Passend zu den Minusgraden wendet sich die Lesegruppe der Digitalen Allmend wärmeren Gefilden zu und diskutiert “Das wilde Netzwerk. Ein ethnologischer Blick auf Facebook” (1). In einem für uns wenig vertrauten Kontext arbeitet Daniel Miller Züge der neuen Medienkultur plastisch heraus. Allzu plastisch?

Der Autor präsentiert das Material seiner Feldforschungen auf Trinidad in sieben Portraits, die nicht reale Personen sondern verdichtete Figuren präsentieren. Das ist nachvollziehbar, soweit der Autor typische Elemente klarer herausarbeiten und den Figuren mehr Kontur verleihen will. Das wird aber auch zum Problem, weil dem Leser die Möglichkeit zum Kalibrieren fehlt. Die Figuren wirken überkoloriert, was der Schilderung einen exotistischen Drall verleiht.

Da ist Marvin, der sein geschäftliches Kontaktnetz auf Facebook nicht nur für Geschäfte nutzt, sondern mit weiblichen Kundinnen gerne anbändelt. Seine Frau sieht das eher ungern. Es hilft nun auch nicht, dass Marvin für vertrauliches Geplauder in geschlossene Chats ausweicht. Die Ehe ist futsch.

Dann wird uns Vishala näher gebracht, anfangs zwanzig, mit Kind aber ohne dessen Papa unterwegs. Sie nutzt Facebook, um sich in Bildern und erotisch expliziten Texten als attraktive Zeitgenossin zu präsentieren. Sie dokumentiert eindrücklich den zentralen Stellenwert, den die Internetplattform für ihre Identitätsproduktion und Selbstwertgefühl einnimmt. Sie stilisiert das Web zur dynamischen Quelle von Wahrheit, wo aufgrund von Kommentaren und Interaktionen niemand auf die Länge seinen wahren Charakter verbergen könne.

Das alles lässt den Leser etwas ratlos zurück. Die Phänomene sind bekannt. Sind die jungen Mittelständler in Trinidad einfach noch etwas impulsiver und unbedarfter? Es entsteht der Eindruck, sie würden noch weniger als manche Jugendliche hier die Folgen ihres Tuns überblicken. Der Autor lässt den Stereotyp der naiven naturhaften Tropen aufscheinen – wohl gegen seine Absicht.

1) Suhrkamp, 2012

Zenit des Fernsehens

Unermüdlich pflügt sich die Lesegruppe der Digitalen Allmend durch die bundesrepublikanische Mediengeschichte. Im neuesten Kapitel geht es um Aufstieg und Niedergang des Leitmediums Fernsehen.

Die 60er und 70er Jahre sieht Werner Faulstich im Zeichen des Fernsehens und einer medialen Alternativkultur. 1963 beginnt das ZDF als zweiter nationaler Kanal zu senden. Die Sendedauer expandiert und nähert sich einem Vollprogramm. Die Durchdringung mit TV-Geräten ist nun hoch. Vor allem wird das Fernsehen zu einer wichtigen Bühne gesellschaftlicher Meinungsbildung. Der Autor fasst das mit dem Begriff des Leitmediums im Sinne einer „Meinungsführerschaft in einer grösseren schichten- oder milieuübergreifenden Öffentlichkeit“. Er meint damit nicht einfach politische Themen sondern umfassender: Kultivierung, Agenda-Setting, Meinungsbildung. Das Leitmedium verändert das Leben vieler Menschen und strukturiert es neu (1).

In der Diskussion wird die generelle kulturelle Leitfunktion kaum angezweifelt. Bei der gesellschaftspolitischen Meinungsbildung dürften aber Zeitungen und Zeitschriften gerade bei den zwanzig Prozent am meisten Interessierten das Leitmedium geblieben sein. Und das Radio dürfte hier auch eine Rolle gespielt haben.

Auf Ebene des gesellschaftlichen Mainstreams erscheint die These des Leitmediums jedoch plausibel. Der Autor zeigt nun auf, dass das kein Zustand für die Ewigkeit war. Einerseits hat sich das Fernsehen selbst ausdifferenziert. Mit einem breit angelegten Mix vom anspruchsvollen Magazin wie „Monitor“ bis zu unterschiedlichsten Unterhaltungsformaten entwickelt es sich zum konturlosen Gemischtwarenladen. Hinzu kamen immer mehr private und ausländische Sender.

Andererseits schuf die Bindung an den biederen Mainstream die Voraussetzung für eine Absetzbewegung der Jugend. Die Jugendkultur der 60er und 70er Jahre wurde „von ganz anderen Medien getragen“ – Radio, Schallplatten und Tonband. Unter dem Stichwort alternative Medienszene geht Faulstich allerdings kaum auf die riesige Vielfalt kleiner Printmedien. Bei den Tonträgern zeigt er eindrücklich, wie die alternative musikalische Jugendkultur weitgehend vorerst am Tropf von ein paar nicht eben alternativ wirkenden Konzernen hing. Erst im Lauf der Zeit gewannen unabhängigere Trägermedien und Labels an Gewicht.

Der Aufstieg des Fernsehens setzte andere Medien unter Druck. Beim Buch konstatiert der Autor einen „Niedergang“, der noch von der wachsenden Zahl an Neuerscheinungen überdeckt wurde. In den 70er Jahren deutet sich „ein allmählicher Niedergang des Mediums Zeitung als öffentlichkeitskonstitutives Forum an“. In der Diskussion wurde die Frage erörtert, wie weit auf dem Feld der öffentlichen Debatte das Fernsehen eine produktive Rolle spielen kann. Es kann durchaus eine Verbindung hergestellt werden zwischen dem vergleichsweise qualitativ hochstehenden öffentlichen Fernsehen im Deutschland der letzten Jahrzehnte und dem im europäischen Vergleich überdurchschnittlichen Funktionsfähigkeit von Staat und Wirtschaft.

Faulstich sieht die Medienlandschaft im Trend einer massiven Kommerzialisierung. Die Konzentration im Zeitungswesen, die Bestseller-Kultur beim Buch und werbefinanziertes Fernsehen werden als Indizien herangezogen. Das müsste genauer angesehen werden. Möglicherweise gibt es eine seit Jahrzehnten zunehmende Bereitschaft des Mainstreams, Medienleistungen durch Werbeberieselung statt durch Kauf oder Gebühren abzugelten. Und eine Abnahme ideeller Motive zur Medienproduktion.

Anderseits waren seit je her private Medienunternehmen aus kommerziellen Motiven aktiv. Der Autor relativiert das insofern, als er auf den Hugenberg-Konzern der zwanziger Jahre verweist, der primär um eine politische Achse herum entwickelt wurde und letztendlich auch erfolgreich den Nationalsozialisten den Weg bereiten half. Faulstich sieht die modernen Grosskonzerne wie Springer primär von unternehmerischen Interessen getrieben, auch wenn sie sich jahrelang an vorderster Front in die gesellschaftspolitische Konfrontation einmischen, wie das die Springer-Presse gegen die Studentenbewegung gemacht hat.

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012.

 

Medien im Nachkriegs-Vakuum

Die Lesegruppe der Digitalen Allmend hat sich mit der Medienlandschaft unter nationalsozialistischer Herrschaft befasst. Nun geht es um die Entwicklungen der Nachkriegszeit. Werner Faulstich interpretiert sie im Kontext eines „allgemeinen Wertevakuums“ (1).

Der Autor skizziert zwei Linien, um die herum dieses Vakuum gefüllt wurde. Konsum und Bewältigung. In den Trümmern der unmittelbaren Nachkriegszeit wuchsen die Fundamente der bundesrepublikanischen Konsumgesellschaft. Plakate und Anzeigen transportierten mit vorerst wenig innovativen medialen Mittel die Werbebotschaften für Konsumgüter. Faulstich spricht von einer „Kompensation durch Konsum“, welche die Orientierungskrise milderte und Material für eine neue Alltagskultur lieferte. Über die Konsumgüter hinaus nimmt Faulstich darum auch den Aufschwung von Comics und Groschenromanen in den Blick.

Offen lässt er, Comics in Deutschland auch einen nennenswerten erwachsenen Leserkreis fanden, wie in Frankreich. Zweifellos waren aber Arztromane, Landserhefte oder Jerry Cotton Geschichten sehr beliebt.

Zusammen mit dem Aufschwung von Presse und Taschenbüchern konstatieren wir für die fünfziger Jahre eine ausgeprägte Lesekultur, auch für längere Texte. Zusammen mit dem weiterhin bedeutenden Radio und der Ausbreitung des Fernsehens schliessen wir in der Diskussion auf einen quantitativ erhebliche Ausdehnung des Medienkonsums, der möglicherweise mit der Reduktion der Arbeitszeit zusammenhängt. Es stellt sich auch die Frage, wie weit eine Aufwertung des Bildungsgedankens den Konsum beeinflusste. Das Buch geht auf die Medienrezeption wenig ein.

Den Aspekt der Vergangenheitsbewältigung dokumentiert Faulstich anhand der Fotografie. Hier wurden etwa Kriegsserien, Trümmerfotos und auch Szenen aus Konzentrationslagern dokumentiert. Teilweise zwangen die Alliierten Ladenbesitzer dazu, derartige Darstellungen im Schaufenster auszustellen, um die Bevölkerung mit den Gräueln des Nationalsozialismus zu konzentrieren.

Hinter ein Verbinden einer kulturellen Strategie wie der Bewältigung mit einzelnen Medien hat die Diskussion ein Fragezeichen gesetzt. Sicher dienten Groschenhefte eher einfach der Unterhaltung. Gerade die Landserhefte tragen aber auch ein Element der (selektiven) Bewältigung. Die Fotografie entzieht sich aber Zuordnung, da gab es ja auch die grosse Bandbreite gedruckter Fotografien und den ganzen Bereich der privaten Alltagsfotografie.

Drastisch sichtbar wird in der NS-Zeit wie in den Nachkriegsjahren, wie die politischen und gesellschaftlich Randbedingungen die konkrete Medienlandschaft modellieren. Betroffen sind weniger die längerfristigen Entwicklungstrends der Medientechnologie, wohl aber die konkreten Medien, ihre Gestalt und Ausrichtung. Die Alliierten legten für Zeitungen und Rundfunk klare Bedingungen fest. Unter anderem bestanden sie auf einer starken Dezentralisierung der elektronischen Medien, die einem Hang zu zentralistisch-autoritärer Politik entgegenwirken sollten. Die Folgen zeigen sich bis heute auf jedem zentraleuropäischen TV: In Form der ARD und den starken Länderanstalten.

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012. Zitat S. 195

Medien im 20. Jahrhundert

Um die digitalen Medien in einem grösseren Zusammenhang zu diskutieren, pflügt sich die Lesegruppe der Digitalen Allmend durch eine Mediengeschichte des 20. Jahrhunderts (1). Bereits um 1900 lässt sich eine grosse Vielfalt persönlicher und öffentlicher Medien konstatieren.

Die mediale Moderne hat sich in mehreren Schüben ausgeprägt. Gegen Ende des 19. Jahrhunderts entsteht die Massengesellschaft mit entsprechenden alltagskulturellen und medialen Formen. Ein zweiter Schub erfolgt in den zwanziger Jahren. Da formieren sich nicht nur in New York, Paris und London, sondern auch in Tokyo, Shanghai und Berlin vibrierende Formen der Populärkultur: Kinos, Sechstagerennen, Kabaretts, Boulevardblätter, Illustrierte und tausende von spezialisierten Publikationen.

Die wichtige Rolle Berlins und Deutschlands rechtfertigt durchaus einen exemplarischen Blick. Dass Werner Faulstich im Titel „Die Mediengeschichte des 20. Jahrhunderts“ verspricht, um dann nur von Deutschland zu schreiben, geht dann aber vielleicht etwas weit.

Der Autor setzt mit der Situation Ende des 19. Jahrhunderts ein und skizziert materialreich die Medienlandschaft. Überraschend wirkt manche Gewichtung, wenn er etwa das „Ende des Theaters als Medium“ bespricht. Wie in der Diskussion der Lesegruppe dann immer klarer wird, hat das seinen Grund in Faulstichs Medienbegriff. Der zentriert sehr stark um die technisch-materielle Form. Das hat durchaus erfrischende Folgen. Konsequent blickt der Autor so auch ausführlich auf unspektakuläre Medien und rückt etwa mit Briefmarken, Spielkarten oder Kochrezepten auch die grosse Gruppe von Blattmedien umfassend ins Blickfeld.

Zu Recht identifiziert Faulstich für das Ende des 19. Jahrhunderts „erste Tendenzen des Umschwungs zu den elektrischen Medien“. Das ist im Fall des Telefons offensichtlich. Bei Film und Schallplatten kann allenfalls von ersten Anzeichen die Rede sein, zumal das Grammophon um 1900 weder elektrischen Antrieb noch elektronische Verstärkung aufwies.

Der Autor skizziert die enorme Vielfalt der Printmedien, die sich um 1900 und erneut in den zwanziger Jahren herausgebildet hat. Neben bekannteren Tageszeitungen und illustrierten Wochenzeitschriften erschienen tausende von weiteren Printmedien von Kunst bis Klassenkampf, von Wissenschaft bis Lebensreform. Hinzu kamen an Organisationen gebundene Publikationen von Berufsverbänden, Parteien oder Vereinen. Hier lässt sich durchaus die These einer weit entwickelten printbasierten Informationsgesellschaft einbringen, in der interessierte ZeitgenossInnen eher mit Informationsüberlastung als mit Informationsmangel zu kämpfen hatten.

Nun war es auch in den zwanziger Jahren nicht so, dass die neugierige städtische Mittelschicht sich hinter Klassiker und gelehrte Zeitschriften klemmte. Faulstich charakterisiert eine Medienkultur, „die von Werbekultur, Propaganda und vor allem Unterhaltungskultur in einem bislang noch nicht da gewesenen Ausmass bestimmt wurde“. Entsprechend stiegen die Ansprüche an grafische Gestaltung und Schriftsatz, was mit einer Professionalisierung dieser Berufe und einem Aufschwung der Kunstgewerbeschulen einherging. Hier stellt sich die Frage, wie weit auch ästhetische Elemente in ein Medienkonzept eingehen. Die Gestaltung von Titelbildern, Fotoseiten oder elegante Modeinserate gehören mit zur Vorstellung bestimmter Medientypen etwa in den zwanziger Jahren.

Das interessiert den Autor aber weniger. Seine Zentrierung auf einen technisch-materiellen Medienbegriff lässt kuluturelle Aspekte verblassen. Das geht weit über die Gestaltung hinaus. Faulstich macht kaum plausibel, mit welchen soziokulturellen Entwicklungen die Medientrends etwa in den zwanziger Jahren interagieren.

 

1) Werner Faulstich. Die Mediengeschichte des 20. Jahrhunderts. Fink 2012. (Die ersten Kapitel besprochen am 10. Juni und 2. Juli 2013).

Navigieren im Komplexen

Die Lesegruppe der Digitalen Allmend hat sich am 15. April in gebührender Distanz zum brennenden Böögg mit dem Thema Komplexität befasst. Der Text „Navigating Complexity: From cultural critique to cultural intelligence” (1) stammt aus dem Umfeld der Medienwissenschaften. Wir laden die geneigten Leserinnen dieses Beitrags ein, nicht zu verzagen: Nur ausnahmsweise navigieren wir in so dünner theoretischer Luft. Nächstes Mal geht es mit handfesten Medien weiter…

Ien Ang kritisiert einen allzu vereinfachenden Ansatz des Positivismus, mit dem sie in den 70er Jahren konfrontiert war. Der gehe davon aus, die komplexe Wirklichkeit durch ein Feststellen von Tatsachen auf einfache Gesetze zurückgeführt werden könne. Die Komplexitätstheorie habe einen grossen Fortschritt gebracht. Die entsprechenden Methoden betonen Nichtlinearität, Unvorhersagbarkeit und Selbstorganisation. Ang orientiert sich weniger an einem mathematischen als an einem ökologischen Komplexitätsbegriff, der auch die Chaostheorie umfasst – mit dem bekannten Schmetterlingseffekt.

Die Autorin möchte die Komplexitätstheorie als Leitmethodik für die Gesellschaftswissenschaften etablieren. Sie verweist auf Ansätze im Bereich der Studien von internationalen Beziehungen, wo etwa James Rosenau begonnen hat, die Betrachtung der Staaten im Sinne von innen/aussen abzulösen zugunsten eines Konzepts endloser interaktiver Polaritäten. Hier wurde in der Diskussion deutliche Kritik laut, dass die Autorin den Neuigkeitswert der Globalisierung überzeichne und ohne historische Tiefensicht agiere. Es gab eben nicht nur den Kalten Krieg und dann die Globalisierung. Die zwanziger Jahre waren voller globaler Netze und komplexer zwischenstaatlicher Verhältnisse.

Überzeugender wirkt ihre Betonung des medienwissenschaftlichen Ansatzes von Williams, der 1974 das Fernsehen als Technologie und als kulturelle Form analysierte.

Ang wendet sich gegen einen Kult der Komplexität, wie ihn postmoderne Theorien vorangetrieben haben. Die dogmatische Ablehnung von essentieller Verdichtung gehe mit einer rein beobachtenden Haltung einher, die einen handelnden Zugriff verunmögliche. In der Tat. Mit der Verabsolutierung der Feststellung, dass alles bedeutungstragende Menschenwerk einer ständigen Resemantisierung ausgesetzt ist, lässt sich nichts planen und nichts aufbauen. Mit Russell Jacoby kritisiert die Ang, der Komplexitätsdiskurs diene dazu, die Distanz des akademischen Wissens vom öffentlichen Leben zu rechtfertigen.

Die Autorin klebrige Probleme – messy problems – in direktem Zusammenhang mit Komplexität. Sie wendet sich dann der Frage nach übergrosser Komplexität zu, welche Gesellschaften in den Zusammenbruch treiben können. Sie erinnert an Rom oder die Mayas. Das ist irgendwie schon plausibel. In der Diskussion wurde eine kleine Kritik laut, dass der Begriff der Ausdifferenzierung etwas präziser wäre, als die sehr abstrakte Komplexität. Problematisch erscheint vor allem dieser hohe Grad an Abstraktion. Der Zusammenbruch einer hoch arbeitsteiligen und kulturell vielschichtigen Gesellschaft dürft kaum auf einen eindimensionalen Parameter reduzierbar sein.

Als Dritten Weg zwischen naivem Positivismus und distanzierter Postmoderne schlägt Ang vor, mit nicht simplistischen Vereinfachungen zu arbeiten und kulturelles Wissen (cultural intelligence) zu entwickeln. Das soll die Handlungsfähigkeit gegenüber klebrigen Problemen erlauben. Die Allgemeinheit der ganzen Argumentation traf in der Diskussion auf Skepsis.

Die Autorin versucht ein nach x Versuchen im 20. Jh ein weiteres Mal, naturwissenschaftliche Konzepte auf Gesellschaftswissenschaften zu transferieren. Gegenüber komplexen Ökosystemen weisen eben Gesellschaften jedoch noch eine weitere Dimension auf. Hier erscheinen Formen des Handelns, die an selbstreflexive Formen von Wissen und Kultur gebunden sind. Wer Froschteiche und Finanzkrisen mit dem gleichen Werkzeugkasten analysiert, droht im Allgemeinen stecken zu bleiben.

1) Continuum: Journal of Media and Cultural Studies – Special Issue: Navigating Complexities. Vol. 25, No. 6 (2011)

Was Infos wirklich wollen

Es gibt Texte, die sind gut leserlich und mit anschaulichem Material versehen. Trotzdem fragt man sich nach einem Dutzend Seiten, ob Autor oder Leser oder beide wirklich checken, was ausgesagt respektive verstanden werden soll. So ergeht es mir etwas mit dem Text „Information Wants to Be Shared“ von Joshua Ganz.

Dem Autor geht es um Verteilprozesse von Information, die er aus ökonomischer Perspektive analysieren möchte. Er stellt zu Recht fest, dass Information nur in dem Mass relevant und wirksam wird, wie sie verteilt wird. Der Autor nimmt die Preisbildung in den Blick. Er konstatiert im Einklang mit der allgemeinen Wahrnehmung und mit Steve Wozniak in den achtziger Jahren, dass die Verteilung von Information immer günstiger wird. Autor Ganz versucht, den daraus folgenden Wandel des Informationsmarktes und die Auswirkungen auf die Vertriebsindustrie zu skizzieren. Gelingt das?

Ein Problem: Der Informationsbegriff wird weder geklärt noch differenziert. Joshua Ganz scheint davon auszugehen, dass Informationen im Allgemeinen marktfähig seien. Das leuchtet nicht ein. Grosse Segmente von Informationen gehören persönlicher Kommunikation oder banalen betrieblichen Abläufen an. Niemand will die haben – und schon gar nicht dafür bezahlen. Die meisten Formen von Informationen flottieren einfach in der Gesellschaft herum. Potentiell marktgängig ist Information in moderner Gesellschaft allenfalls, wenn sie als Werk geformt ist. Und auch dann müssen noch verschiedene weitere Bedingungen erfüllt sein. Die Myriaden von Flickr-Fotos oder Schulband-Songs sind werkartige Bausteine der alltagskulturellen Kommunikation – von Marktgängigkeit sind die aber weit entfernt.

Dem würde der Autor wahrscheinlich nicht widersprechen. Ist es dann aber angebracht, so allgemein von Information und Markt zu reden?

Der Autor nennt es immer Information, in manchen Zusammenhängen meint er aber Werke. Im Titel spricht er aber offenbar und meint offenbar ganz allgemein Informationen. Die Lesenden haben lebhaft diskutiert, wie der Titel zu interpretieren sei. Eine Möglichkeit ist, „Information will…“ metaphorisch zu verwenden, dann aber ein ausformuliertes Konzept auszubreiten, das die Rolle sozialer Akteure erläutert oder die Forderung nach optimalem Informationsfluss untermauert. Der Autor scheint die metaphorische Formulierung jedoch ziemlich wörtlich zu nehmen. Wenn Information wirklich „will“, wird sie zum handelnden Akteur hoch stilisiert. Eine eher abenteuerliche Vorstellung. Vermutlich will Information gar nichts. Und ob sie wirklich geteilt werden kann, wäre zu diskutieren. Sicher kann sie nicht so geteilt werden, wie der heilige Martin seinen Mantel teilte, um die Hälfte einem Bettler zu geben.

Joshua Ganz vertritt die These, dass die KonsumentInnen eigentlich immer schon nur das Medium bezahlt hätten, nicht die Information. Etwas plausibler erscheint die Vermutung, dass der Käufer eines Krimis Taschenbuchform für einen Verbund von Medium und Content gezahlt hat. Wobei heute wie in den vergangenen Jahrhunderten immer die Medienhersteller den Löwenanteil der Erträge abschöpft haben – den Contentproduzenten blieben und bleiben Peanuts.

Mit seiner Behauptung, dass im Prinzip nur das Medium marktfähig ist, stützt der Autor einen Diskurs, der die wirtschaftlichen Anspruche der Inhaltsproduktion wegdefiniert und nur die technischen Infrastrukturen und Services wirklich abgelten will. Die ICT-Branche dürfte kaum widersprechen. Sie setzte 2012 rund 3‘000 Milliarden Franken um. Damit sind wir bei realer Ökonomie angelangt. Bei Geldflüssen, Branchen, Interessen und Verteilkämpfen. Diese Aspekte bleiben ausgeblendet, was dem Text eine gewisse Abgehobenheit verleiht.

Wir sind gespannt, wie es weitergeht und hoffen, dass der Text in der nächsten Folge zum Kontrast eine wohlmeinendere Besprechung erhält.

 

Joshua Ganz: Information Wants to Be Shared. Harvard Business Review Press, Boston, Masschusetts. Blog dazu.