Informationelle Aufdringlichkeit

Wie ist ein Recht auf informationelle Selbstbestimmung mit Big Data vereinbar? Im Schlussteil ihres Textes betrachten Mayer und Cukier einige Risiken.

Die Autoren weisen darauf hin, dass trotz einer gewissen Unschärfe von Daten viele Informationen unter Big Data auf Individuen zurückverfolgt werden können. Sie gehen trotzdem von einer vorrangigen Berechtigung aus, Informationen zu beliebigen Zwecken zu verwenden und zu verknüpfen. Da wird die Wahrung der Privatheit und der informationellen Selbstbestimmung ziemlich schwierig. Zu den Grundsätzen des Datenschutzes in Westeuropa gehört, dass persönliche Informationen durch Berechtigte und zu umrissenen Zwecken verwendet werden dürfen.

Für derartige Beschränkungen haben die Autoren kein Musikgehör. Sie möchten einen Markt etablieren, auf dem Konzerne und staatliche Institutionen über professionelle Marktmacher Bündel von Daten aufbereiten und handeln – unproblematische und persönliche. Darum wollen sich vom Schutz individueller Rechte weg zu einer reinen Marktregulierung: Der Staat soll den Info-Brokern Branchenregeln vorschreiben, die den Umgang mit den Datenmassen gestalten. Dass es das auch braucht, ist kaum bestritten.

Die individuellen Rechte zu verwässern, erscheint aber einigermassen problematisch. Das gilt vor allem für persönliche Daten, die zwangsweise erhoben werden, etwa im Gesundheitswesen, beim Hotelbesuch oder beim elektronischen Zahlungsverkehr. Nur ein griffiger Datenschutz kann verhindern, dass private Akteure umfassende Profilsammlungen von Individuen aufbauen und vermarkten können.

Stark in den Vordergrund rücken die Autoren das Problem, dass Big Data basierte Profile vorsorglich zu Handlungen Anlass geben können, die Individuen massiv einschränken. Weil sie von einer massiven Verbesserung von Prognosen ausgehen, sehen sie die Versuchung, dass die Gesellschaft wie in Minority Report bereits aufgrund einer Möglichkeit von Taten eingreifen könnte – bevor etwas passiert ist. Die Befürchtungen erscheinen etwas überzogen, was den Prognose-Optimismus angeht. Zudem basiert Handeln bereits heute nicht selten zwingend auf Risikoeinschätzungen und bleibt für die Betroffenen nicht folgenlos. Etwa bei der Risikoabklärung von Wiederholungstätern oder einer Kreditvergabe.

Gar nicht beachtet wird von den Autoren die Problematik der kriminellen Übergriffe durch private und staatliche Akteure. Die Datensammlungen werden mit oder ohne Big Data immer grösser und relevanter. Ein grosser Schub bahnt sich etwa unter dem Stichwort der individualisierten Medizin an.

Man muss die Einschätzungen von Mayer und Cukier nicht teilen. Der Wert des Buches besteht auf jeden Fall darin, Stossrichtung und Diskurselemente der aufstrebenden Big Data Branche deutlich sichtbar zu machen.

Keine Ursache

Im vierten Kapitel ihres Big Data Buchs machen sich Mayer und Cukier daran, ihre zentrale These weiter zu untermauern. Gelingt es ihnen, einen Primat der Korrelation über die Kausalität plausibel zu machen?

Die Autoren konstatieren, dass die Suche nach Korrelationen im Rahmen konventioneller Statistik schon wichtig war – brillieren würden Korrelationen aber mit Big Data. Erkenntnisse liessen sich leichter, schneller und klarer gewinnen als mit konventionellen Analysen.

Diese These stützen sie mit Beispielen. So hat Amazon festgestellt, dass die so gewonnen Kaufempfehlungen den Umsatz steigern. Oder dass ein Logistikunternehmen mit riesigem Wagenpark den Zeitpunkt eines Unterhalts hinausschieben kann, ohne das Risiko eines Ausfalls zu erhöhen. Hier hat sich in der Diskussion die Frage gestellt, ob das überhaupt ein Big Data Konzept erfordert. Das kann insofern zutreffen, als eine Umwidmung von Daten stattfindet, sofern Weg- und Wetterdaten mit ausgewertet werden, die zu andern Zwecken erhoben wurden. Die Verwendung von nicht eigens dafür gesammelten Daten gilt als wichtiges Element von Big Data.

Die Diskussionsrunde ist sich einig, dass es eine Reihe von Fällen gibt, wo Big Data Korrelationen zu nützlichen Erkenntnissen führen, ohne dass die Problematik kausal modelliert oder konsistent verstanden werden kann. Allerdings trifft das eben nicht auf die meisten Problematiken zu, vor denen die Menschheit steht. Die Beispiele im Buch beziehen sich auf eng gefasste Fragestellungen in den Bereichen Marketing, Logistik oder Epidemiologie.

Von den Autoren wird zudem auch ausgeblendet, dass auch in diesen einfachen Fällen ein implizites Kontextwissen und modellartige Vorstellungen vorhanden sein müssen. Stellen wir uns vor, einer Versuchsperson werden mehre Datensets mit präsentiert, welche die Zuverlässigkeit der europäischen Stromversorgung betreffen. Dazu ein gut designtes Big Data Tool. Mit Ziehen und Klicken kann die Versuchsperson Korrelationssuchen konfigurieren und durchführen. Wird diese Person irgend eine sinnvolle Aussage zu Schwachstellen und Risiken treffen können?

Das Problem taucht in anderer Form in einem späteren Kapitel auf, wo das Entstehen einer neuen Branche und neuer Berufe skizziert wird. Beim Datenspezialisten lassen die Autoren offen, ob der nur Wissen über Tools und formale Aspekte haben muss, oder auch Kontextwissen über die bearbeiteten Probleme.

Damit sind wir bei einem weiteren Begründungsstrang, den Methodenfragen. Die Autoren greifen die konventionelle naturwissenschaftliche Methode an. Die besteht darin, ein Problem zu beschreiben und dann Hypothesen zu formulieren, die überprüft werden. So wird heute nicht nur in der Grundlagenforschung vorgegangen, sondern tendenziell auch in der Pharmaforschung und anderswo. Da, wo wirklich relevante Probleme der Menschheit angegangen werden und beispielsweise Krebs- oder Alzheimermedikamente entwickelt werden, deutet nichts auf einen relevanten Beitrag von Big Data hin. Von andern Problemkategorien wie Failed States oder ökologischen Herausforderungen ist im Buch schon gar nicht die Rede.

Der Versuch, eine methodische Überlegenheit von Big Data angesichts der aktuellen wissenschaftlichen Herausforderungen zu postulieren, scheitert. Da hilft es auch nicht, die durchaus interessante These des Psychologen und Nobelpreisträgers Kahnemann heranzuziehen, der eine spontane und auf Muster orientierte von einer langsameren und reflektierenden Strategie des Menschen ausgeht. Big Data findet ja nicht im situativen Umfeld des isolierten Individuums statt, sondern in Institutionen und längeren Projekten.

Trotz seiner Tendenz zum massiven Überdehnen der Grundthese gefällt uns das Buch gut, weil es prägnant auf relevante Entwicklungen hinweist. Ja, es gibt einen Trend zu massiven Datafizierung, zur Erzeugung und Verfügbarmachung von Daten – auch personenbezogenen. Die Autoren machen Führungskräfte eindringlich darauf aufmerksam, dass Daten ein wichtiger werdende Ressource ihres Unternehmens seien, die angemessen bewertet und genutzt werden sollte. Sie skizzieren das Entstehen einer spezialisierten Branche mit neuen Berufsfeldern. Da werden Daten, Tools und Methoden aufbereitet und gehandelt.

Vorerst skizziert der Text Felder, wo Daten nicht in einer personenbezogenen Weise behandelt werden. Im kommenden Kapitel über Risiken wird sich die Position der Autoren weiter klären. In der Diskussion erörtern wir schon mal die Möglichkeit, gegen den Sog des Big Business Kontrolle über persönliche Daten zu gewinnen und diese im Rahmen von Föderationsmodellen kontrolliert zugänglich zu machen.

Big Data

Die Lesegruppe wendet sich der Revolution zu. Zumindest postuliert der Untertitel des Buchs „Big Data“ eine „Revolution That Will Transform How We Live, Work and Think“. Wie weit das plausibel ist, muss sich zeigen.

Mayer und Cukier stellen fest, dass es keine rigorose Definition von Big Data gebe. Sie zeigen vorerst eine erste, quantitative Dimension auf. Die verfügbaren und verarbeitbaren Datenmengen sind massiv gestiegen. Das ruft nach neuen Strategien, um diese Daten so aufzubereiten, dass sie parallel bearbeitet werden können. Dazu dient etwa Googles MapReduce. Das Buch liefert dazu kaum Informationen. Aufgrund der Lektüre war in der Lesegruppe offen, ob MapReduce auf diese Aufbereitung beschränkt ist, oder ob auch eine Aufbereitung nach inhaltlichen Mustern stattfindet.

Die explosionsartige Zunahme der verfügbaren Informationen wird von den Autoren mit ein paar eingängigen Hinweisen untermauert. 2013 sind etwa 1200 Exabytes an Informationen verfügbar gewesen, davon nur noch 2% in analoger Form. Zur Jahrtausendwende waren letztere mit drei Vierteln des Volumens noch dominant. Uns als Hardcore Neugierige würde natürlich interessieren, was hier mit Information gemeint ist. Sind informationstechnische oder semantisch kulturelle Informationen angesprochen?

Mayer und Cukier skizzieren eine Kulturgeschichte der Informationsmengen, wobei sie über die Erfindung des Buchdrucks bis zur antiken Bibliothek von Alexandria zurückgreifen. Das dient dazu, die Kernthese des Textes plausibel zu machen: Die Umwälzung der Kultur durch Big Data. Vorerst bemerken die Autoren, dass sich BD auf Dinge bezieht, die nur basierend auf einer grossen Datenmenge gemacht werden können und nicht auf einer bescheidenen Ebene. Das hat uns in der Diskussion eingeleuchtet.

Dann aber zünden die Autoren eine nächste Stufe und postulieren, BD würde die Art verändern, wie wir mit der Welt interagieren. Die Menschheit müsse dabei „die Obsession für Kausalität zugunsten von einfacher Korrelation“ fahren lassen. Die Herren lehnen sich weit aus dem Fenster: Wenige Jahre, nachdem die Finanzelite mit unverstandenen Modellen die Weltwirtschaft an den Rand des Abgrunds gefahren hat, wird die Devise „Numbercrunching statt Analyse“ ausgegeben. Der Text wird in späteren Kapiteln darauf zurückkommen, wir sind gespannt.

Wo sich der Text konkreteren Problemen zuwendet, fördert er durchaus interessante Sachverhalte an den Tag. So wird die Problematik erläutert, dass sorgfältig gestaltete Datensammlungen, etwa Telefonumfragen, dank dem Zufallsprinzip grosse Zuverlässigkeit erreicht haben. Weil sie aber sehr aufwändig und in manchen Fällen nicht realisierbar sind, gewinnt die Auswertung bereits vorhandener Datensammlungen an Gewicht, auch wenn diese „messy“ respektive ungeordnet sind und zu andern Zwecken erhoben wurden.

Prognosen zu Klima und Terror

Eine letzte Runde hat die Lesegruppe Nate Silver und seiner „Berechnung der Zukunft“ gewidmet. Silver erfindet sich gegen Ende des Buches nicht neu, sondern bleibt auf seinem pragmatischen journalistischen Pfad.

In Kapitel 12 geht er auf die Prognosen zur Klimaveränderung ein. Er ruft in Erinnerung, dass erste Hypothesen schon Ende 19. Jahrhunderts auftauchten. Erst in den 1980er Jahren wurden aber die Temperatursignale vom natürlichen Trend unterscheidbar. Der Autor ist sichtlich bemüht, in der aufgeheizten Diskussion der USA eine abwägende Tonart anzuschlagen.

Er plädiert dafür, Theorien anhand von Prognosen zu überprüfen. „Die Prognosen der Klimatologen trafen gelegentlich ein, gelegentlich aber auch nicht.“ Dann breitet er die Kontroverse zwischen Scott Armstrong und Al Gore aus, die sich über kurzfristige Trends gebalgt haben. Silver ist zu sehr Bestseller Autor, um sich das Showdown Moment dieses Pseudodramas entgehen lassen. Er treibt damit aber die Lesenden auf ein Terrain, das er anderswo als irrelevant taxiert. Einzelne Jahre und kurzfristige Trends haben absolut nichts mit Klimatrends zu tun, die sich auf Jahrhunderte bis Jahrtausende beziehen.

Zurecht weist Silver in Bezug auf den Prognosehorizont darauf hin, dass Klimatologen kurzfristig keinen Feedback zu ihren Modellen bekommen können, während Meteorologen permanent ihre Modelle justieren können. Ausnahmsweise bringt er in Bezug auf die Prognoseunsicherheit auch endlich einmal einige konzeptuelle Begriffe ins Spiel. Er unterscheidet Unsicherheiten von Anfangsbedingungen, von Szenarien und strukturelle Unsicherheiten. Letztere beruhen auf einem mangelhaft tiefen Verständnis des Klimasystems und seiner mathematischen Modellierung.

Er weist auf das Spannungsfeld zwischen Wissenschaft und Politik hin. Auf dem einen Feld sind Relativierungen und Unsicherheitsangaben erwünscht – im politischen Kampf zählen Einfachheit und eingängige Parolen.

Ein weiteres Kapitel widmet Silver dem Thema Voraussagbarkeit von Terror. Er geht von der Diskussion zum Überfall auf Pearl Harbor aus, wo es durchaus Indizien für den japanischen Überfall von 1941 gab. Hier verlässt er das Gebiet der eigentlichen Prognostik und müsste eigentlich ausführlich auf die Problematik und Methoden einer Lageanalyse eingehen. Auch die Auseinandersetzung mit 9-11 bleibt unbefriedigend. Auch wenn Silver zurückhaltend bleibt, erweckt er den Eindruck, Indizien hätten mit etwas mehr Professionalität sicher eingeordnet werden können.

So sympathisch Silvers Pragmatismus, so interessant manches Beispiel sein mag: Dem Text fehlt es etwas an Tiefgang.

Prognosen-Elend

Weitere zwei Abende hat sich die Lesegruppe der Digitalen Allmend mit Nate Silver beschäftigt und der sich mit der „Berechnung der Zukunft“.

Zu den Stärken von Silver gehört sein journalistisches Vorgehen. Wo er nicht auf eigene Erfahrung zurückgreifen kann, spricht er mit Experten und benennt diese Quellen. Ein Beispiel ist Jan Hatzius, Chefökonom von Goldmann Sachs. Silver ist von dessen Prognoseleistungen und einer nüchternen Haltung beeindruckt. Hatzius hält es für anhaltend schwierig, den Konjunkturzyklus zu prognostizieren, auch wenn in den USA 45‘000 Indikatoren zur Verfügung stehen.

Die Identifikation von Ursache und Wirkung bereitet Probleme. Kritisch merkt Silver an, dass manche Ökonomen einfach eine Handvoll Indikatoren in den Mixer werfen und das Resultat als Haute Cuisine verkaufen würden. Nicht alles, was etwa mit Rezessionen in den USA korreliert, muss einen ursächlichen Zusammenhang haben. Etwas unglücklich illustriert Silver die Möglichkeit nichtkausaler Korrelation mit Glacéverkäufen und Waldbränden. Tatsächlich verursacht der Glacékauf keinen Waldbrand. Trotzdem sind beide insofern kausal verknüpft, als es eine gemeinsame steuernde Grösse gibt, die Lufttemperatur. Echte nichtkausale Korrelationen lagen zeitweise etwa zwischen der National Football League und der Börsenentwicklung vor.

Mit Hatzius sieht Silver in der ständigen Veränderung der Wirtschaft eine zweite Ursache für die Prognoseproblematik. Eine Kausalität und der entsprechende Aspekt eines Modells mögen eine Zeitlang hinreichend stabil sein, um als Baustein einer Prognose zu dienen. Irgendwann ändert sich die Konstellation so stark, dass Kausalität und Korrelation unscharf werden oder wegfallen.

Beide Problemkreise – Zufallskorrelation und Strukturwandel – würden eigentlich den Schluss nahelegen, dass ein Verstehen des Systems respektive eine qualitative Analyse nötig wären, um die Qualität und Reichweite von Parametern wie Modellen klären zu können. Das ist aber nicht Silvers Ding.

Er nimmt aber eine wohltuend nüchterne Haltung und identifiziert mit Hatzius einen dritten Grund für die Unzuverlässigkeit von Konjunkturprognosen: Die zur Verfügung stehenden Daten „sind auch nicht besser“ als die Prognosen selbst (S. 229). Als Beispiel nennt er den Indikator des Konsumentenvertrauens. Da rückt er das Element in den Vordergrund, dass Konsumenten möglicherweise als letzte merken, wenn etwas schief zu laufen beginnt.

In weiteren Kapiteln geht der Autor dann auf Schach und Poker ein, wobei er genüsslich ein das Thema Mensch gegen Maschine in Form eines Showdowns inszeniert: Kasparow versus BigBlue. Neu ist das nicht. Er bringt aber weiteres interessantes Material und bleibt auch hier lesenswert.

Wetter digital

Wenn sich Nate Silver über hunderte von Seiten mit der Berechenbarkeit der Zukunft auseinandersetzt (1), darf das Thema Wetter nicht fehlen. Die Lesegruppe der Digitalen Allmend beugt sich über Gittermodelle und Wetterprognosen.

Erst ziemlich spät, ab Mitte des 19. Jahrhunderts, wenden sich Naturwissenschaftler auch dem Wetter zu. Das Verständnis des Wettergeschehens und die Prognosefähigkeit bleiben vorerst bescheiden. Ein methodischer Durchbruch gelang Lewis Fry Richardson 1916, als er die Idee des Gittermodells aufs Papier brachte und erste Berechnungen versuchte. Die scheiterten allerdings aufgrund der grossen Kantenlänge, der Beschränkung auf zwei Dimensionen und der fehlenden Rechenkapazitäten.

Das wird von Silver eingängig präsentiert. Weiter geht es allerdings nicht. Dabei würde uns ja mindestens in grossen Zügen interessieren, was denn so gerechnet wird für diese Grids. Immerhin macht Silver mit dem Gridmodell mehr deutlich, als das etwa bei der Erdbebenprognose geschieht.

Der Autor beleuchtet grundsätzliche Probleme von Prognosen über das Wetter und andere dynamische Systeme. Eine Problematik wird unter dem Titel Chaostheorie seit den siebziger Jahren diskutiert. Damals stiess der Meteorologe Edward Lorenz beim Hantieren mit einem Computermodell darauf, dass minimste Änderungen an einem Parameter zu völlig anderen Ergebnissen führen können. Die von mechanistischem Determinismus beseelte naturwissenschaftliche Community war perplex.

Der Volksmund hat das Problem allerdings schön längst im Tropfen, der das Fass zum Überlaufen bringt, gefasst – die Philosophiegeschichte im dialektischen Umschlagen von Quantität in Qualität. Das nun stammt allerdings nicht von Silver.

Der weist darauf hin, dass die Naturwissenschaften seit der Quantentheorie eigentlich auf die Relativität allen Prognostizierens vorbereitet war. Jahrhunderte lang hatte die Hypothese starke Anhängerschaft, dass die Position und Dynamik der Atome im Universum potentiell analysierbar und die Zukunft darum determiniert und voraussehbar sei. Damit war mit der Quantenmechanik Schluss. Wenn das System nicht deterministisch funktioniert, gibt es auch kein perfektes Modell dafür.

Silver macht uns also eindringlich auf die prinzipiellen Grenzen aufmerksam. Das führt aber zu einem Problem, das dem Autor gar nicht aufzufallen scheint: Wenn das Universum respektive das Wetter so indeterminiert sind, warum sind denn überhaupt Prognosen möglich? Welche Systemeigenschaften erlauben Wetterprognosen mit erheblicher Wahrscheinlichkeit auf fünf Tage hinaus möglich? Warum nicht nur auf zwei Minuten? Warum nicht auf zwei Jahre hinaus?

Weder beim Thema Erdbeben noch beim Thema Wetter macht uns der Autor einigermassen klar, was ein Modell in Bezug auf Realität überhaupt ist und leisten kann. Wir sind gespannt, was noch folgt. Der Text ist lesenswert und wartet mit interessanten Details auf. Wer hätte gedacht, dass es bei einer 14Tage Wetterprognose besser ist, den langfristigen Durchschnitt zu präsentieren als die Modellergebnisse?

1) „Die Berechnung der Zukunft“

Datenflut und Prognoseflops

Ob Berufserfahrung am Pokertisch die geeignete Qualifikation für einen Prognose-Experten bilden? Vielleicht schon. Nat Silver jedenfalls nimmt sich in „Die Berechnung der Zukunft“ die Verheissungen von Big Data und die Fehlleistungen mancher Prognosen vor. Die Digitale Allmend hat sich von Beginn weg auch für die Frage interessiert, ob digitale Technologien mit einer gesteigerten Daten- und Informationsmenge auch zu mehr und besserem Wissen beitragen. Mehr Wissen müsste sich auch in besseren Prognosen niederschlagen.

Dass von stetig besseren Prognosen im Computerzeitalter keine Rede sein kann, macht Silver anhand seines Spezialgebiets der US Wahlprognosen klar. Ein hoher Anteil der Prognosen liegt daneben. Und das ist eigentlich auch egal. Wie der Autor anhand einer regelmässig parlierenden TV Expertenrunde zu zeigen versucht, herrscht eine Kultur des raschen Vergessens. Niemand wertet aus oder reflektiert die die zugrundeliegenden Annahmen.

Einleitend geht Silver auf das Spannungsfeld zwischen Information und Wissen ein. Er legt gleich mit der Prognose los, dass „noch viel Zeit verstreichen kann, bis wir gelernt haben werden, Information in nützliches Wissen umzuwandeln“. Dann zitiert er zustimmend Krugmann mit der These, in den 70er Jahren habe es einen riesigen Theorieüberhang auf der Basis geringer Informationsmengen gegeben, mag das in speziellen Gebieten ökonomischer oder meteorologischer Modelle zutreffen. Krugmann bezieht sich auf eine bestimmte Konzeption des Modellbaus. Da wird mit beschränktem Wissen über das zu modellierende System einfach mal modelliert. Dann werden historische Datenreihen durchs Modell gerattert und die Stellschrauben solange gedreht, bis die auftretenden Anomalien minimiert sind. Dann wird in die Zukunft projiziert.

Bei Krugmanns These geht aber der Zusammenhang verloren, dass im Allgemeinen völlig hinreichende Information vorhanden waren, um Vorgänge wie den Ersten Weltkrieg, die Grosse Depression oder die Entwicklungsdynamik der Sowjetunion zu analysieren. Silver verpasst es leider ein weinig, Prognosefelder zu unterscheiden. 1980 den Zusammenbruch der Sowjetunion oder am Montag das Freitagswetter fürs Tessin zu prognostizieren sind doch zwei verschiedene paar Schuhe.

Silver macht deutlich, dass er diesen Methoden auch in der Big Data Variante mit der nötigen Distanz gegenüber tritt. Sein Ansatz ist pragmatisch. Wo er dann allerdings methodische Annahmen deutlich macht, wird es schon mal problematisch. So stellt er die geeignete Grundhaltung eines Prognostikers zur Diskussion. Er bevorzugt die Figur des Fuchses: Der bedient sich verschiedener Fachgebiete und Perspektiven, ignoriert eigene Haltungen und ist offen für Komplexität. Gar nichts hält er von Igeln, die selbstbezogen mit starren Methoden und ideologisch fixiert agieren. So angemessen eine pragmatische Haltung erscheint, das ist doch etwa schlicht auf schwarz-weiss getrimmt. Nun ist ja das Buch auch im Heyne-Verlag erschienen, dem kein Hang zur Überkomplexität nachgesagt werden kann.

Vereinfachung ist allerdings doch unumgänglich, wie die Lebhafte Diskussion der Lesegruppe über das Thema Finanzkrise zeigt. Silver schafft es auf ein paar Seiten, wichtige Züge der Entwicklung zu skizzieren. Er gibt auch einzelne Hinweise darauf, warum etwa die Ratingagenturen nicht rechtzeitig Alarm schlugen. Ihre Modelle waren durch falsche Annahmen unterlegt und das Risiko eines schweren Einbruchs der Immobilienpreise wurde unterschätzt.

Trotz mehrerer wichtiger Beobachtungen gelangt hier Silver mit seinem pragmatisch positivistischen Erklärungsmodell an seine Grenzen. In der Diskussion wird etwa auf die Interessensteuerung hingewiesen: Die meisten Player handelten einfach so, wie es ihren kurzfristigen Geschäftsinteressen entsprach. Weiter wird Silver kritisiert, dass er die Vorstellungswelt nicht analysiert, mit denen die direkten Akteure, aber auch Journalistinnen, Wirtschaftsprofessoren oder Regulierungsbehörden und eine weitere Öffentlichkeit unterwegs waren. Sogar ohne Internet waren in jedem Dorfkiosk die Informationen über die Entwicklung der problematischen Produkte und die ersten Risse im US-Immobilienmarkt greifbar. Wer relevante Information in eine erheblich unangemessene Weltsicht einsortierte, gelangte zu einer verzerrten Einschätzung von Risiken und Handlungsoptionen.

Support für Einsame

Nach den Personenstudien im ersten zieht Daniel Miller im zweiten Teil der Studie Schlussfolgerungen. Da kommt “Das wilde Netzwerk” zu einer erstaunlich wohlwollenden Einschätzung von Facebook.

Einleitend verweist Miller darauf, dass Menschen nicht erst seit der Erfindung von Facebook zu sozialen Netzwerken gehören. Dabei lässt Miller dem Milliardenkonzern die Selbststilisierung zum sozialen Netzwerk durch. Da würde es durchaus klärend wirken, ausdrücklich zwischen Facebook als medialer Infrastruktur und den sozialen Beziehungen, die zwischen den Usern gepflegt werden zu unterscheiden.

Miller sieht durchaus einen Unterschied zwischen Infrastruktur und Beziehung. Das wird in seiner ersten These sichtbar: „Facebook erleichtert das Führen von Beziehungen“. Das meint er nicht einfach in einem elementaren Sinn eines technischen Behelfs. Vielmehr rückt er als Begründung die Defizite der Kontaktaufnahme im ‚wirklichen‘ Leben ins Zentrum: Viele Leute haben Hemmungen, direkt Kontakt zu knüpfen, es besteht die Möglichkeiten zu Komplikationen und Missverständnissen, schon gar wenn es um Liebe geht. Zudem könnten User sich auf Facebook über andere informieren, bevor Kontakt aufgenommen wird. So habe sich Facebook zu einer riesigen Dating-Agentur entwickelt.

In einer weiteren These meint Millter: „Facebook hilft den Einsamen“. Hier spinnt Miller die Argumentation weiter, dass Facebook Möglichkeiten schafft, die Restriktionen des sozialen Lebens zu Überschreiten. So hat der früher im Buch angesprochene Arvind als Farmville Spieler Kontakte gefunden – das Netzwerk hat ihm „zweifellos geholfen“.

Die Rolle von Facebook als Defizit Kompensator löst lebhafte Diskussion aus. Da ist ein weitläufiges Problemfeld angesprochen. Tatsächlich unterliegen viele (oder alle) Menschen Einschränkungen bei Knüpfen von Kontakten. Das hängt auch mit Defiziten in der Alltagskultur des Urban Lifestyle zusammen. In konventionellen Locations bis hin zur Szenebar ist es in Europa – und vielleicht auch in Trinidad – unklar, unter welchen Umständen und wie spontane Kontakte angesagt sind. Da wirkt Millers Position durchaus plausibel: Die Kontaktaufnahme via ein technische Medium ist kühler, mittelbarer, niederschwelliger.

Was bei Miller zu kurz kommt, ist eine Gesamtbilanz von Nutzen und Kollateralschäden: Eine Begleitthese könnte lauten: Wer seine Defizite beim Pflegen von direkten Beziehungen weitgehend durch Mediennutzung kompensiert, bleibt auf seinen Defiziten sitzen. Diese Fragestellung lässt sich allerdings nicht mit Millers Methode klären. Es wäre interessant, Typen von NutzerInnen zu bilden und entsprechende Gruppen über ein, zwei Jahrzehnte zu verfolgen.

Es wäre durchaus interessant zu sehen, wie extensive Facebook-Beziehungspflege als Twen sich auf die Fähigkeit auswirken, zehn Jahre später mit LebensparterIn und ein, zwei lebhaften Kleinkindern im echten 3D Raum zurecht zu kommen. Generell ist Millers Optimismus wohl schon angebracht. Das Beziehungspotential von Menschen ist gross und wird auch Facebook überleben. Im Ausmass geht aber Miller mit seiner positiven Wertung deutlich zu weit. Es fehlt an kritischer Distanz: Nicht weil er mit Milliardenkonzernen sympathisiert, sondern weil er seinen Figuren nicht zu nahe treten will.

Miller bringt eine Reihe von weiteren Thesen zur Sprache, etwa Facebook als Meta-Freund oder die Limiten als Instrument politischer Aktion. Die meisten sind in der Lesegruppen Runde wenig kontrovers diskutiert worden. Unter dem Strich ein wertvolles Buch. Miller bringt relevante Themen auf. Und vor allem: Er fabuliert nicht einfach sondern ist hingegangen, hat mit den Leuten gesprochen und Material gesammelt.

Postkoloniale Gemengelage

Die Lesegruppe der Digitalen Allmend bespricht weitere Fallstudien der Internetkultur auf Trinidad. Vieles im Material von Daniel Miller gleicht den Verhältnissen, wie wir sie in Europa kennen. Die digitale Moderne überlagert sich aber mit Elementen des kolonialen Erbes zu einer komplizierten Gemengelage.

Das zeigt sich etwa in der Figur von Arvind, der dem Facebook online Game Farmville verfallen ist. Der Autor macht keinen Hehl aus seiner Abneigung gegen eine Haltung, die der besten Tradition Trinidads direkt entgegenläuft. Die sieht Miller in der Figur von Eric Williams (1911-1981) verkörpert. Der führte Trinidad in die Unabhängigkeit und engagierte sich, um der kolonialen landwirtschaftlichen Rohstoffabhängigkeit eine wirtschaftliche Alternative mit mehr Wertschöpfung entgegen zu stellen.

Und was tun nun Jugendliche wie Arvind? Sie spielen ein Landwirtschaftsspielchen, dass ihnen ein US-Konzern anbietet.

Nun ist Miller allzu sehr Ethnologe, um da stehen zu bleiben. Er sieht sich die soziale Lage von Arvind genauer an, der zu den Verlierern einer neueren Entwicklung gehört. Er ist kein Sprössling der Oberschicht, welche sich wenig um den lokalen Kontext kümmert und den Nachwuchs an den besten Schulen und internationalen Unis platziert. Persönlich erscheint Arvind eher scheu und gehemmt. Facebook und Farmville erlauben ihm, vor dem Bildschirm auf indirektere Art dabei zu sein. Schlussendlich nimmt Miller von jeglicher Verurteilung Abstand. Sein Vorschlag, Medien wie Facebook oder Farmville „nach ihrem Nutzen für die Benachteiligten“ zu beurteilen, führt allerdings zur weiteren Frage, wie dieser Nutzen gefasst werden kann.

Noch sind wir allerdings bei den eher beschreibenden Fallbeispielen. Im Schlussteil des Buches will der Autor dann das Material analysieren.

Tropisches Netz

Passend zu den Minusgraden wendet sich die Lesegruppe der Digitalen Allmend wärmeren Gefilden zu und diskutiert “Das wilde Netzwerk. Ein ethnologischer Blick auf Facebook” (1). In einem für uns wenig vertrauten Kontext arbeitet Daniel Miller Züge der neuen Medienkultur plastisch heraus. Allzu plastisch?

Der Autor präsentiert das Material seiner Feldforschungen auf Trinidad in sieben Portraits, die nicht reale Personen sondern verdichtete Figuren präsentieren. Das ist nachvollziehbar, soweit der Autor typische Elemente klarer herausarbeiten und den Figuren mehr Kontur verleihen will. Das wird aber auch zum Problem, weil dem Leser die Möglichkeit zum Kalibrieren fehlt. Die Figuren wirken überkoloriert, was der Schilderung einen exotistischen Drall verleiht.

Da ist Marvin, der sein geschäftliches Kontaktnetz auf Facebook nicht nur für Geschäfte nutzt, sondern mit weiblichen Kundinnen gerne anbändelt. Seine Frau sieht das eher ungern. Es hilft nun auch nicht, dass Marvin für vertrauliches Geplauder in geschlossene Chats ausweicht. Die Ehe ist futsch.

Dann wird uns Vishala näher gebracht, anfangs zwanzig, mit Kind aber ohne dessen Papa unterwegs. Sie nutzt Facebook, um sich in Bildern und erotisch expliziten Texten als attraktive Zeitgenossin zu präsentieren. Sie dokumentiert eindrücklich den zentralen Stellenwert, den die Internetplattform für ihre Identitätsproduktion und Selbstwertgefühl einnimmt. Sie stilisiert das Web zur dynamischen Quelle von Wahrheit, wo aufgrund von Kommentaren und Interaktionen niemand auf die Länge seinen wahren Charakter verbergen könne.

Das alles lässt den Leser etwas ratlos zurück. Die Phänomene sind bekannt. Sind die jungen Mittelständler in Trinidad einfach noch etwas impulsiver und unbedarfter? Es entsteht der Eindruck, sie würden noch weniger als manche Jugendliche hier die Folgen ihres Tuns überblicken. Der Autor lässt den Stereotyp der naiven naturhaften Tropen aufscheinen – wohl gegen seine Absicht.

1) Suhrkamp, 2012