Informationelle Aufdringlichkeit

Wie ist ein Recht auf informationelle Selbstbestimmung mit Big Data vereinbar? Im Schlussteil ihres Textes betrachten Mayer und Cukier einige Risiken.

Die Autoren weisen darauf hin, dass trotz einer gewissen Unschärfe von Daten viele Informationen unter Big Data auf Individuen zurückverfolgt werden können. Sie gehen trotzdem von einer vorrangigen Berechtigung aus, Informationen zu beliebigen Zwecken zu verwenden und zu verknüpfen. Da wird die Wahrung der Privatheit und der informationellen Selbstbestimmung ziemlich schwierig. Zu den Grundsätzen des Datenschutzes in Westeuropa gehört, dass persönliche Informationen durch Berechtigte und zu umrissenen Zwecken verwendet werden dürfen.

Für derartige Beschränkungen haben die Autoren kein Musikgehör. Sie möchten einen Markt etablieren, auf dem Konzerne und staatliche Institutionen über professionelle Marktmacher Bündel von Daten aufbereiten und handeln – unproblematische und persönliche. Darum wollen sich vom Schutz individueller Rechte weg zu einer reinen Marktregulierung: Der Staat soll den Info-Brokern Branchenregeln vorschreiben, die den Umgang mit den Datenmassen gestalten. Dass es das auch braucht, ist kaum bestritten.

Die individuellen Rechte zu verwässern, erscheint aber einigermassen problematisch. Das gilt vor allem für persönliche Daten, die zwangsweise erhoben werden, etwa im Gesundheitswesen, beim Hotelbesuch oder beim elektronischen Zahlungsverkehr. Nur ein griffiger Datenschutz kann verhindern, dass private Akteure umfassende Profilsammlungen von Individuen aufbauen und vermarkten können.

Stark in den Vordergrund rücken die Autoren das Problem, dass Big Data basierte Profile vorsorglich zu Handlungen Anlass geben können, die Individuen massiv einschränken. Weil sie von einer massiven Verbesserung von Prognosen ausgehen, sehen sie die Versuchung, dass die Gesellschaft wie in Minority Report bereits aufgrund einer Möglichkeit von Taten eingreifen könnte – bevor etwas passiert ist. Die Befürchtungen erscheinen etwas überzogen, was den Prognose-Optimismus angeht. Zudem basiert Handeln bereits heute nicht selten zwingend auf Risikoeinschätzungen und bleibt für die Betroffenen nicht folgenlos. Etwa bei der Risikoabklärung von Wiederholungstätern oder einer Kreditvergabe.

Gar nicht beachtet wird von den Autoren die Problematik der kriminellen Übergriffe durch private und staatliche Akteure. Die Datensammlungen werden mit oder ohne Big Data immer grösser und relevanter. Ein grosser Schub bahnt sich etwa unter dem Stichwort der individualisierten Medizin an.

Man muss die Einschätzungen von Mayer und Cukier nicht teilen. Der Wert des Buches besteht auf jeden Fall darin, Stossrichtung und Diskurselemente der aufstrebenden Big Data Branche deutlich sichtbar zu machen.

Medien ohne Aura

Die Lesegruppe der Digitalen Allmend ist am 12. Dezember im 20. Jahrhundert angelangt. Zur Diskussion standen marxistische Ansätze der Medientheorie aus der Zwischenkriegszeit. Mersch (1) weist darauf hin, dass im späten 19. Jh das Aufkommen der Massenpresse und die Diskussion um die Massengesellschaft völlig neue Voraussetzungen für die Debatte um die Medien geschaffen haben.

Der Literat und Filmkritiker Béla Balász rückt allerdings nicht die gedruckte Massenpresse, sondern die Fotografie und den aufkommenden Film ins Zentrum des Interesses. Mit Bild versus Wort und Text stellt er zwei Mediensysteme einander gegenüber. Er kritisiert vehement einen Primat der Sprache und verweist auf die Mächtigkeit des bildhaften Ausdrückens und Zeigens. Balász vermittelt die Vorstellung einer universellen Bildsprache.

Walter Benjamin positioniert seine Medienbetrachtungen im Kontext des marxistischen Unterbau/Überbau Schemas. Das heisst nun aber nicht, dass Elemente wie Macht, Besitz, Entfremdung oder Ideologiekritik als Instrumentarium dienen würden. Vielmehr rück Benjamin die Technik ins Zentrum und bindet auch seinen Aura-Begriff daran. Aura wird einmal mit Singularität und Echtheit assoziiert – Aura kann darum den technisch reproduzierten Objekten nicht mehr anhaften. Aura wird aber an verschiedenen Stellen von Benjamins Werk mit weiteren Bedeutungen angereichert, etwa als „Erscheinung einer Ferne, so nah sie sein mag“. In diesem Sinn gefasst sind wären aureatische Momente eigentlich auch für Betrachter multimedialer Produkte vorstellbar.

Mersch bezeichnet Benjamins Aura-Begriff wohlwollend als „schillernd“. In der Leserunde schwappte eine interessante Diskussion hoch, ob da überhaupt eine Theorie oder auch nur ein analytisches Konzept vorliegt. Die eine Seite betont die Fruchtbarkeit von Benjamins Ansätzen, die andere sieht kein Gerüst eines konsistenten begrifflichen Systems, was als Theorie bezeichnet werden könnte.

Neben der Aura ist der Begriff der Montage zentral bei Benjamin. Die Montage, die Zersplitterung als Produktionsbedingung, bildet das mediale Kernelement des Films. Benjamin konstatiert beim Film auch einen neuen Illusionsmechanismus. Der produzierende Mechanismus bleibt verhüllt, es gibt keinen Bühnenrand, der die Grenze zu einer andern Sphäre markiert.

Benjamin folgert nun nicht, dass diese neuen Illusionsmechanismen in eine dauerhafte Verblendung der Massen durch die kapitalistische Kulturindustrie führen würden. Vielmehr diagnostiziert er, dass die Abkehr vom aureatischen Kunstwerk das Wahrnehmungsverhalten umwälzt und politisches Emanzipationspotential freisetzt.

Das Thema der Verblendung wurde durch Adorno und Horkheimer im Konzept der Kulturindustrie ausgearbeitet. Die technischen Medien sind das Distributionsnetz und Verkaufsinfrastruktur von kulturellen Waren, welche an Stelle einer zerfallenden politischen Öffentlichkeit tritt.

Die entsprechende Manipulationsthese hatte in den 70er Jahren grossen Anhang. Enzensberger kritisierte die Absolutheit der These. Es ist nicht möglich, aus einen Zentrum heraus widerspruchsfreie Ideologie zu produzieren. Kommunikation bringt immer Widerspruchsmöglichkeiten mit sich. Das aktuelle Mediensystem liesse sich auch ganz anders nutzen. Baudrillard hat Enzensberger kritisiert. Er gehe von einem naiven Kommunikationsmodell aus. In der Tat nahm dann Enzensberger Abstand von seinem Konzept eines formbaren Medienbaukastens.

1) Dieter Mersch. Medientheorien zur Einführung. Junius. Hamburg 2006.

Googeln – und Alternativen

Was ist der Stellenwert von Suchmaschinen im Allgemeinen und von Google im Besonderen? Wo sind bedenkliche Aspekte zu diskutieren? Wie sehen Alternativen aus? Diese Fragestellungen haben wir in der Lesegruppe am 14. September diskutiert.

Eine Feststellung ist wenig umstritten. Die weitläufige und unübersichtliche Ansammlung von Objekten im Internet macht Suchmaschinen unverzichtbar. Google erfüllt hier – genau wie andere Angebote – eine produktive Funktion. Suchmaschinen erschliessen, sie schaffen keinen Content. Geschäftsmodelle, die auf Suchmaschinen aufsetzen, weisen einen gewissen parasitären Aspekt auf. Sie basieren auf inhaltlicher Kulturarbeit, die von Dritten geleistet wurde, ohne dass diese am Geldfluss der Suchmaschine beteiligt werden. Allerdings werden sie als Gegenleistung den Suchenden präsentiert.

Kreation und Erschliessung von Inhalten sind zwei paar Schuhe. Letzeres kann voll automatisiert durch die mechanische Anwendung von Algorithmen geschehen. Und Vollautomatisierung gehört zu den Dogmen von Google: Man will Systeme laufen lassen, nicht Inhalte produzieren.

In einer Pionierphase wurden Suchmaschinen ohne Geschäftsmodell aufgebaut. Dann kam rasch die Idee au, Werbung zu schalten. Das geschah in Form bunter Bildchen und massloser Userbelästigung. Hier setzte nun Google an und wählte ein zurückhaltenderes, von den BenutzerInnen eher akzeptiertes Layout. Ein wesentlicher Grund für den Aufstieg zur Nummer eins.

Mit kritischen Aspekten der Google-Dominanz setzt sich Gerald Reischl im Buch „Die Google Falle“ auseinander. Er nennt Indizien dafür, dass Google die Systeme nicht absolut autonom werkeln lässt, sondern im Interesse guter Geschäftsbeziehungen durchaus für einen wichtigen Werbekunden unterstützend eingreift und die Suchergebnisse beeinflusst. Wie weit das geschieht und wie relevant das für die Suche ist, konnten wir in der Diskussion nicht wirklich einschätzen. Auch wenn nicht von permanenten massiven Manipulationen ausgegangen werden muss, sind die Intransparenz und die verdeckten Eingriffsmöglichkeiten ein Ärgernis.

Ein zweiter Konfliktbereich ist der Datenschutz. Wenn Suchmaschinen mit universellen Mechanismen auf Datenbestände mit grösstenteils niedriger Qualität losgehen, lassen die Ergebnisse häufig zu wünschen übrig. Um die Qualität der Suche zu verbessern, implementiert Google ein weitreichendes User-Tracking. So werden nicht nur Infos in Browser-Cookies abgelegt. Die können auch mit Informationen aus anderen Google-Services verknüpft werden. Google sammelt riesige Datenmengen über User und ihr Verhalten, was natürlich für das Werbegeschäft Gold wert ist. Reischl weist darauf hin, dass im Bereich User-Tracking emsiges Patentieren im Gang ist. Die Forscher und Firmen suchen dabei mit der Wortwahl jede Assoziation an Big Brother zu vermeiden. Die Rede ist von Tokenization oder Statistik (1). Wenn Reischl „das totale Wissen über den Nutzer“ als ein Ziel von Google nennt, ist das vielleicht etwas überzogen. Diskussions- und regulationswürdig erscheint das aber schon.

Interessant sind Ansätze zur Verbesserung von Suchergebnissen, die Reischl unglücklicherweise unter dem Thema „semantisches Web“ fasst. Gemeint sind Versuche, auf Seite der Suchmaschine mit computerlinguistischen Ansätzen die Qualität der Indexierung zu verbessern und in die Richtung formulierter Antwort auf Fragen zu gehen. Nach Ansicht der Diskutierenden würde das Semantische Web in erster Linie auf Seiten der Angebote implementiert, wo die Objekte mit systematischer Metainformation angereichert würden. Das wäre menschliche Kulturarbeit (soweit es von Hand geschieht). Was Google mit den erweiterten Ansätzen tut, ist eben keine Bedeutungskreation. Maschinen reorganisieren Bytes.

Im zweiten Teil der Diskussion haben eines Webdokuments (2) einen Blick auf Dutzende von Alternativen zu Google geworfen. Hier gibt es sehr interessante spezialisierte Angebote. Meistens sind das Varianten des Prinzips Suchmaschine.

Grundlegende Alternativen sind andere Mechanismen, welche die disparate Welt des Internets erschliessen. Ein Mechanismus ist der direkte Verweis auf Inhalte aus Chatnetzen oder Mailinglisten. Hier wird Bekannten oder einer Community vertraut, die auf einen Inhalt zeigen. Auch bestimmte Medien, digital oder nicht, können weitere Inhalte erschliessen und Links liefern. Diese Mechanismen führen wie Suchmaschinen auf erwünschte Seiten hin, aber anders als Suchmaschinen. Durch Sinnerzeugung in einem soziokulturellen Prozess, nicht durch Festplattengeratter.

Suchmaschinen sind unverzichtbar. Mit Blick auf unsere Alltagserfahrungen haben wir noch festgestellt, dass Suchmaschinen ausgerechnet dort schwach sind, wo das Angebot gross ist. Etwa bei Hotels in einer Grossstadt. Es gibt das Zimmer, das Du suchst. Nur zeigt es Google nicht.

1) Gerald Reischl: Die Google-Falle: die unkontrollierte Weltmacht im Internet. Ueberreuter 2008. S. 44
2)
Beyond Google: Cool Search Engines And Search Tools You May Have Not Heard About – A Mini-Guide 

Gemeinfreiheit des Geistes

In seinem Buch «The Public Domain» (1) beschreibt James Boyle, Rechtsprofessor an der Duke University School of Law und Mitbegründer von Creative Commons, die aktuellen Kämpfe um die Rechte des geistigen Eigentums und bezeichnet sie gar als «Gebietskriege des Informationszeitalters».

Unsere Musik, unsere Wissenschaft, unser wirtschaftliches Gedeihen, ja unsere gesamte Kultur würden abhängen von der heiklen Balance zwischen jenem Ideengut, das jemand besitzt und kontrolliert und jenem, das öffentlich und frei ist. Natürlich sei der Schutz des Geistigen Eigentums wichtig, so dann des Autors Position, der aktuelle Umgang mit den Rechten aber unausgewogen: eine allzu wegschliessende Geste von «Symbolen, Themen, Fakten, Genen und Ideen». Boyle prognostiziert für die aktuelle Praxis fatale Auswirkungen auf die freie Rede und Kreativität, zukünftige Bildung und wissenschaftliche Innovation.

Dabei geht es ihm erst einmal um Aufklärung: Er argumentiert, dass – genauso wie jeder informierte Bürger, jede Bürgerin wenigstens ein Minimum über Umwelt, Wirtschaft oder Bürgerrechte wissen müsse – auch alle etwas vom Prinzip des Geistigen Eigentums verstehen sollten, eben weil es dabei um Regelungen zum grundlegenden Gut der Informationsgesellschaft gehe. Als eines der Hauptprobleme identifiziert er das «weit verbreitete Nichtverstehen» der Bedeutung des «Public Domain» –  also der Gesamtheit des geistigen Kollektivgutes und Materials, das jedermann ohne weitere Genehmigung und ohne Kosten frei benutzen und weitergeben darf. Der «Public Domain» müsse im öffentlichen Verständnis als Wissensallmende und Gemeingut der modernen Informationsgesellschaft in einem gewissen Sinn erst erfunden und etabliert werden, bevor wir ihn schützen könnten – in dieser Hinsicht durchaus analog zur «Umwelt» und den Bemühungen um ihren Schutz.

Das erste Kapitel «Why Intellectual Property», das die Gruppe gelesen hat, verfolgt erst einmal die (guten) Gründe für Schutzregelungen. Während viele materielle Güter nach Bedarf erzeugt werden und sich ihr Preis an der Schnittstelle von Angebot und Nachfrage ergibt, stellen sich Probleme des Marktanreizes bei jenen, die aufwendig in der Entwicklung, aber billig zu kopieren sind. Wer würde beispielsweise die langwierige Entwicklung von wirksamen Medikamenten auf sich nehmen? Solche Güter schütze der Staat via den «Markt-schaffenden Kniff» des intellektuellen Eigentums (2): vor allem durch Patente und Copyrights. Gerade der Vorteil von Patenten sei doppelt: Durch die Möglichkeit, Entwicklungsaufwände wieder einzuspielen sicheren sie einerseits einer Erfindung überhaupt erst eine gewisse Lebenschance, durch ihre Registrierung verhindern sie andererseits, dass innovatives Wissen geheim gehalten und damit der Gesellschaft entzogen sei.

Etwas anders noch stellt sich die Problematik schützen/frei lassen bei kulturellen Gütern, wie etwa Musik, Bilder, Texte, Filme, literarische Werke, die – heute oft gar nicht mehr an materielle Publikationsformen gebunden – durch den Gebrauch nicht etwa weniger werden, sondern durch ihre Verwendung und Vervielfältigung via Internet und mittels der verblüffenden Informationsverarbeitungskapazität von Millionen von Menschen die Chance auf neue Gebrauchszusammenhänge erst eröffnen. Im ungünstigen Fall aber, etwa als «orphan works» (verwaiste Werke, deren Urheber oder Rechtsinhaber nicht oder nur sehr schwer zu ermitteln ist) stellen sie ein Problem dar, da eine Nutzung, die die Zustimmung des Urhebers oder der Rechteinhaber voraussetzt, nicht möglich ist. Das ist eines der Beispiele, die der Autor anhand der Library of Congress etwas breiter ausführt; hier schreibt er dann explizit an gegen unsinnige Copyright Bestimmungen und das, was er als Exzesse des Rechtes auf Geistiges Eigentum ansieht.

Die Gruppe stimmt ihm grundsätzlich zu und die Diskussion beschäftigt sich in der Folge einige Male mit dem, was wir eben nicht so genau wissen: Einerseits geht es um ein Auseinanderhalten von sehr verschiedenen Rechten im Zusammenhang mit dem Geistigen Eigentum: copyright, patent und trademark. (Was z.B. ist genau patentierbar bei der Software-Entwicklung, das Verfahren? Ist das Urheberrecht ebenfalls so ein «Markt-schaffender Kniff»?) Dann sind historische Entwicklungen, und Bedeutungen einzelner Aspekte in den USA zuverlässig verschieden von europäischen (in den USA wird offenbar seit längerem heftig über orphan works debattiert; Relevanz bei uns, z.B. wissenschaftlich?). Und nicht zuletzt kann die Bedeutung englischer Begriffe wie «Copyright» und «Public Domain» nicht ohne weiteres auf die deutschen Begriffe «Urheberrecht» und «Gemeinfreiheit» übertragen werden (Neben «Public Domain» als «Gemeinfreiheit» bezeichnet der Begriff gelegentlich offenbar auch Werke, «deren Urheber mindestens einer nichtkommerziellen Verbreitung zugestimmt hat» (3). So ist das rechtliche Prinzip des Copylefts – zumindest gemäss dem, was die Schreiberin nachgelesen hat  – «nicht vereinbar mit dem der Gemeinfreiheit, da Copyleft auf das Urheberrecht aufbaut, anstatt wie die Gemeinfreiheit darauf zu verzichten.… «Public Domain» ist «keine Lizenzvariante, sondern der generelle Verzicht auf eine Lizenzforderung». (3))

Der Text liest sich anschaulich und wir wollen es gern noch etwas genauer wissen. Beschluss: ein zweites Kapitel wird gelesen.

 

1 The Public Domain. Enclosing the Commons of the Mind. James Boyle, New Haven Ct, 2008. Der Autor macht das Buch auch verfügbar unter einer Creative Commons Lizenz: http://thepublicdomain.org

2 («market-making» device) der Autor zitiert hier seinen Kollegen Jerry Reichmann

3 http://de.wikipedia.org/wiki/Gemeinfreiheit (02/05/09)

Partizipationsformen im Web 2.0

Das Buch von Roberto Simanowski (1) untersucht gegenwärtige Phänomene der digitalen Medien –Weblogs, Werbung, Identitätstourismus, interaktive Kunst – vor dem Hintergrund einer postmodernen Spass- und Erlebnisgesellschaft. Eine Fülle von Beispielen macht es zum Fundus für verschiedene Auseinandersetzungen; kulturelle, künstlerische und utopische Aspekte werden ebenso aufgenommen wie historische Kontexte. Der Autor behält dabei eine ausgewogene, kritische wie positive Offenheit gegenüber den einzelnen Phänomenen.

Das dritte Kapitel «Kultur der Mitgestaltung», das die Gruppe besprochen hat, handelt zu Beginn ausführlich von Blogs: solche, die das Private öffentlich machen, Watchblogs als praktizierte Medienkritik oder Orte der politischen Auseinandersetzung, literarische Tummelfelder. Der Autor konfrontiert dabei die hoffnungsvolle Vorstellung von den basisdemokratischen Chancen des Web 2.0 mit der kulturpessimistischen Position – harsch vertreten aktuell etwa durch Andrew Keen (2) –, es handle sich dabei doch wohl eher um ein «Überhandnehmen des Banalen» und eine «Herrschaft des Mittelmässigen. Dass sich für beides ungezählte Belege auf dem Netz finden lassen, ist in der Gruppe unbestritten; auch wird darauf verwiesen, dass Blogs über unterschiedlichste Formen, Qualitäten und Dynamiken verfügen, in den verschiedenen Dimensionen sehr ausdifferenziert und daher kaum auf einen Nenner zu bringen sind. Die Diskussion beschäftigt sich dann mit der Frage, ob Blogs so etwas wie ein digitaler Ersatz für den früheren Dorfplatz oder -laden sind; da klingt das «Global Village» von Marshall McLuhan aus den 60-er Jahren nochmals mit an. Während die Dorfgemeinschaft sich aber lokal formiert und über Bewegungsradien natürliche Zwängen unterworfen ist, gruppieren sich Blogs eher um thematische Schwerpunkte und scheinen dadurch erst einmal grössere Beweglichkeiten und Wahlfreiheiten zuzulassen.

Simanowski führt weiter aus, dass bestimmte Phänomene des Web 2.0, etwa politische Blogs oder Wikipedia, angemessener als eine Kultur von Autodidakten als eine von Amateuren zu beschreiben seien – gerade das Wort Amateur transportiert ja auch eine Abwertung im Vergleich zur professionellen Expertenwelt. Die Gruppe nickt und ergänzt, dass es allerdings bis vor nicht allzu langer Zeit auch keine «klassische» Journalistenausbildung gab, sondern sich grosse Anteile der Professionalität dieses Berufsstandes durch «learning on the job» entwickelt haben. Andere Formen dagegen wie z.B. You tube, so Simanowski weiter, werden dagegen als ausschliesslicher Ort von Amateuren gehandelt. Es gehe um einen Wettbewerb, wer am professionellsten wirke, mit dem Grundverständnis und einer Art internem Ehrenkodex, dass kein Profi an diesem Wettstreit teilnehme.

Die abschliessende, beschreibende Darstellung des Bereichs der Computerspiele (Adventure Games, Strategie- oder Rollenspiele) mit verschiedensten Formen der Interaktion (vom Mitspielen bis zum Hack) verhindert zwar eine kontroverse Diskussion in der Gruppe, liest sich aber flüssig und anschaulich, auch wenn man selber nicht spielt. Der Autor verfolgt dabei die Frage nach der Erweiterung des Spielraums für das Publikums, die verschiedenen Formen der Partizipation, durchaus auch mit Anschluss an die alte Vorstellung von der Verwandlung des Zuschauers in den Stückeschreiber. Die Motivation, den Fortgang der Geschichte selber zu prägen, ist dann gleichfalls ein Aspekt der Fan-Fiction zu Spielen, Filmserien oder Büchern, ebenso wie gegebenenfalls sogar eine Korrektur, wenn etwa bei Star Track das weibliche Publikum mit der stereotypischen Darstellung der schwachen und inkompetenten weiblichen Charaktere nicht zufrieden war.

Simanowski bleibt bis zum Schluss neutral: Ob es sich dabei nämlich eher um subversive Äusserungen oder eine Bestätigung der Kulturindustrie handelt, bleibe nicht nur im einzelnen abzuwägen. Angesichts der friedlichen Koexistenz und Kooperation vertritt er die These, es herrsche eine Art kultureller Sozialfrieden zwischen Avantgarde und Kulturindustrie. Diese Betrachtungsweise scheint nun ja der postmodernen Erlebnisgesellschaft recht gut zu entsprechen.

1) Digitale Medien in der Erlebnisgesellschaft. Kultur – Kunst – Utopien. Roberto Simanowski, Reinbek 2008. – Besprochen in der Lesegruppe Wissensgesellschaft der Digitalen Allmend.

2) The cult of the amateur: how today’s internet is killing our culture and assaulting our economy. Andrew Keen, London 2007

Was ist Information?

Die Lesegruppe Wissensgesellschaft der Digitalen Allmend hat Fahrt aufgenommen. Gleich zu Beginn ist ein Bedarf nach einer gewissen Klärung von Begriffen wie Information und Wissen zum Ausdruck gekommen. Am 21. Januar haben wir Material zum Thema Information besprochen.

Eine grundlegende Frage lautet, ob es einen einheitlichen, universellen Begriff von Information geben kann. Unter den Diskutierenden herrschte eher der Eindruck vor, dass es abhängig vom Kontext verschiedene legitime Begriffe von Information geben kann. Der Wikipedia Artikel „Information“, auf den wir uns im Gespräch bezogen haben, unterscheidet einleitend eine naturwissenschaftliche und eine gesellschaftliche Ebene.

Der Artikel deutet den naturwissenschaftlichen Informationsbegriff als „Muster von Materie und/oder Energieformen“. In der Folge bleibt der Artikel hier aber einigermassen diffus und trägt beispielsweise wenig zu Erhellung des Verhältnisses von Entropie und Information bei.

Wenig Zweifel gibt es, dass in der menschlichen Gesellschaft Informationen und Wissen generiert und reproduziert wird. Die Frage nach Abgrenzungen wurde lebhaft diskutiert. Wenn Menschen Informationen im Kontext eines Sinnsystems interpretieren – kann dann in gleicher Weise bei Primaten von Informationen gesprochen werden? Oder bei der Vervielfältigung von Einzellern?

Und wie steht es bei technischen Systemen: Verarbeitet ein entschwebender Satellit Information (oder nur Daten)? Kann er sogar etwas „wissen“ – etwa seine Position gegenüber der Erde? Das ist kontrovers diskutiert worden. Es wurde darauf verwiesen, dass ein Satellit ein Subsystem der menschlichen Gesellschaft bleibt und seine Rechner nur vorprogrammierte Algorithmen abarbeiten.

Immer wieder angesprochen wurde das auf Shannon zurückgehende Kommunikationsmodell der Information (Sender / Übertragung / Empfänger). Das Modell gehört weder zu abstrakten naturwissenschaftlichen noch zu gesellschaftlichen Konzepten. Es ist ein Begriff der Nachrichtentechnik, das allerdings in den 50er und 60er Jahren sehr stark in die Sozialwissenschaften hineinwirkte. Seither hat sich das verschoben. In der Semiotik wird etwa eher die zentrale Rolle der Empfängerseite betont, die auch Dinge als Zeichen interpretieren kann, die nie von einem Sender designt und abgeschickt worden sind.

Von Interesse ist auch die Frage, ob Konzepte der Informationsgesellschaft überhaupt von einem bestimmten Informationsbegriff abhängen. Vermutlich nicht. Der Begriff hat sich nach Mitte des 20. Jahrhunderts eher auf den Trend bezogen, dass immer mehr Menschen nicht mehr direkt mit materieller Produktion zu tun haben. Er verweist auf einen sozialen Wandel und wurde als Abkehr von der Industriegesellschaft (und gelegentlich vom Kapitalismus) konzipiert.

Die Lesegruppe ist gut unterwegs in einer Grösse, welche eine flache und spontane Gesprächskultur fördert. Beim nächsten Treffen am 18. Februar beprechen wir die den Wissensbegriff anhand des Artikels „The duality of knowledge“ von Hildreth/Kimble.

Urs