Seit mehr als 20 Jahren bestimmt das Internet die Dynamik der kulturellen Entwicklung und seit rund 10 Jahren ist es auch in Europa ein Massenmedium. Es prägt die Subjektivität der Menschen, also die Art und Weise, wie sie sich selbst, Andere und die Welt wahrnehmen und wie es ihnen normal erscheint, in der Welt zu agieren. Was in den 1990er Jahren noch schwer vorzustellen war – etwa horizontale Kooperation als Produktionsmethode, Personalisierung der Welt oder flächendeckende Datenerhebung und Überwachung – ist heute normal und selbstverständlich: Hausverstand 2.0.
Um die Konsequenzen und Möglichkeiten dieses Wandel besser zu verstehen, hilft es zwischen strukturellen und politischen Dimensionen unterscheiden. Im Folgenden wird zunächst der strukturelle Wandel der Subjektivität skizziert. Danach werden die widersprechende, politische Dynamiken der Stadtentwicklung damit in Beziehung gesetzt.
Neue Strukturen der Subjektivität
Eine der grundlegendsten Bedingung der neuen Subjektivität, die das Internet als Massenmedium verallgemeinerte, ist die alltägliche Notwendigkeit, sich in einer durch die überbordenden, chaotischen und ständig wandelnden Informationssphäre geprägten Welt zurecht zu finden. Die etablierten Institutionen, die bisher für Informationsfilterung und damit für Orientierung sorgten, sind dafür nicht ausgelegt und entsprechend mit dieser Aufgabe überfordert. Deren Krise deute sich schon lange an, wurde allerdings durch das Internet nochmals deutlich radikalisiert. Angefangen hat alles mit den neuen sozialen Bewegungen der 1960er und 70er Jahre, die auf kulturellem Gebiet äußerst erfolgreich waren. Gegen beträchtlichen und anhaltenden Widerstand, gelang es ihnen eine immer noch nicht abgeschlossenen gesellschaftlichen Liberalisierung anzustoßen, welche den Kreis der als legitimen angesehenen Repräsentationsansprüche deutlich erweiterte und neue Werte wie Vielfalt und Inklusion verankerte. Das führte sie in direkten Konflikt mit bestehenden kulturellen Institutionen (Massenmedien, Museen, Schulen etc), deren Wirken auf Reduktion und Vereinheitlichung ausgerichtet war. So wurde es nun zunehmend als Problem angesehen, dass etwa Kunstmuseen vor allem die Werke weißer Männern aus dem transatlantischen Raum ausstellten und alle anderen ignorierten, wie nicht nur die Guerilla Girls seit den 1980er Jahren mit großem Nachdruck kritisieren. Der so in Frage gestellte kulturelle Kanon, die verbindliche Auswahl von identitätsstiftenden Werken, konnte aber nicht einfach erweitert werden ohne seine Funktion zu verlieren und entsprechend löst er sich immer schneller auf. Die Fähigkeit einer einzelnen sozialen Schicht, ihre (unweigerlich partielle) Sicht als die einzig gültige, für alle verbindlich zu legitimieren sinkt seit vielen Jahren, auch wenn sie ihren Zugriff auf die verbleibenden institutionellen Hüllen noch weitgehend bewahren konnten.
Das Internet lässt nun diese Entwicklung in die Tiefen des Alltag eindringen und konfrontiert jeden und jede mit Fragen, zu denen es keinen breiten Konsens mehr gibt, dem man einfach zustimmen oder widersprechen könnte. Welche Musik soll ich hören? Welche Nachrichten sind wichtig? Wie soll ich mich ernähren? Soll ich meine Kinder impfen lassen? Wie real ist der Klimawandel? Zu diesen und tausenden anderen Fragen gibt es eine nicht zu überblickende Zahl widersprüchlicher Meinungen und Fakten, ein ständig an- und abschwellendes Rauschen sozialer Kommunikation. Dies ist zunächst mal positiv, denn es öffnet den Raum für Neues.
Um sich unter diesen Voraussetzungen orientieren zu können, haben Millionen Menschen, in ihrer alltäglichen Praxis neue Strategien entwickelt. Diese benötigen neue technologische Infrastrukturen und werden durch sie gleichzeitig bestärkt und verbreitet. Die Technologien der Vernetzung ermöglichen es, mit diesen dynamischen, großen Informationsmengen produktiv umzugehen, und reduzieren in der Folge die Abhängigkeit von zentraler Filterung durch traditionelle Institutionen immer weiter.
Referentialität, Gemeinschaftlichkeit, Algorithmizität
In der Situation der Überflutung mit Informationsbruchstücken verschiedenster Größenordnung ist das Auswählen der basale produktive Akt. Durch referentielle Arbeit wird Wert produziert in dem eine Person zum Ausdruck bringt „das hier ist wichtig!“ (und alles andere nicht) und sei es nur für die eine Sekunde, die es braucht, um etwa auf Instagram ein Bild anschauen und den „like-button“ zu drücken. In dieser Sekunde sind aber bereits 2500 andere Bilder gepostet worden, die alle nicht „geliked“ wurden. Wenn jemand nun 20 Bilder pro Tag „liked“, dann bedeutet das, dass er oder sie die enorme Leistung vollbracht hat, die 40'000'000 Bilder, die täglich über diesen Dienst verbreitet werden, auf einen menschliches Maß zu reduzieren. Deshalb sind diese Medien so eingerichtet, dass man einzelnen Personen folgt, und nicht den ganzen Kanal anschauen soll. Ähnlich verhält es sich mit der Auswahl von Musik, Nachrichten, vertiefenden Informationen, Büchern, Filmen zu welchen Thema auch immer. Erst durch diese Filterung werden aus Daten Informationen, aus DFÜ (Datenfernübertragung) soziale Kommunikation. Denn niemand vollzieht diese Filterung, so persönlich sie auch sein mag, in Isolation, sondern jeder dieser referentiellen Akte ist auch eine Form der Kommunikation mit anderen. Man teilt was man findet und filtert mit Anderen. In diesen Akten konstituiert sich der Nutzer auch selbst: als produktives und damit sichtbares Mitglied einer Gemeinschaft, deren alltägliche Beschäftigung es ist, durch Filterung und Verknüpfung von gefundenen oder selbst-erzeugten Referenzen einen gemeinsamen Rahmen der Wertigkeit aufzubauen. Diesem können Bruchstücke aus dem chaotischen Universum Bedeutung annehmen, Fragen, zu denen es widersprüchlichste Wortmeldungen gibt, plötzlich klar erscheinen, und anderes, störendes, völlig auf dem Blickfeld verschwinden. So entsteht eine dynamische, personalisierte, durch vernetzte Filterungsleistung wenigsten teilweise und zeitweise kohärente Welt. Das ist die zentrale Dimension der sozialen Massenmedien. Jeder ist ein Produzent von Bedeutung, ein „like“ oder „share“ Klick nach dem anderen. Nicht allen gefällt diese Aufgabe, die ihnen da aufgezwungen wird und entsprechend haben auch radikale Fundamentalismen und extreme Formen der Ausgrenzung, die einen Ausweg aus dieser ständigen Unsicherheit versprechen, Konjunktur. Aber strukturell gesehen sind auch diese nichts anderes als Netzwerke von Personen, die sich durch tägliche Selbstreferentialität einen eigenen Bedeutungshorizont generieren und entsprechend handeln.
Aber auch die produktivste Gemeinschaft wären ohne avancierte technische Hilfsmittel nicht in der Lage, aus der Enormität des Rauschens der chaotischen Informationssphäre mehr als nur kleinste, lokale Inseln der Bedeutung zu erzeugen. Zusätzlich zur aktiven Nutzung spezialisiert Werkzeugen, wie sie etwa von den sozialen Massenmedien zu Verfügung gestellt, ist es strukturell notwendig, dass im Hintergrund die gigantischen Informationsmengen automatisiert – durch Algorithmen – vorsortiert werden, damit sie der menschlichen Wahrnehmung überhaupt zugänglich werden. Der prominenteste ist wohl Google's Suchalgorithmus, eine sich ständig verändernde, aus vielen Einzelteilen bestehende „Algorithmuswolke“, der die Milliarden bestehender Dokumente und Informationsströme, die online technisch erreichbar sind, dynamisch auf zehn „Treffer“ reduziert, aus denen dann die Nutzer auswählen kann, auf welchen sie wirklich klicken möchten. Seit 2009 werden alle Suchresultate „personalisiert“, dass heißt, der Algorithmus zieht nicht nur die Struktur der externen Welt, die Topologie des Internets, sondern auch das Verhaltens des einzelnen Nutzers, beziehungsweise dynamisch generierter Nutzergruppen, denen der Einzelne zugeordnet wird, in Betracht. Um dies zu ermöglichen, werden detaillierte Nutzerprofile abgelegt in denen jeder Regung der NutzerInnen gespeichert, verknüpft und ausgewertet wird, um damit zu beeinflussen, welche (informationelle) Welt für jeden Einzelnen konstruiert wird, was sie zu sehen bekommt und welche Handlungsmöglichkeiten bestehen. Das ungewöhnliche am Google Suchalgorithmus ist, dass er noch durch eine explizite Handlung, die Suchanfrage, in Gang gesetzt werden muss. Viele andere Ordnungsprozesse, von Facebook's Edgerank bis Wikipedia's Autoedit Bots laufen ohne jeden direkten Nutzerinteraktion im Hintergrund ab.
Diese drei Elemente, Referentialität, Gemeinschaftlichkeit, Algorithmizität, genieren eine Welt, die als sich kontinuierlich und dynamisch verändernd erfahren wird, in deren Entstehung jeder einzelne als Produzent in der einen oder anderen Art involviert ist. Und dies ist nicht nur einfach eine subjektive Meinung, sondern immer mehr Prozesse werden tatsächlich so organisiert, einfach deshalb, weil damit eine Komplexität bewältigt werden kann, welche die alten bürokratisch-linearen Verfahren überfordert. Soweit die strukturelle Ebene, in der eine sich verändernde Welt und eine sich verändernde Subjektivität neue Organisationsformen denkbar, wünschbar und notwendig machen.
Wenn man nun die konkreten sozialen Institutionen betrachtet, die den Wandel realisieren und vorantreiben, dann wird deutlich, dass hier ganz unterschiedliche ökonomische und politische Visionen verfolgt werden. In Bereich der digitalen Medien lassen sich diese Differenzen anhand von Facebook und Wikipedia exemplarisch verdeutlichen. Beide nützen Potentiale der neuen strukturellen Bedingungen, wie sie oben skizziert, in hohem Masse aus, realisieren sie aber in gänzlich anderer Weise. Facebook – arg verkürzt – repräsentiert das neue Modell der post-demokratischen Konsumgesellschaft, in jeder einzelne auch als Produzent begriffen wird, sogar in doppelten Sinne, durch explizite Kommunikationsakte wie auch durch implizite Akte der Datengenerierung. Mit dem Argument der Effizienz und der Benutzerfreundlichkeit werden die Nutzer, also wir alle, systematisch von den Ebenen der Entscheidung ferngehalten, diese werden in paternalistisch-autoritärer Weise im Hintergrund und unter Ausschluss der Öffentlichkeit getroffen. Mit anderen Worten, jeder muss sich selbst und seine Welt, gemeinsam mit anderen, selbst schaffen, ohne Einfluss nehmen zu können auf die Bedingungen, unter denen er diese nie enden-wollende Arbeit verrichten muss.
Auch die Wikipedia besteht aus nie enden-wollender Arbeit der Nutzer, die als Produzenten verstanden werden. Auch die Wikipedia benötigt dafür eine komplexe, hochgradig angepasste technologische Plattform. Aber das Modell, das Wikipedia repräsentiert, ist das einer ausgeweiteten partizipativen Demokratie. Alles und jedes steht zur immer zur Verhandlung, jeder einzelne Beitrag ist umstritten. Die Angebote, sich auch an strukturellen Entscheidungen zu beteiligen sind so umfangreich, dass sie die meisten Menschen abschrecken, denn der damit verbundene Aufwand ist beträchtlich, aber es gibt die Möglichkeiten und sie werden auch genutzt. Aufbauend auf den gleichen sich verändernden Möglichkeiten und Erwartungen, realisieren Facebook und Wikipedia vollkommen unterschiedliche gesellschaftliche Realitäten. Das eine – bei allem Nutzen, den die User daraus ziehen können – ist die Maschine der „1% of 1%“ (oder noch weniger, wenn man die Zahl der Entscheidungsträger und ökonomischen Nießnutzer im Verhältnis zu den Nutzern/Produzenten setzt), das andere – bei allen Problemen, von denen es mehr als genug gibt – eine real existierenden Commons, der vor allem Nutzwert für viele aber keinen Profit wenige produziert.
Zurück in die Stadt
Die Entwicklung verändert auch den urbanen Raum. Auch die Städte werden immer mehr zu dynamischen Gebilden, die an unzähligen Stellen und über eine Vielzahl von Verfahren Input der Bewohnerinnen aufnehmen, auswerten und darauf reagieren. Die Idee dazu ist nicht neu. Bereits 1990 malte sich Guattari, so zitiert ihn Deleuze, eine Stadt aus, „in der jeder seine Wohnung, seine Straße, sein Viertel dank seiner elektronischen … Karte verlassen kann, durch die diese oder jene Schranke sich öffnet; aber die Karte könnte auch an einem bestimmten Tag oder für bestimmte Stunden ungültig sein.“ Eine Vision, deren Realität wir heute in unzähligen Stellen im Alltag beobachten können.
Aber auch hier lohnt es sich, zwischen strukturellen und politische Dynamiken zu unterscheiden. Die „informationelle Stadt“, wie sie der Stadtforscher Manuel Castells bereits Ende der 1980er Jahre nannte, ist in ihrer physischen Logik geprägt durch ubiquitäre Daten- Waren und Personenströme. Er spricht in diesem Zusammenhang der zunehmenden Abhängigkeit des „space of places“ vom „space of flows“. Die Reorganisation der Stadt auf Basis dynamischer IT-basierter Prozesse als struktureller Prozess ist also auch älter als das Internet. Heute ist sie bereits so weit fortgeschritten, dass zwei deutlich artikulierte, höchst unterschiedliche politische Projekte daraus formuliert wurden: die Smart City und die kooperative Stadt.
Die Smart City, so könnte man vereinfachend sagen, macht mit der Stadt, was Facebook mit dem Internet macht. Sie baut eine Infrastruktur auf, in der hochkomplexe, dynamische Prozesse zentral administriert und gesteuert werden können. Dazu wird die Stadt mit einen Netz von Sensoren überzogen, die an möglichst vielen Stellen, Bewegungen und Zustände erheben, prozessieren und zur Auswertung weiterleiten. Die Nutzer der Stadt werden als Produzenten von Informationen verstanden und die Infrastruktur der Stadt so erweitert, dass diese Produktivität nicht nur realisiert werden kann, sondern dass die Stadt darauf auch reagieren kann. Dass die Rot-/Grünphasen der Leitsysteme dynamisch dem Verkehrsaufkommen angepasst werden ist nur der Anfang. Auch hier findet eine allgemeine, möglichst flächendeckende Datenerhebung statt, die in ein paternalistisch-autoritäres Regime mündet, in das zwar alle Bewohnerinnen Inputs liefern, aber gleichzeitig vollkommen von den Entscheidungsebenen, wie dieser Input verwendet werden soll, abgekoppelt sind (siehe Greenfield, 2013).
Es entstehen aber auch immer mehr Institutionen für eine kooperative Stadt, in der die Bürger die Möglichkeiten der Massenselbstkommunikation dafür nutzen, neue Formen des Zusammenlebens und des Zusammenarbeitens zu entwickeln. Dies reicht von kleinen Gemeinschaftsgärten, die über eine Facebook Page verwaltet werden, zu Kooperationen mit Stadt-nahen Bauerbetrieben, die über ausgeklügelte Bestell- und Logistikinfrastrukturen neue Institutionen der Nahversorgung schaffen, über Massenmobilisierung gegen fragwürdige Stadtentwicklungsprojekte, wie Stuttgart 21, bis hin zu Ansätzen, auch die physische Infrastukture der Städte neu zu organisieren. Letztere etwa durch die Entwicklung vernetzter, hyper-lokaler Energiegewinnung oder über besonders in Deutschland sehr weit fortgeschrittenen Projekte, die Energienetze zu Re-Kommunalisiern, womit nicht einfach eine Rückverstaatlichung gemeint ist, sondern die Schaffung neuer Institutionen, die ökonomische, soziale, ökologische Ziele im eine neues Verhältnis zu einander setzen sollen (siehe, Ferguson 2014)
Versucht man strukturelle und politische Dynamiken zu unterscheiden, stellt sich die Frage weniger, ob wir, um im Bild von Guattari zu bleiben, in einer Stadt leben wollen, in der sich die Schranken dynamisch öffnen und schließen lassen, sondern welche Schranken es geben soll und welche Mechanismen diese steuern: datengetriebene Algorithmen, die Vorgeben autonom zu sein um so der politischen Rechenschaft zu entziehen, oder von Bürgerinnen, die ihre Wissen und ihre Fähigkeiten in neue urbane Commons einbringen können.
Referenzen
Castells, Manuel (1989): The Informational City: Information Technology, Economic Restructuring, and the Urban-Regional Process, Oxford, UK; Cambridge, MA: Blackwell.
Deleuze, Gilles (1993 [1990]): „Postskriptum über die Kontrollgesellschaften“, in: ders: Unterhandlungen 1972-1990, Frankfurt a.M.: Suhrkamp, S. 254–262
Greenfield, Adam (2013): Against the Smart City, New York City: Do projects
Ferguson, Francesca (Hrsg.) (2014): Make_shift city: renegotiating the urban commons ; die Neuverhandlung des Urbanen, Berlin: Jovis.
Dieser Beitrag baut auf dem Buch „Kultur der Digitalität“, das in Kürze im Suhrkamp Verlag erscheinen wird.