Diesen Text als schön gestaltetes PDF drucken / lesen.
Der Leitartikel der Ausgabe aus dem Themenfeld Demokratie fasst die Herausforderungen zusammen, die die Digitalisierung an die Gesellschaft und vor allem auch an die Hochschulen stellen – abgesehen von Ausstattung und Technologie.
Im Zuge der Digitalisierung – die Ausweitung des Einsatzes digitaler Technologien – ist eine neue Infrastruktur der Wahrnehmung, der Kommunikation und der Koordination entstanden. Weil dies grundlegende Dimensionen fast aller individuellen und kollektiven Tätigkeiten sind, lösen die neuen Strukturbedingungen des Handelns – die Digitalität – weitreichende Veränderungen aus. Alte Muster des Denkens und Handelns kommen in die Krise, neue Muster entstehen. Sei es in Bezug darauf, wie jeder Einzelne sich selbst und die Welt erlebt, wie die Demokratie weiterentwickelt werden kann, oder wie sich das Verhältnis zu Natur gestalten lässt. Das ist sowohl eine Chance, weil es die Möglichkeit enthält, überkommene und den gegenwärtigen Herausforderungen nicht mehr gerecht werdenden Muster und Verfahren zu verbessern, als auch eine Gefahr, weil dieser notwendige Wandel tiefe Momente der Desorientierung enthält, was Gegenreaktionen auslöst, die umso heftiger werden, je mehr diese strukturellen Veränderungen eingebettet sind in politische Bestrebungen, solidarische Elemente in der Gesellschaft aufzulösen. Davon direkt betroffen sind auch die Methoden und Verfahren, wie wir gesichertes Wissen über die Welt generieren und wie dieses in die Gesellschaft gelangt - eine der zentralen Aufgaben der Universitäten.
Angetrieben wird diese Entwicklung jedoch nicht von der Technologie als solches, sondern durch vielfältige soziale, ökonomische und politische Entwicklungen, die aus jeweils unterschiedlichen Gründen die Komplexität der Gesellschaft erhöhen und neue Verfahren des Umgangs mit dieser Komplexität erfordern. In fast allen diesen Verfahren spielt Technologie eine wichtige Rolle, denn sie erlaubt es, die stark steigende Volumina an Daten und Kommunikation bewältigen zu können, und neue Formen des Handelns in der Welt zu entwickeln. Die Anfänge dieser IT unterstützten Komplexitätssteigerung reichen bis ins späte 19. Jahrhundert zurück und erfassten seit den 1960er Jahren die Gesellschaft in ihrer Breite. Mit der Ausbreitung des Internets zum Massenmedium um die Jahrtausendwende wurde die Digitalität als gesellschaftliche Bedingung dominant.
Beschleunigung, Komplexität und Digitalisierung
Der Historiker James Beninger (1986) argumentiert, dass die Industrialisierung, mit ihren sich rasant erweiternden und beschleunigenden Prozessen der Produktion, Distribution und Administration, eine „Kontrollkrise“ auslöste. Das Management der neuen industriellen Konglomerate sah sich mit dem Problem konfrontiert, Entscheidungen über die immer komplexer werdenden Abläufe entweder auf lückenhafter Informationsgrundlage oder mit großer Verzögerung treffen zu müssen. Das bedrohte das Wachstum und die Konkurrenzfähigkeit ihrer Firmen und schuf einen starken Anreiz, nach neuen Technologien und Methoden zu suchen, um die gesteigerte Komplexität zu meistern. Das Problem, vor dem sich das US Innenministerium Ende der 1880er Jahre befand, kann hier stellvertretend für diese allgemeine Kontrollkrise dienen. Per Verfassung verpflichtet, alle zehn Jahre eine Volkszählung durchzuführen, war man wegen des gestiegenen Datenvolumens nicht mehr in der Lage, die Auswertung der aktuellen Volkszählung abzuschließen, bevor die nächste zu beginnen hatte. Und es war abzusehen, dass dabei noch mehr Daten erhoben würden. 1889 wurde deshalb eine Konferenz einberufen, um neue Methoden der Datenverarbeitung zu evaluieren. Von den drei eingereichten Beiträgen fokussierten zwei auf die Optimierung der bisherigen Methoden, während einer eine ganz neue Methode vorschlug. Statt weiter auf Handarbeit zu setzen schlug ein junger Ingenieur Namens Hermann Hollerith (1860-1929) ein mechanisches Verfahren der Datenverarbeitung mittels Lochkarten vor. Das Resultat war eine enorme Erhöhung der Geschwindigkeit und der Flexibilität der Datenverarbeitung und seine Firma, die nach einigen Fusionen 1924 in IBM umbenannt wurde, bekam ihren ersten Großauftrag. Seit diesem Zeitpunkt, also Anfang der 1890er Jahre, kann man sagen, dass die fortgeschrittensten Prozesse der Gesellschaft einen Komplexitätsgrad erreicht hatten, der nur noch mittels datenverarbeitenden Technologien zu verstehen und steuern war.
Lange Zeit blieb diese Entwicklung auf große Unternehmen und Bürokratien beschränkt. Noch 1977 sah Ken Olsen, Gründer der Digital Equipment Corporation, einem führenden Hardware Hersteller seiner Zeit, „keinen Grund, warum jemand einen Computer zu Hause haben möchte.“ Dabei war zu diesem Zeitpunkt die Revolution des „Personal Computers“ bereits angelaufen. Seine Ausbreitung wurde dadurch begünstigt, dass die gesellschaftliche Komplexität, und damit der Kommunikations- und Koordinationsbedarf, überall zunahm und an die Grenzen dessen, was die alten Methoden bewältigen konnten, stieß.
Das hatte nicht zuletzt ökonomische Gründe, denn die Wirtschaft war mitten in einem Strukturwandel. Der Dienstleistungssektor gewann gegenüber der industriellen Produktion an Bedeutung. Kommunikation und flexible Koordination wurden für viele Bereiche immer wichtiger. Bereits Anfang der 1960er Jahre begannen Wirtschaftswissenschaftler und Managementtheoretiker von der knowledge economy zu sprechen. Aber die Wirtschaft war nicht der einzige Motor der zunehmenden Komplexität und wachsenden Bedeutung kommunikativen Handelns in der Gesellschaft. Denn gleichzeitig drängten im Zuge der gesellschaftlichen Liberalisierung immer mehr bisher marginalisierte Gruppen in die Öffentlichkeit, oftmals unterstützt durch eine eigene Medienproduktion, die neue Bewusstseinsformen und Referenzfelder artikulierten. Die Menge und Vielfalt der Wissensproduktion, und die kommunikativen Verhandlungen, in die diese eingebettet waren und die von diesen ausgelöst wurden, nahm zu. Als weitere Quelle des Wandels kam dazu, dass über die Zentren des Westens hinaus, die Globalisierung Kulturen miteinander in Kontakt brachte, die trotz aller Kontinuität (post-)kolonialer Muster sich nicht mehr einfach in lineare Relationen von Fortschrittlich und Rückschrittlich, Zentrum und Peripherie ordnen ließen. Neue Sprachen für Vielfalt und Differenz mussten entwickelt werden.
Vor diesem Hintergrund eröffneten die aufkommenden digitalen Medien einer Vielzahl von Akteuren die Aussicht, durch deren Nutzung ihre höchst unterschiedlichen ökonomischen, politischen und kulturellen Ziele besser zu realisieren, als in den bestehenden Ordnungen. So drangen von unterschiedlichen Rändern der Gesellschaft neue kulturelle Muster, wie mit dem gesteigerten Kommunikationsvolumen produktiv umgegangen werden konnte, immer tiefer in die Gesellschaft. Um die Jahrtausendwende wurde das Internet zur allgegenwärtigen Kommunikations- und Koordinationsinfrastruktur. Hatten 1997 erst rund 6% der Bevölkerung in Deutschland Zugang zum Internet, 2003 waren es bereits 53%. Damit begannen sich bisher voneinander unabhängige Entwicklungen (Wissensökonomie, soziale Liberalisierung und kulturelle Globalisierung) über die spezifischen Kontexte ihrer Entstehung hinaus auszubreiten, sich gegenseitig zu beeinflussen, zu verstärken und miteinander zu verschränken. Aus einem unverbundenen Nebeneinander teilweise marginaler Praktiken wurde in der Folge eine neue, spezifische kulturelle Umwelt, die Digitalität, die vor unseren Augen deutliche Gestalt annimmt und mehr und mehr andere kulturelle Konstellationen überlagert beziehungsweise an den Rand drängt.
Formen der Digitalität: Referentialität, Gemeinschaftlichkeit und Algorithmizität
Besonders deutlich lassen sich drei kulturelle Formen der Digitalität beschreiben, die trotz der verwirrenden Vielfalt an Bestrebungen, Konflikten und Widersprüchen eine neue Bedingung mit einer spezifischen Gestalt verleihen: Referentialität, Gemeinschaftlichkeit und Algorithmizität.1 Aus einer kulturwissenschaftlichen Perspektive ist ein zentraler Aspekt dieser neuen Umgebung ihre Größe und Komplexität, die jeden Überblick verunmöglicht und das Fehlen einer bedeutungskonstituierenden Ordnung.
Die bisherige Ordnung wurde hergestellt durch institutionalisierte Verfahren, welche die Filterung von Informationen vor den Akt der Veröffentlichung setzen und so eine gewisse Übersichtlichkeit produzierten. Qualitätszeitungen etwa stellten den Anspruch, ihre Leserinnen und Leser umfassend zu informieren. Dafür ordneten sie die Komplexität der Welt in übersichtliche Kategorien (Innenpolitik, Internationales, Wirtschaft, Sport, Kultur, Vermischte Meldungen). Die Kehrseite dieser Übersichtlichkeit war der selektive Ausschluss von Themenfeldern und Perspektiven und die radikale Limitierung der Zahl der Sprecherinnen- und Sprecherpositionen. Dies wurde seit den 1960er Jahren einer umfassenden Kritik unterzogen.
In der neuen (Un)Ordnung kann und muss jeder selbst publizieren. Die Filterung setzt erst danach ein, in einer konstanten Be- und Umwertung dessen, was bereits publiziert wurde. Diese neue Struktur von Orientierung ist in vielen Aspekten eine logische Entwicklung, die der Ausdifferenzierung der Gesellschaft in immer mehr Milieus und Nischen Rechnung trägt. Immer mehr Menschen – Frauen, sexuelle, kulturelle, religiöse oder andere Minderheiten – wollen sich nicht mehr nicht sagen lassen, dass ihre Anliegen irrelevant seien. Das Spektrum an Themen und Meinungen, die heute an die Öffentlichkeit gelangen, ist um ein vieles größer, als es auch die beste Zeitungsredaktion abbilden könnte. Selbstverständlich ist nicht jede dieser Themen und Meinungen konstruktiv, wobei in vielen Fällen es kein Konsens darüber gibt, was denn als konstruktiver Beitrag gelten solle. Aus der wachsenden Unübersichtlichkeit der vielen verfügbaren Orientierungspunkte ergibt sich aber die für jeden – ob er oder sie nun dafür bereit ist oder nicht – die gesteigerte Notwendigkeit, sich selbst zurechtzufinden. Die veränderten Praktiken der Filterung und damit der Orientierung vor dem Hintergrund der chaotischen Informationssphäre sind eines der zentralen Elemente der Digitalität.
Referentialität, also das Erstellen eines eigenen Gefüges von Bezügen, ist zur allgegenwärtigen und allgemein zugänglichen Methode geworden, um all die vielen Dinge, die jedem Einzelnen begegnen, zu ordnen. Sie werden so in einen konkreten Bedeutungszusammenhang gebracht, der auch das eigene Verhältnis zur Welt und die subjektive Position in ihr (mit-)bestimmt. Zunächst geschieht dies einfach dadurch, dass Aufmerksamkeit auf gewisse Dinge gelenkt wird, von denen so – zumindest implizit – behauptet wird, sie seien wichtig. Mit jedem einzelnen hochgeladenen Bild auf Flickr, jeder Twitter-Nachricht, jedem Blogpost, jedem Forumseintrag, jedem Statusupdate macht ein User genau das; er teilt anderen mit: »Schaut her, das finde ich wichtig!« Filtern und Bedeutungszuweisung sind an sich nichts Neues. Neu ist, dass beide nicht mehr primär durch Spezialistinnen und Spezialisten in Redaktionen, Museen oder Universitäten ausgeführt werden, sondern zur Alltagsanforderung für große Teile der Bevölkerung geworden sind, unabhängig davon, ob diese über die materiellen und kulturellen Ressourcen verfügen, die nötig sind, um diese Aufgabe zu bewältigen. Angesichts der Flut von Informationen, die uns heute tagtäglich umgibt, ist die Fokussierung von Aufmerksamkeit, die Reduktion unüberblickbarer Möglichkeiten auf etwas Konkretes, eine produktive Leistung, so banal jede dieser Mikrohandlungen im Einzelnen auch sein mag, und auch wenn es sich zunächst nur um die Fokussierung der eigenen Aufmerksamkeit handelt. Der Wert dieser oftmals sehr kleinen Handlungen liegt darin, dass sie Elemente aus dem gleichförmigen Strudel der Unübersichtlichkeit herausgreifen. Das so Hervorgehobene erfährt eine Aufwertung durch den Einsatz einer Ressource, die sich nicht vervielfältigen, nicht digitalisieren lässt, und die für jeden Einzelnen unabänderlich beschränkt ist: die eigene Lebenszeit. Jedes Statusupdate, das nicht durch eine Maschine erstellt wurde, bedeutet, dass jemand seine Zeit investiert hat, und sei es nur eine Sekunde, um auf dieses – und nicht etwas Anderes – hinzuweisen. So geschieht eine Validierung des im Übermaß Vorhandenen durch die Verbindung mit dem ultimativ Knappen, der eigenen Lebenszeit, dem eigenen Körper. Mag der dadurch generierte Wert noch so klein oder diffus sein, er ist, in Anlehnung an Gregory Batesons berühmte Definition von »Information«, der Unterschied, der den Unterschied im Strom der Gleichwertigkeit und Bedeutungslosigkeit macht. Als alltägliche Handlungen, die schon fast beiläufig geschehen, schaffen sie allerdings meist nur sehr schwache, kurzlebige Unterschiede. Doch sie finden nicht bloß einmal statt, sondern immer wieder. Durch die Wiederholung stellen sie Verbindungen her zwischen den vielen Dingen, auf die Aufmerksamkeit gelenkt wird. So werden Wege durch die Unübersichtlichkeit gelegt. Diese Wege, die beispielsweise dadurch entstehen, dass auf Verschiedenes nacheinander hingewiesen wird, dienen ebenfalls dazu, Bedeutung zu produzieren und zu filtern. Dinge, die potenziell in vielen Zusammenhängen stehen können, werden in einen einzigen, konkreten Zusammenhang gebracht. Referentialität ist heute ein Grundmuster der Sinngebung, im privaten wie im öffentlichen Raum.
Die sozialen Medien, in den Prozesse des Auswählens und Filterns eine zentrale Rolle spielen und die jedem Einzelnen mächtige Werkzeuge in die Hand geben, mit großen Informationsmengen umzugehen, zeichnen sich noch durch einen zweiten zentralen Aspekt aus: alle diese Tätigkeiten werden jeweils im Hinblick auf Andere gemacht. Man „liked“ die Bilder von Menschen, denen man auf Instagram folgt, und teilt interessante Informationen mit seinen Freunden auf Facebook. Dabei geschehen drei Dinge. Erstens wird die Auswahl durch andere validiert, ein „like“ nach dem anderen und damit die eigene Sicht der Dinge bestätigt. Zweitens erweitert sich der eigene Informationshorizont, weil man ja auch die Ergebnisse der Auswahl der Anderen, mit denen man verbunden ist, sieht. So entsteht ein geteilter Horizont, eine Weltsicht, die von einer mal größeren, mal kleineren Gruppe von Menschen geteilt wird. Drittens entsteht dadurch ein eigenes Profil, eine Identität, denn in sozialen Netzwerken ist man die Person, die man kommuniziert und wenn man aufhört zu kommunizieren, dann verschwindet man, wird unsichtbar. Dieses eigene Profil erlaubt nicht nur, dass Menschen, die man sonst nicht kennt, einem einschätzen und damit entscheiden können, ob sie interagieren wollen oder nicht, sondern es strukturiert die Gemeinschaften auch nach Innen. Personen die über längere Zeit wesentliches zum gemeinsamen Horizont beitragen, werden innerhalb der Gruppe immer wichtiger, bekommen mehr Aufmerksamkeit und Autorität. So entstehen in formell horizontalen, auf Freiwilligkeit beruhenden Gemeinschaften interne Hierarchien und Einflussgefälle. Es ist in diesen Gemeinschaften, dass Bedeutung verhandelt wird, neue Ideen entstehen und in der Praxis erprobt werden. Sie ermöglichen es Menschen, in einer unübersichtlich und sehr widersprüchlich gewordenen Welt, sich mal besser mal schlechter zu orientieren. In diesen Gemeinschaften entsteht ein neues Verhältnis zwischen dem/der Einzelnen und der Gruppe. Man braucht die Anderen, damit die eigene Singularität überhaupt als sinnvoll gelesen werden kann. Das ist im Grunde nichts Neues. Was sich verändert hat, ist das nun beides, Differenz und Homogenität, explizit und gleichzeitig produziert wird. Jedes „like“ kommuniziert einerseits „Ich teile deine Werte!“ und anderseits „Ich schätze das Neue, das du mir sichtbar machst!“ und sei es nur das Katzenbild von gestern Abend.
Aber auch wenn das gemeinschaftliche Element dieser neuen, temporären und partiellen Informationsordnungen eine wesentliche Erweiterung und Stabilisierung der eigenen Weltsicht darstellt, so ist die Reichweite dieser Ordnungspraxen immer noch sehr beschränkt. Wir sind in allen Bereichen auf maschinelleHilfe angewiesen, um uns, individuell wie gemeinschaftlich, orientieren zu können, das heißt, etwas über die Welt in Erfahrung zu bringen und in ihr handeln zu können. So bedeutet etwa die Tatsache, dass das Internet keine zentrale Instanz besitzt, die entscheidet, was und wie publiziert werden kann, dass wir auf Suchmaschinen angewiesen sind, um uns zurechtzufinden. Das Versprechen von „Big Data“, uns eine neue Sicht auf die Welt zu liefern, liegt genau daran, dass wir neue automatisierte Methoden entwickeln, wie diese großen Datenmengen analysiert werden können. Ohne solche Verfahren wären wir in mehr und mehr Bereichen blind und handlungsunfähig. Algorithmen aber repräsentieren nicht die Welt, sie schreiben mit an ihr. Sie bestimmen mit, was wir sehen, wie wir uns in der Welt bewegen, und welche Handlungsoptionen uns offenstehen oder auch nicht.
Das ist eine sehr zweischneidige Entwicklung. Einerseits ist sie ermächtigend, weil wir uns mit ihr in komplexen, dynamischen (informationellen) Umgebungen der Gegenwart bewegen können. Anderseits werden wir abhängig von Maschinen und Algorithmen, deren Strukturen und Handlungsweisen von außen nicht zu verstehen sind. Frank Pasquale (2015) prägte dafür das Bild der „Black Box Society“. Einblick in diese „black boxes“ wäre aber dringend geboten, denn auch technische, quantifizierende Systeme sind nicht neutral, sondern stecken voll expliziter und implizierter Annahmen. Ja, auch die Daten, die sie verarbeiten, beschreiben die Welt nicht einfach wie sie ist, sondern stecken selbst voll von Annahmen, pragmatischen Kompromissen und Fehlern, auch und gerade dann, wenn sie automatisch von Sensoren und anderen technischen Verfahren erhoben werden. Aber es gibt kein zurück. Wir brauchen intelligente Maschinen, um uns in einer komplexen, rasch verändernden Welt zurecht zu finden und in ihr handeln zu können. Sei das, um uns von einer dynamischen Karte den Weg um den Verkehrsstau anzeigen zu lassen, oder um neue Methoden zu finden, wie wir Energieversorgung so organisieren, dass wir dabei nicht die Erde zerstören.
Und die Universitäten?
Die zentrale Herausforderung der Universitäten unter den durch die Digitalität veränderten Bedingungen ist nicht primär, welche Geräte nun angeschafft werden sollen, sondern, wie sie ihre eigenen Praktiken unter diesen Bedingungen umgestalten sollen und wollen.
Der erste Bereich, die gestiegene Bedeutung der Referentialität als Methode der Sinngebung, erscheint im wissenschaftlichen Kontext zunächst unproblematisch. Die wissenschaftliche Methode selbst war eine Antwort auf die Herausforderung des enormen Anstiegs an Daten und Wissen, in Form von Publikationen, im 17. und 18. Jahrhundert. Seitdem definiert sich die wissenschaftliche Erkenntnis als inkrementell und referentiell. Jedes neue Argument muss dicht mit bestehenden Argumenten verwoben werden, um entweder die Ähnlichkeit oder den Unterschied zu diesen nachweisen zu können. Die moderne wissenschaftliche Methode war von Anfang an darauf angelegt, komplexe, wandelbare Felder ohne den Verweis auf externe Autoritäten zu ordnen und so neues Wissen und Handlungsstrategien zu entwickeln. Daran ändert sich nichts.
Was hingegen problematisch geworden ist, sind zwei Dinge. Erstens die klare Trennung zwischen den Feldern, die ja auch als eine Strategie der Informationsreduktion betrachtet werden kann. Heute, in der gestiegenen Komplexität, gibt es kaum mehr ein Problem, dass sich sinnvoll nur aus einer Perspektive betrachten lässt. Das steigert die Bedeutung der Inter- und Transdisziplinarität, die ja schon teilweise seit Jahrzehnten gefordert wird aber immer noch praktisch sehr schwer einzulösen ist. Zweitens, in immer mehr Bereichen beschreiben die wissenschaftlichen Methoden die Welt nicht nur, sondern sie bringen sie auch aktiv mit hervor. Anthony Giddens (1996) hat dies bereits in den 1990er Jahren als „doppelte Hermeneutik“ der Sozialwissenschaften beschrieben: das Wissen über die Welt fließt direkt in die Welt ein und verändert diese, weil „nichtwissenschaftliche“ Akteure davon Gebrauch machen. Dies hat sich heute auch auf die Naturwissenschaften ausgedehnt und führt in immer mehr Bereichen dazu, dass die wissenschaftliche Erkenntnis selbst Teil der Welt wird, die sie beschreibt, und damit in dieser Welt eine Position einnimmt. Die Grenzen zwischen Politik und Wissenschaft werden neu gezogen (siehe Latour 2015). In diesen Prozess müssen sich die Universitäten aktiv einbringen um ihre Legitimität auf ein neues Fundament zu stellen.
Das gestiegene Gewicht der gemeinschaftlichen Aspekte der Wissensproduktion deutet darauf hin, dass Prozesse der Zusammenarbeit innerhalb und zwischen Disziplinen, aber auch zwischen Wissenschaften und Nichtwissenschaften immer wichtiger werden. Das bedeutet nicht nur, dass man sich – wie das die Naturwissenschaften in vielen Bereichen schon längst vollzogen haben – noch häufiger von der Konventionder individuellen Autorschaft verabschiedet. Die Prozesse der Zusammenarbeit müssen und können ausgebaut werden, um multiperspektive Schichtweisen auf komplexe Situationen zu artikulieren. Auch die Aushandlungsprozesse, die dazu führen, dass etwas als wissenschaftlich gesichertes Wissen gelten kann, müssen transparenter gemacht werden. Konkret: Viele wissenschaftlichen Publikationen werden durch den peer-review Prozess geprägt und verändert. Wie das geschieht und was dabei zu Disposition steht, wird aber systematisch ausgeblendet. Dabei sind oftmals die hier stattfindenden Diskussionen das, was die Verhandlungen und die unterschiedlichen Positionen zum aktuellsten Stand der Wissenschaft sichtbar machen würden. In einer print-Publikation ist der Fokus auf das Endprodukt eine nachvollziehbare Strategie, um die zu kommunizierende Informationsmenge zu reduzieren. Im elektronischen Kontext ist eine solche Strategie überhaupt nicht notwendig. Wikipedia bietet hier ein interessantes und robustes Gegenmodell. Auf jeden Artikel gibt es gleichzeitig drei Sichtweisen. Erstens, als redigierte Fassung, die einem traditionellen Artikel gleicht. Zweitens, als Serie von Änderungen (Versionen), die den Prozess des Redigierens transparent macht und, drittens, als Diskussionsseite, die nachvollziehen lässt, wie unterschiedliche Ansichten zu einem Thema in den Prozess des Schreibens eingeflossen sind und dabei verhandelt wurden. Ausser von der – in der Praxis oftmals sehr problematischen – Anonymität des Review Prozesses spricht nichts dagegen, ein solches Verfahren auch für wissenschaftliche Publikationen zur Anwendung zu bringen.
Das Mitschreiben von Maschinen und Algorithmen an der eigenen Erkenntnis ist sicher eine der komplexesten Herausforderungen. Zunächst ist es wichtig, anzuerkennen, dass hier neue Akteure mit im Spiel sind und dass deren Einfluss beträchtlich sein kann. Entsprechend ist es notwendig, die genaue Art und Weise dieses Einflusses zu verstehen und zu kontrollieren. Sonst wird wissenschaftliche Analyse intransparent und nicht mehr reproduzierbar. Aber „Algorithmen“ darf man nicht auf das Technische reduzieren. Hier braucht es neue Methoden, wie die ganze Kette an Handlungen und Verfahren, die automatisierte Analyse und Entscheidungsverfahren in der Praxis umfassen, transparent und verhandelbar gemacht werden kann. Das beginnt bei der Frage nach der Problemdefinition, geht weiter zur Modellbildung, der Datenerhebung und Auswertung (dem Algorithmus im engen technischen Sinn) bis zur institutionellen Einbettung, die den Erkenntnisgewinn in Handlungsfähigkeit übersetzt, etwa in Bezug auf Geschäftsmodelle der Forschungssponsoren oder der Technologieprovider.
Pragmatisch bedeutet dieser Fokus, dass der politischen und epistemologischen Bedeutung der technischen Infrastruktur viel größere Aufmerksamkeit gewidmet werden muss. Wer die Infrastruktur kontrolliert, der kontrolliert, was darauf geschehen kann, in dem er oder sie die Parameter der Interaktion bestimmt. Je mehr Infrastruktur an kommerzielle Anbieter ausgelagert wird, desto weniger Einfluss haben Universitäten darauf, wie sich diese Infrastruktur entwickelt, was dadurch ermöglicht und verunmöglicht wird, und desto weniger können sie einsehen und bestimmen, welche Daten generiert und wie diese ausgewertet werden. Das ist eine große Herausforderung, aber der umfassende Einsatz von Open Source Software und die bessere Vernetzung und Koordination der universitären Rechenzentren wäre ein wichtiger Schritt, gemeinsam avancierte Infrastruktur maßgeschneidert entwickeln und eigenen Bedürfnissen anpassen zu können, statt von externen Anbietern und deren Interessen abhängig zu werden.
Die Herausforderungen der Digitalität liegen also nicht primär auf technischer, sondern auf epistemologischer und organisatorischer Ebene. Nur wenn man darauf Antworten entwickelt, kann man die Infrastruktur so ausbilden, dass sie den veränderten Anforderungen an Lehre, Forschung und gesellschaftlicher Einbettung gerecht wird.
Quellenverzeichnis:
Beniger, J. R. (1986): The Control Revolution: Technological and Economic Origins of the Information Society. Cambridge, MA: Harvard University Press.
Giddens, A. (1996). Konsequenzen der Moderne. Suhrkamp Taschenbuch Wissenschaft 1295,
Frankfurt am Main: Suhrkamp.
Hessischer Rundfunk, ZDF (2017). Ergebnisse aus der Studienreihe „Medien und ihr Publikum“.
Verfügbar unter: https://uhh.de/q6015 [19.03.18].
Latour, B. (2015). Das Parlament der Dinge: für eine politische Ökologie. Frankfurt am
Main: Suhrkamp.
Pasquale, Frank (2015): The black box society: the secret algorithms that control money and information. Cambridge: Harvard University Press.
Schein, E. H. (2004). DEC is dead, long live DEC: the lasting legacy of Digital Equipment Corporation. San Francisco, CA: Berrett-Koehler.
Stalder, F. (2016). Kultur der Digitalität. Berlin: Suhrkamp.
Aus: Synergie. Fachmagazin für Digitalisierung in der Lehre. # 05, 2018. S.8-15