Neue Formen der Öffentlichkeit und kulturellen Innovation zwischen Copyleft, Creative Commons und Public Domain.

Felix Stalder. In: Hoffmann, Jeanette (Hg.). Wissen und Eigentum. Geschichte, Recht und Ökonomie stoffloser Güter. Bundeszentrale für Politische Bildung, Bonn. 2006
http://www.bpb.de/publikationen/TRRZ2E,0,Wissen_und_Eigentum.html


In den letzten 10 Jahren ist eine neue, weltweite Bewegung entstanden, die grundsätzlich neue Modelle der Produktion von und des Zugangs zu digitalen Gütern nicht nur fordert, sondern auch bereits im grossen Stil praktiziert. Wissenschaftler, Autorinnen, Künstler, Musikerinnen, Programmieren und andere 'immaterielle Produzentinnen' nutzen dabei das bestehende Urheberrecht in einer neuen Art und Weise. Das Urheberrecht gewährt ja einem Autor geistiger Werke (im Bereich der Literatur, Kunst, Wissenschaft, Design, Computerprogammierung, etc) exklusive Verfügungsrechte über seine Schöpfungen, die nur durch eng definierte Schranken eingegrenzt werden. Diese Rechte entstehen automatisch mit der Kreation des Werkes, ohne dass es registriert oder anderweitig gekennzeichnet werden muss. Der Autor kann (fast) frei bestimmen, wer, wann, wie und unter welchen Umständen sein Werk nutzen kann (siehe Beiträge von Thomas Hoeren und Till Kreutzer in diesem Band).  Die neue Nutzung dieser Rechte ziehlt darauf ab, den Zugang zu den Werken  zu vereinfachen, in dem etwa das freie Kopieren erlaubt wird, und Möglichkeiten der Öffentlichkeit zu erweitern, mit diesen Werken kreativ umzugehen.

Konventionellerweise wird das Urheberrecht von den eigentlichen Autoren an Dritte, etwa einen Verlag oder ein Musiklabel, übertragen. Die Verwerter sorgen dann dafür, dass die meisten Werknutzungen nur gegen Entgelt und nur im beschränktem Umgang erlaubt werden. Wenn wir beispielsweise ein Buch kaufen, erwerben wir das Recht, es zu lesen, es Freunden auszuleihen oder es wieder zu verkaufen. Untersagt ist es uns hingegen, das Buch als Ganzes zu kopieren, es öffentlich vorzulesen, zu verfilmen oder abzuändern. Diese Rechte werden vom Rechteinhaber in aller Regel einzeln verkauft. Auf einem solchen Verständnis des Urheberrechts, das auf der Möglichkeit des Ausschlusses und der exklusiven Kontrolle der Nutzungen aufbaut, beruht im wesentlichen die Medienindustrie (Verlage, Musiklabels, Film- und Fernsehproduktion), aber auch die konventionelle Softwareindustrie und der grösste Teil der weiteren kommerziellen Produktion immaterieller Güter.

Dies ist zwar der dominierende, aber nicht der einzige Ansatz, wie der Möglichkeitsraum, den das Urheberrecht schafft, ausgefüllt werden kann. Es gibt heute eine alternative Praxis, die das Urheberrecht nicht dazu benutzt, exklusive Kontrolle über die Nutzungen und Weiterverwertung geschützter Werke auszuüben. Im Gegenteil, zentrales Anliegen ist es hier, einen freien und ungehinderten Zugang zu den Werken zu garantieren und deren Weiterverarbeitung explizit zu ermuntern. Formuliert wurde dieser Ansatz zuerst im Bereich der Softwareentwicklung unter dem Schlagwort 'Freie Software' und seit dem Ende der 1990er Jahre hat er als 'Open Source' die breite Öffentlichkeit erreicht. Gleichzeitig wurde begonnen mit einem solchen – auf der Garantie des freien Zugangs beruhenden – Ansatz auch in anderen Feldern der immateriellen Produktion zu experimentieren. Heute stehen sich in nahezu allen Bereichen der Wissens- und Kulturproduktion diese beiden Ansätze gegenüber. Am weitesten entwickelt ist diese Auseinandersetzung in der Software Industrie, wo sich proprietäre Produzenten (zum Beispiel Microsoft) und Open Source Produzenten (etwa des Betriebssystems Linux) einen zunehmend härteren Konkurrenzkampf liefern (siehe Beitrag von Robert Gehring in diesem Band). Sie trennen nicht nur unterschiedliche Anwendungen des bestehenden Urheberrechts, sondern sehr grundlegend verschiedene Annahmen, wie neues Wissen und neue Kultur entsteht und wie die Produktion, sei sie nun kommerziell, wissenschaftlich oder künstlerisch, am effektivsten gesellschaftlich organisiert werden soll.

Im folgenden werde ich mich auf die neuen, öffentlichkeits- und innovationsfreundlichen Modelle im Bereich der Wissens- und Kulturproduktion konzentrieren. Ich werde erst ihre technologischen, gesellschaftlichen und rechtlichen Grundlagen erläutern, bevor ich mich der Praxis der kooperativen, aber auch der individuellen Produktion unter diesen neuen Rahmenbedingungen zuwende. Im letzten Teil dieses Kapitels werden die aktuellen Probleme und das weitere Potential dieser Modellen zur Sprache kommen.


Technologische, gesellschaftliche und rechtliche Grundlagen offener Modelle


Die technologischen Veränderungen im Bereich der Informationsverarbeitung und Telekommunikation ('Internet Revolution'), erlauben einen völlig neuen Umgang mit geistigen Werken, die immer häufiger in digitaler Form produziert, distribuiert und konsumiert werden. Während die Herstellung und der Vertrieb analoger Kopien (etwa gedruckter Bücher oder Filme auf Zelluloid) eine komplexe und kapitalintensive Angelegenheit ist, so ist es heute praktisch ohne Kosten möglich, digitale Kopien anzufertigen und über Webserver oder peer-to-peer (p2p) Netze weltweit zu vertrieben. Diese neuen Vertriebswege stehen der Effizienz der bestehenden Kanäle um nichts nach, ja sie übertreffen sie sogar in vielen Fällen. Dies erlaubt, neue Beziehungen zwischen Produzenten und Nutzern digitaler Inhalte zu knüpfen, die nicht mehr auf Vermittler und Verwerter in der alten Form angewiesen sind. Dies ist die erste Veränderung, die mit den neuen Kommunikationsmöglichkeiten verbunden ist. Die zweite ist etwas subtiler, aber ebenso weitreichend. Im Kontext digitaler Medien ist kaum mehr zu unterscheiden, was als Endprodukt des einen Prozesses gelten soll, und was als Rohmaterial des anderen. Copy & Paste ist eine der Grundfunktionen, die die meisten Computeranwender täglich benutzen, um Material von einem Kontext in einen anderen einzufügen. Was in der analogen Kultur eine relativ marginale Praktik war (etwa das Anfertigen von Photocollagen à la John Hartfield oder Klaus Staeck) ist heute zentrale Kulturtechnik. In der Musik sind durch Sampling und Remixing ganz neue Genres entstanden. In anderen Worten, die Weiterverarbeitung bestehender Werke als Teil des Schaffens neuer Werke ist Alltag geworden in unserer digitalen Kultur (siehe auch Beitrag von Kawohl/Kretschmer in diesem Band).

Das Kopieren, Verbreiten und Weiterverarbeiten geistiger Werke fällt in den zentralen Regelungsbereich des Urheberrechts. Nach konventioneller Anwendung, welche solche Nutzungen nur mit expliziter Einwilligung der Rechteinhaber erlaubt, müsste für jeden dieser Akte zuerst Erlaubnis eingeholt werden. Die praktische Schwierigkeit, jedes mal Erlaubnis einzuholen (mit der dann möglicherweise hohe finanzielle Forderungen verbunden sind), steht in einem krassen Missverhältnis zur Einfachheit, die Werke im ganz normalen Alltag zu nutzen. Durch dieses Auseinanderklaffen von Rechtslage und Alltagspraxis ist eine riesige Grauzone entstanden, in der massenhafte Rechteverletzungen geschehen, die teilweise drakonisch verfolgt werden (etwas durch die Musikindustrie) teilweise ohne jegliche Folgen bleiben.

Die neuen, offenen Modelle nehmen nun die freie Kopierbarkeit, den einfachen, weltweiten Vertrieb durch jeden einzelnen und die hohe Weiterverwendbarkeit des digitalen Materials als Ausgangspunkt, um einen grundlegend anderen Umgang mit geistigen Produkten zu entwickeln. Wieso, so die Frage, soll jemand von einer Werknutzung ausgeschlossen werden, wenn die Werke in einer nicht-limitierten Anzahl perfekter Kopien zu Verfügung stehen und durch die zusätzliche Nutzung keinerlei zusätzliche Kosten entstehen? Die Standardantwort darauf ist, dass nur die exklusiven Verwertungsrechte des Urhebers die finanziellen Anreize schaffen, in die Herstellung der ersten Kopie zu investieren. Ohne den generellen Ausschluss, der es ermöglicht die meisten Nutzungen nur gegen Entgelt zu zuzulassen, sei es unmöglich, die ursprünglichen Investitionen je wieder zurück zu bekommen. Dieses Argument beruht auf einer ganz bestimmten Vorstellung, über den Charakter geistiger Werke. Es wird davon ausgegangen, dass geistige Werke relativ eindeutig voneinander abgrenzbare Einheiten darstellen, die jeweils einem einzelnen, klar definierbaren Urheber zugeordnet werden können, wie etwa Bücher in einer Bibliothek. Diese stehen zwar gemeinsam auf einem Regal, aber es ist ohne Schwierigkeiten zu bestimmen, wo das eine Buch aufhört und das andere anfängt. Auf jedem Buchrücken ist ein einzelner Autor, hin und wieder eine Autorengruppe, angegeben. Die Autoren mögen sich vielleicht auf einander beziehen, aber dies steht im Verhältnis zur Individualität ihres Schaffens eindeutig im Hintergrund.

Offene Produktionsmodelle gehen von einer anderen Vorstellung aus, wie geistige Werke beschaffen sind. Für sie steht nicht die originäre Schöpfung relativ isolierter Autoren im Vordergrund, sondern Prozesse der Verarbeitung und Veränderung bereits bestehender Werke, durch die neue Werke entstehen. Die Urheber werden definiert durch den Kontext, in dem sie arbeiten. Von diesem beziehen sie das Rohmaterial und in diesem finden ihre Werke Anwendung. Die Analogie ist nicht das statische Buch in der Bibliothek, sondern das dynamische, offene Gespräch. Dieses beruht natürlich auf der Teilnahme individueller Sprecher, aber das Gespräch als solches kann weder einem einzelnen zugeordnet noch als Summe unabhängiger Äusserungen betrachtet werden. Vielmehr findet es statt zwischen den Sprechern, die sich fortwährend aufeinander beziehen und von einander beeinflusst werden. Das Ganze ist viel mehr als die Summe seiner Teile. Damit ein interessantes Gespräch zu Stande kommt, müssen die Ideen ungehindert fliessen können. Der freie Zugang zu dem, was ein anderer bereits früher einmal gesagt hat, ist zentrale Bedingung, damit das Gespräch vorankommt und neue Ideen entstehen können. Wenn für jede Verwendung eines bereits geäusserten Gedankens erst nachgefragt werden müsste, und wenn die Erteilung der Erlaubnis dann vom ursprünglichen Sprecher verweigert werden könnte, dann würde das Gespräch schnell zum erliegen kommen. Dies wäre nicht nur völlig unpraktisch und absurd, sondern auch unnötig, denn die im Dialog gewonnenen Erkenntnisse stehen ja allen Teilnehmern gleichermassen zur Verfügung.

Ideen und andere immaterielle Güter können nicht aufgebraucht werden. Im Gegenteil, sie vermehren sich mit dem Gebrauch. Auf diesem Verständnis geistiger Produktion beruht etwa auch die akademische Wissenschaft, in der nicht nur Zitate- sondern auch Publikationspflicht besteht. Dies bedeutet nichts anderes als dass bestehende Werke in neue Werke integriert und neue Werke der Forschungsgemeinschaft zur Verfügung gestellt werden müssen. Mit anderen Worten, geistige Produktion wird verstanden als ein kooperativer (Urheber stehen in einen engen Austausch miteinander) und transformativer (Neues entsteht aus Bestehendem) Prozess. Es ist zu betonen, dass es hierbei nicht darum geht, die individuellen Leistungen einem amorphen Kollektiv unterzuordnen. Zitatepflicht bedeutet eben auch, seine Quellen präzise zu nennen (und damit zu würdigen). Vielmehr geht es darum, dass der freie Zugang zu Wissen eine der Grundvoraussetzungen für die Entstehen neuen Wissens ist. In der Geschichte der Wissenschaft erwies sich dieser Ansatz als ausserorderntlich innovationsfördernd.


Offene Lizenzen


Die traditionelle Ausübung der Urheberrechte, die fast jede Nutzung erlaubnispflichtig macht, steht einer solchen Auffassung des kreativen Prozesses entgegen. Das muss aber nicht so sein. Denn wie eingangs erwähnt räumt das Urheberrecht dem Schöpfer geistiger Werke nahezu absolute Kontrolle ein. Diese kann nun eingesetzt werden, um genau solche kooperativen und transformativen Prozesse zu fördern, anstatt sie zu behindern. Dazu braucht es eine Lizenz, die explizit freie Nutzungen der Werke erlaubt. Erste und nach wie vor wichtigste offene Lizenz ist die  'General Public License' (GPL). Die erste Fassung stammt aus der Mitte der 1980er Jahre, die aktuelle Version auf dem Jahre 1991. In dieser Lizenz werden rechtlich verbindlich die Bedingungen für einen freien Kommunikationsfluss zwischen Softwareentwicklern festgeschrieben. Zentraler Punkt sind die so genannten 'vier Freiheiten', die die GPL garantiert: 1) Die Freiheit, das Programm zu jedem beliebigen Zweck benutzen zu dürfen. Es bestehen keinerlei Anwendungsbeschränkungen. 2) Die Freiheit, das Programm unlimitiert zu kopieren und weiterzugeben. 3) Die Freiheit, das Programm zu verändern gemäss eigenem Gutdünken. Damit steht die Weiterentwicklung steht allen offen. 4) Die Freiheit, das veränderte Programm weiterzugeben. Diesen Freiheiten stehen nur zwei Pflichen gegenüber. Es müssen dem Empfänger des Programms (egal ob es nun einfach kopiert oder weiter verarbeitet ist) wiederum die selben Rechte eingeräumt werden und die bisherigen Autoren müssen weiterhin genannt werden. Für diese Praxis wird auch der Begriff des 'Copyleft' benutzt, um die Umdrehung des Copyright zu unterstreichen.

Die GPL garantiert einem Entwickler, dass er bestehende Code-Bausteine risikolos in sein eigenes Werk einbauen kann, oder dass, wenn er mit anderen gemeinsam ein Programm entwickelt, ihm die Arbeit aller uneingeschränkt zur Verfügung steht. Dies ist ein enormer Vorteil, demgegenüber der Nachteil – sollte es denn ein Nachteil sein – dass die eigene Arbeit ebenfalls allen zur Verfügung steht, kaum ins Gewicht fällt. Etwas schematisch ausgedrückt profitiert der Einzelne von der Gemeinschaft mehr als die Gemeinschaft von einem Einzelnen. Wesentlich ist, dass 'Profit' hier sowohl ökonomisch als auch normativ verstanden werden kann, je nach dem, wie jemand seine persönlichen Präferenzen setzt, ähnlich wie bei einem Gespräch, dass dem einen helfen kann, ein Problem in der Arbeitswelt zu lösen, dem anderen aber als willkommene Gelegenheit dient, sein Wissen unter Beweis zu stellen, oder einfach nur ein intellektuell anregendes Erlebnis darstellt. An der Eigenart des Gespräches, dass es offen am besten funktioniert und die Ergebnisse allen zu Verfügung stehen, ändern die unterschiedlichen Motivationen der Teilnehmer nichts.

Rückblickend ist nicht verwunderlich, dass diese Form der Lizensierung im Softwarebereich entwickelt wurde. Hier waren die digitalen Eigenheiten (Kopierbarkeit und Weiterverwendbarkeit) von Anfang an prägend und die Vorstellung von Software als ein proprietäres Produkt hatte eine vergleichsweise kurze Geschichte – Anfang der 1970er Jahre dachte kaum jemand daran, Software zu verkaufen. Die Komplexität moderner Softwareprogramme macht es zu dem einem Einzelnen unmöglich, ein Programm alleine zu schreiben. Es besteht also immer die Notwendigkeit, zusammen zu arbeiten und alles, was die Zusammenarbeit fördert, ist als solches positiv, weil problemlösend. Auch an proprietärer Software wird immer in grösseren Teams gearbeitet, nur eben hinter verschlossenen Türen. Mit der Ausbreitung des Internets Ende der 1980er, Anfangs der 90er Jahre benutzten immer mehr Programmierer das Internet, die die GPL für ihre eigene Arbeit praktisch fanden (so z.B. Linus Torvalds, der Anfang 1992 den Linux-Kernel unter die GPL stellte). Die neuen Möglichkeiten der globalen Kommunikation gaben der Freien Software Bewegung enormen Auftrieb, weil sie den Austausch zwischen den Programmierern enorm erleichterten.

In der zweiten Hälfte der 1990er Jahre gingen auch immer mehr Menschen online, die mit Programmierung wenig oder gar nichts zu tun hatten. Ihnen boten das Internet natürlich die genau gleichen Möglichkeiten des freien Austausches digitaler Inhalte. Da nun die GPL (wie andere ähnliche Lizenzen) auf den Softwarebereich zugeschnitten ist, begannen sich viele Gedanken zu machen, wie kooperative und transformative Innovationsprozesse auch auf anderen Gebieten gefördert und rechtlich abgesichert werden könnten. Das wichtigste Projekt, das aus diesen Überlegungen heraus entstanden ist, ist CreativeCommons (CC). Lanciert im Dezember 2002 unter dem Vorsitz von Lawrence Lessig, einem an der Stanford University lehrenden Juristen und prominenten Verfechter 'freier' Kultur, geht es dem CC Projekt darum, Urhebern einfache Mittel in die Hand zu geben, um ihre Werke so zu veröffentlichen, dass sie frei kopiert und vertrieben werden können. Während sich CC bewusst an die GPL anlehnt, wurden einige Modifikationen am Lizenzmodell vorgenommen, um den Besonderheiten kultureller Produktion (Musik, Texte, Bilder und Filme) gerecht zu werden. CC bietet den Urhebern ein einfaches, web-basiertes Formular an, mittels dessen sie Lizenzbedingungen auf ihre individuellen Bedürfnisse anpassen können. Die freie Kopier- und Verteilbarkeit und die Pflicht der Autorennennung sind bei allen CC Lizenzen vorgeben. Der Urheber kann nun entscheiden, ob er kommerzielle Nutzungen seines Werkes generell erlauben will, oder nicht. Er kann ebenfalls entscheiden, ob sein Werk frei weiterverarbeitet werden darf, oder nicht. Besonders der letzte Punkt, der die Frage der Weiterverarbeitung regelt, berührt einen zentralen Unterschied zwischen der Produktion von 'funktionalen' Werken (etwa Software, Gebrauchsanweisungen oder Nachschlagewerke) und 'expressiven' Werken (etwa literarische und künstlerische Werke). Während bei Werken der ersten Gruppe es in der Regel relativ eindeutig ist, welche Weiterverarbeitung eine Verbesserung darstellt und welche nicht, fehlen bei Werken der zweiten Gruppe die klaren Kriterien. Oftmals ist es genau das Individuelle, neben der Norm liegende, das an solchen Werken die besondere Qualität ausmacht. Hier bestehen durchaus legitime Ansprüche, die Werkintegrität zu waren. Deshalb schreibt CC auch nicht vor, dass generell Weiterverarbeitungen zugelassen sind, sondern überlässt die Wahl dem einzelnen Urheber.

CC Lizenzen, die über ein bewusst benutzerfreundliches Interface erstellt werden können, gibt es in dreifacher Ausführung: einmal als einfachen, umgangssprachlichen Text, der verständlich beschreibt, welche Werknutzungen freigegeben sind, zum anderen als rechtlich verbindlichen Lizenztext, der von führenden Juristen erarbeitet und geprüft wurde. Sollte es je zu einer rechtlichen Auseinandersetzung kommen, kann davon ausgegangen werden, dass die Lizenz auch strenger richterlicher Prüfung standhält. Die dritte Version ist eine computerlesbare Datei, die es ermöglicht, dass Suchmaschinen ihre Resultate im Hinblick auf den Rechtsstatus hin filtern können. Dies erlaubt etwa, nach Bildern zu einem Stichwort zu suchen, die in einer nicht-kommerziellen Arbeit weiterverwendet werden dürfen.

Die CC Lizenzen haben sich in kürzester Zeit zu einem Standard in offeneren kulturellen, aber auch wissenschaftlichen Projekten entwickelt. Innerhalb eines Jahres wurden mehr als 1 Millionen Werke – Texte (u.a. zwei Bücher des Heise-Verlags), Musikstücke, aber auch ganze Spielfilme – unter solchen Lizenzen veröffentlicht. Was ursprünglich ein rein amerikanisches Projekt war, und die Besonderheiten des US-Rechtsraumes widerspiegelte, wurde in der Zwischenzeit internationalisiert. Der rechtsverbindliche Teil, der Lizenztext, ist auf viele andere Rechtsräume angepasst worden, so etwa für Deutschland, Österreich und die Schweiz. Die Standardisierung der offenen Lizenzen, die das CC Projekt geschaffen hat, trägt wesentlich dazu bei, dass sich offene Produktionsmodelle heute grosser Beliebtheit erfreuen und auch von Künstlern, Programmierern und Wissenschaftlern, die sich mit urheberrechtlichen Fragen nicht auseinander setzen wollen, einfach und risikolos angewandt werden können.


Offene Produktion in der Praxis


Mit der Verbreitung dieser Lizenzen entsteht eine neue de facto 'public domain' in dem Sinne, dass die Werke der Öffentlichkeit quasi frei zugänglich sind, auch wenn sie de jure noch dem Urheberrecht unterstehen. Die Projekte, die unter diesen Bedingungen veröffentlicht werden, können in zwei Klassen eingeteilt werden. Zum einen grosse, kooperative Projekte, die offene Lizenzen benutzen, um die Zusammenarbeit zwischen Kontributoren zu fördern. Hier steht die gemeinsame Entwicklung einer Ressource im Vordergrund. Die Unterscheidung zwischen Produzent und Konsument wird, zu mindest optionell, aufgeweicht. Zum anderen werden auch viele Werke von individuellen Autoren, Musikern, Filmemachern etc veröffentlicht, die es nicht so sehr auf eine kooperative Weiterentwicklung abgesehen haben, sondern die ihre Werke langfristig einer möglichst breiten Öffentlichkeit zu Verfügung stellen möchten. Hierbei bleibt die klassische Rollenverteilung zwischen Autor und Publikum relativ intakt. Die Ausdiffernzierung von freien Werken in diese beiden, sich teilweise überschneidenden Kategorien hat nicht zuletzt damit zu tun, dass sich nicht alle Werke eignen, kooperativ produziert zu werden. Auf den Unterschied zwischen 'funktionalen' und 'expressiven' Werken wurde schon hingewiesen. Darüber hinaus hat sich gezeigt, dass kooperative Projekte am besten funktionieren, wenn sie ganz bestimmte Eigenschaften besitzen. Besonders wichtig sind die Möglichkeiten der Modularisierung und Parallelisierung der Produktion. Modularisierung bedeutet, dass sich viele Teile des Projekts unabhängig von einander herstellen lassen. Die einzelnen Teil können für sich alleine betrachtet und verbessert werden. Ihr Gehalt wird nicht wesentlich verändert von den anderen Elementen des Projekts. Parallelisierung bedeutet, dass an vielen Teilen gleichzeitig gearbeitet werden kann, sodass nicht zuerst der erste Teil fertig gestellt werden muss, bevor mit dem zweiten begonnen werden kann. Dadurch, dass viele Leute innerhalb eines relativ offenen Projektrahmens unabhängig voneinander arbeiten können, entstehen zwei markante Vorteile. Erstens, Interessierte können sich selbst aussuchen, woran sie arbeiten möchten. Dies ist entscheidend, nicht nur um die Eigenmotivation zu erhalten, sondern auch damit Mitwirkende ihre individuellen Talente, die sie selbst am besten kennen, optimal einbringen können. Und da fast immer in kleineren oder grösseren Gruppen gearbeitet wird, werden Leute schnell, und nicht unbedingt sehr freundlich, darauf hingewiesen, sollten sie ihre Fähigkeiten falsch einschätzen. Zweitens erlaubt eine solche Struktur, die Anzahl der Kontributoren enorm zu erweitern. An grossen, erfolgreichen Projekten erarbeiten oftmals Tausende von Personen mit, auch wenn der Kreis der Kerngruppe, die sich langfristig und nachhaltig engagiert, in der Regel sehr viel kleiner ist. Am besten lassen sich diese Dynamiken an einem der erfolgreichsten offenen Projekte verdeutlichen, der freien Enzyklopädie 'Wikipedia'.

Kooperative Wissensproduktion: Wikipedia

Die  Wikipedia entstand im Januar 2001 als englischsprachiges Projekt, mit dem Ziel, eine frei zugängliche Enzyklopädien zu schaffen, die möglichst bald die beste kommerzielle Enzyklopädien, die Encyclopedia Britannica, in Umfang und Qualität übertreffen sollte. Anders als beim in zwischen gescheiterten Projekt Nupedia, wurde nicht eine ausgesuchte Gruppe von Spezialisten beauftragt, Artikel zu verfassen, sondern die breite Öffentlichkeit eingeladen, am Projekt mitzuwirken. Als Publikationsformat wurde ein 'Wiki' gewählt (wovon sich auch der Name des Projekts ableitet), eine Plattform, die es jedem Internetbenutzer erlaubt, Seiten nicht nur zu lesen, sondern auch direkt zu verändern. Die Wikipedia verfolgt diesen offenen Ansatz radikal, das heisst, sie erlaubt es tatsächlich jedem, auch Benutzern, die sich nicht registriert haben und deshalb nur über die IP Adresse ihres Rechners identifiziert sind, Texte zu verändern. Die so entstandene neue Version wird unmittelbar aufgeschaltet und damit sichtbar im Internet, ohne dass sie zuerst von einem Lektoren oder ähnlichem geprüft wird. Die vorhergehende Seite wird gespeichert und ist über die Funktion 'Versionen/Autoren' jederzeit einsehbar. Damit kann die Veränderungen einer Seite nachvollzogen werden und Vandalismus, der in beträchtlichem Umfang vorkommt, einfach behoben werden (in dem die ältere Version wieder aufgeschaltet wird).

Wikipedia beruht auf zwei Annahmen, die charakteristisch sind für diese Art von Projekten. Erstens, viele Leute sind Spezialisten auf einem bestimmten Gebiet, sei es, weil sie sich professionell damit beschäftigen, sei es, weil sie sich intensiv mit der Materie auseinander gesetzt haben. Wenn man nun die verschiedenen Spezialgebiete einer sehr grossen Anzahl von Menschen miteineinander kombiniert, dann kann man die gesamte Breite des Wissens abdecken. Die zweite Annahme ist, dass Leser, die einen Fehler oder eine Auslassung in einem Artikel finden, bereit sind, diesen zu beheben – und somit selbst zu Mitautoren werden. Dadurch sollen Artikel mit der Zeit immer besser und immer umfangreicher werden, bis sie den Stand des Wissens korrekt wiedergeben. Um den Prozess der Kollaboration zu erleichtern, wurden zu Beginn einige Richtlinien erarbeitet, die beschreiben,wie ein guter Eintrag aussehen soll. Am wichtigsten ist die Anforderungen des 'neutralen Standpunkts'. Dieser besagt, dass ein Artikel die verschiedenen Erklärungen und Ansichten, die es zu einem Thema geben kann, gleichberechtigt neben einander stellen soll und nicht die eine 'richtige' Interpretation propagieren soll. Dies erlaubt, auch umstrittene Themen, zu denen es keinen Konsens gibt, in einer Weise darzustellen, die für verschiedene Lager akzeptabel sein kann. Die Existenz von Richtlinien ermöglicht es auch, mit Nutzern umzugehen, die sich kontraproduktiv verhalten. Im extremsten Fall kann die Wikipedia Gemeinschaft, also der innere Kreis der aktivsten Kontributoren, beschliessen, einer Person die Editierrechte zu entziehen. Das geschieht in der Praxis aber relativ selten.

In den vergangenen vier Jahren entwickelte sich die Wikipedia rasant. Noch im Gründungsjahr der englischsprachigen Ausgabe kamen Wikipedias in Deutsch und Französisch dazu. Mittlerweile (Stand Jun. 2005) gibt es aktive Wikipedia Projekte in knapp 90 verschiedenen Sprachen. Die englischsprachige Ausgabe ist mit rund 600'000 Artikeln die grösste, gefolgt von der deutschen Ausgabe mit mehr als 250'000 und der japanischen mit rund 130'000 Einträgen. Die Wikipedia ist einer der populärsten Internetressourcen überhaupt und bewältigt momentan rund 80 Million Anfragen pro Tag.

Auch wenn das Projekt nicht ohne Probleme ist, die später zur Sprache kommen werden, so kann man doch eindeutig feststellen, dass die Wikipedia relativ gut funktioniert. Auch im direkten Vergleich mit konventionellen Nachschlagewerken, wie er etwa von der ZEIT (2004, Nr.43) durchgeführt wurde, kann sie in punkto Umfang und Qualität der Artikel durchaus mithalten und in Hinblick auf Aktualität ist sie den gedruckten Werken wie auch traditionell editierten elektronischen Ausgaben deutlich überlegen. Offensichtlich sind viele Menschen bereit, Zeit und Arbeit in ein solches Projekt zu stecken Für sie ist es motivierend an einem grossen, weithin geschätzten Projekt teilzunehmen. Die extreme Modularität und Parallelität, die für ein Nachschlagewerk typisch ist, erlaubt es einer grossen Anzahl von Personen, gleichzeitig und mit geringem Koordinationsaufwand, zusammenzuarbeiten. Die Einfachheit des Editierens erlaubt jedem, selbst aktiv zu werden und aus seiner Rolle als reiner Rezipient herauszutreten. Die relativ locker gefassten, aber doch vorhandenen Regeln und die konsistente Gestaltung des Interface sichern die Einheit des Projektes. Obwohl Wikipedia heute ganz auf Basis freiwilliger, unbezahlter Arbeit betrieben wird, verschlingt die technologische Infrastruktur, die notwendig ist, um ein Projekt dieser Grösse zu betrieben, dennoch beträchtliche finanzielle Mittel. Diese werden nicht durch das Schalten von Anzeigen (banner adds, Google Stichworte etc) erwirtschaftet, weil dies, so die Befürchtung, den Charakter des Projekts verändern würde. Vielmehr werden regelmässige Spendenaufrufe auf der Website publiziert, die bisher immer ausserordentlich erfolgreich waren. Anfang 2005 wurden auf dieser Weise rund US $75'000 in knapp 10 Tagen gesammelt und in die Erweiterung der Hardware und Bandbreite, die von allen Wikipedias genutzt wird, investiert. Andere Teile der Infrastruktur werden durch Sponsoring finanziert. Mit den Wikipedias entsteht eine Ressource, die der Öffentlichkeit nicht nur langfristig frei zur Verfügung steht, sondern aufgrund der Erlaubnis der Weiterverarbeitung, die in der Lizenz ebenfalls festgeschrieben ist, auch Rohmaterial für die rasche Entwicklung anderer Projekten liefern kann.

Freie Kulturproduktion: Netlabels

Die Krise der Musikindustrie ist in aller Munde. Peer-to-peer (p2p) filesharing hat deutlich gemacht, dass Musik ausserhalb der traditionellen Kanäle höchst effizient vertrieben werden kann. Die etablierte Industrie, allen voran die an Grosskonzerne angeschlossenen Labels, reagieren mit Panik und fordern neue Gesetze und drastische Strafmassnahmen, um ihre bisherige zentrale Rolle bewahren zu können. Um diesem Druck auszuweichen, entstehen immer neue Netzwerke, die konstruiert sind, um die Strafverfolgung zu erschweren. Im Schatten dieser grossen Auseinandersetzung hat sich in den letzten Jahren eine sehr lebhafte Szene neuer Musikproduzenten entwickelt, die neue Wege erproben – die Netlabels. Dies sind Musiklabels, die ihre Werke nicht in erster als CD oder Vinyl herausbringen, sondern sie als Dateien im Netz anbieten. In dem meisten Fällen liegt eine pragmatische und keine ideologischen Entscheidung zu Grunde und hin und wieder veröffentlichen Netlabels auch auf Vynil oder CD (zum Beispiel 'best of' Kompilationen). Die überwiegende Mehrheit der online veröffentlichten Tracks steht unter einer CC Lizenz. Die meisten Netlabels bedienen relativ kleine, spezialisierte Nischen, etwa Techno, Drum'n'Bass, oder andere Genres der Elektronikmusik. In diesen Nischen, die bisher Tonträger in einer Auflage von wenigen tausend Stück produzierte, bieten neuen Modelle, so der Netlabel Pionier Björn Hartmann (textone.org), drei Vorteile: Promotion, Community und Nachhaltigkeit. Die meisten Musiker ausserhalb des Radiomainstreams beziehen ihr Einkommen nicht, oder nur zu einen kleinen Teil, vom Verkauf von Tonträgern, sondern von Gagen für Live-Auftritte in Clubs. Für elektronische Musik bedeutet das DJing. Die Veröffentlichungen dienen in erster Linie dafür, sich einen Namen in der relevanten Szene aufzubauen und damit an Auftritte zu kommen. Durch den freien Vertrieb ist es sehr viel einfacher, an ein Publikum zu erreichen, weil die Vertriebsmöglichkeiten des Internets denen der spezialisierten Musikläden weit überlegen sind. Netlabels schaffen neue, grössere Öffentlichkeiten und können sich so als effektiver Weg erweisen, Künstler bekannt zu machen. Darüber hinaus sind die anfallenden Kosten sehr viel niedriger ist, weshalb sehr viel mehr Musik veröffentlicht werden kann. Dies führt aber nicht einfach zu einer Schwemme von schlechter Musik, sondern zu einer ungeheuren Befruchtung innerhalb der Szene, in der mehr Austausch denn je zwischen Musikern stattfinden kann. Die Beschränkungen der sogenannten Aufmerksamkeitsökonomie (es gibt von allem mehr, als man sich je anhören könnte) führen dazu, dass weniger gute Musik schnell vergessen wird. Die Musik, die den Nerv der Community trifft, kann sich dafür ungehindert ausbreiten.

Wie genau der Austausch zwischen den Musikern gestaltet werden soll, ist innerhalb der Kulturszene,  ebenso wie in der weiteren kulturellen Praxis, durchaus umstritten. Da die Reputation, die mittels Songs (oder eines anderen Kunstwerks) erarbeitet wird, der zentrale Baustein der künstlerischen Karriere ist, stehen viele Autoren der Weiterverwendung ihrer Werke mit sehr gemischten Gefühlen gegenüber. Den eigenen Song in einem schlechten Remix vertrieben zu sehen, ist nicht unbedingt im Interesse des Künstlers. Deshalb verwenden die meisten Netzlabels Lizenzen, die keine Weiterbearbeitung der Stücke erlauben. kooperative Musik Communities, etwa die Plattform opsound.org, sind noch sehr in den Anfängen und werden es wohl  schwerer haben, sich zu etablieren, als etwa die Wikipedia, deren Realisierung Zusammenarbeit unausweichlich macht. Es gibt aber auch prominente Bespiele offenere Kollaboration. Rap-Superstar Jay'Z, etwa, gab die A-Capella-Version seines Black Album zur freien Bearbeitung frei. Einige der Bearbeitungen, allen voran das Grey Album von DJ Dangermouse, ein Remix mit dem White Album der Beatles, haben ihrerseits weltweiten Kultstatus erreicht. Aber auch wenn solche Experimente (noch) die Ausnahme sind, und in der Regel kein direktes Remixing der Songs erlaubt ist, die einfache Verfügbarkeit hochindividueller Musik stärkt dennoch die konnektive Kreativität und fördert die Community als Ganzes. Der dritte Punkt, in dem die neuen Modelle Vorteile bieten, ist die Möglichkeit, die Musik langfristig verfügbar zu halten. Die Verfügbarkeit von Musik (oder anderen Werken), die in Kleinstauflagen produziert werden, ist von Anfang an gering. Sie nimmt aber mit der Zeit noch weiter ab, nicht nur, weil die Auflagen vielleicht vergriffen sind und das Geld fehlt, sie Nachpressen zu lassen, sondern weil die Labels, die sie veröffentlichen, oftmals selbst kurzlebig sind und verschwinden. Wenn nun die Rechte beim Label liegen (das es in ein paar Jahren vielleicht nicht mehr gibt), und es nicht möglich ist, herauszufinden, welcher Musiker hinter einem Pseudonym steckt (oder falls er gestorben ist, wer sein Rechtsnachfolger ist), so ist es faktisch unmöglich, das Werk in irgendeiner Weise wieder verfügbar zu machen. Es ist keine seltene Situation, dass ein Werk aufgrund der Unklärbarkeit des Rechtsanspruchs der Öffentlichkeit verloren geht, was allen zum Nachteil gereicht. Die Verwendung offener Lizenzen garantieren nun, dass Werke langfristig verfügbar bleiben, nicht zu letzt weil Organisationen wie das Internet Archiv (archive.org), dauerhaften Speicherplatz für freie Werke anbieten können. Somit entsteht ein stetig wachsender Fundus, aus dem zukünftige Produzenten Material, oder zumindest Inspiration beziehen können.

Noch sind diese Modelle auf relativ kleine Nischen beschränkt, aber es bildet sich hier in Erfahrungsschatz neuer, offener Wissens-und Kulturproduktion. Es hat sich bereits herauskristallisiert, dass für die Produzenten die Community-Orientierung ganz wesentlich ist, während auf der Seite der ökonomischen Verwertung nicht-kopierbare Leistungen (etwas live Performances) im Vordergrund stehen. Das Element, das beide Aspekte mit einander verbindet, ist die Reputation des Kulturschaffenden, die durch den freien Zugang zu den Werken nur gefördert werden kann.


Probleme und Potentiale der neuen Modelle


Diese neuen Formen der Wissens- und Kulturproduktion sind in der Frühphase ihrer Entwicklung. Auch wenn sich noch keine abschliessende Urteile fällen lassen, sind sowohl Probleme wie auch grosse Potentiale für die weitere Entwicklung bereits sichtbar geworden. Die Probleme lassen sich in zwei Kategorien einteilen. Ein Typ von Problemen wird von außen verursacht, als Folge der Inkompatibiliät der proprietären und der offenen Paradigmen. Es gibt aber auch Probleme, die in den neuen Produktionsformen selbst begründet liegen, und wohl auf ihre noch ungenügende Ausdifferenzierung hinweisen. Zum ersten Punkt: wie bereits ausgeführt, beruhen die neuen Modelle auf einer innovativen Anwendung des Urheberrechts und der freien Verfügbarkeit einer offenen Kommunikationsplattform (Standard PCs und Internet). Beide Grundpfeiler sind momentan starkem Druck durch die klassischen, auf Ausschluss und Kontrolle basierenden Industrien ausgesetzt. Zum einen wird versucht, die Offenheit der Kommunikationsplattform durch Digital Rights Management Systeme (DRM, siehe Beitrag von Volker Grassmuck in diesem Band) stark ein zu schränken. Dies gilt als Voraussetzung, um bestehende Rechtsansprüche in gewohnter Form durchsetzen zu können. Dies könnte zur Folge haben, dass freie, nicht zertifizierte Inhalte auf der neuen DRM Infrastruktur nur noch schwer abgespielt oder bearbeitet werden können. Zum anderen werden immer weitere Teile der kulturellen Produktion durch Instrumente des Immaterialgüterrechts aus der allgemeinen Verfügbarkeit entfernt und der Kontrolle einzelner Besitzer, in der Regel grosser Firmen, unterstellt. Ganz besonders problematisch ist die Ausweitung der Patentierbarkeit. Im Unterschied zum Urheberrecht, den konkreten Ausdruck  schützt, lassen sich durch Patente Ideen, unabhängig von ihrer Implementierung kontrollieren. Während es kaum möglich ist, ein Urheberrecht zu verletzen, ohne das ursprüngliche, geschützte Werk zu kennen, kann das bei Patenten sehr wohl der Fall sein. Im Softwarebereich, dessen Produkte sich in aller Regel aus vielen einzelnen Modulen (jedes potentiell patentiert) zusammensetzen, könnte eine Patentierung dazu führen, dass kleine und mittlere Entwickler, wie sie gerade im Open Source Bereich anzutreffen sind, kaum überleben würden. Ihnen fehlen die Mittel, komplexe und teure Patentabklärungen durch zuführen, die eventuell notwendigen Rechte zu erwerben, und sich so vor späteren Klagen zu schützen. Diese externen Bedrohungen offener Modelle haben in den letzten Jahren zu einer starken Politisierung der diversen Szenen geführt. Im Bereich der Softwarepatente ist es der Open Source Community gelungen, wesentlichen Einfluss auf das euroäische Gesetzgebungsverfahren zu nehmen und Softwarepatente bis auf weiteres zu verhindern. Dies wird aber wohl kaum die letze Auseinandersetzung in dieser Frage gewesen sein.

Die 'internen' Probleme liegen ganz anders. Im Fall der Wikipedia zeigt sich mit zunehmendem Erfolg, dass die beiden Grundannahmen (die Vielfältigkeit des Kontributoren sichert die Breite des Wissen und die Artikel verbessern sich im Laufe der Zeit) zwar sehr produktiv aber nur bedingt verlässlich sind. Die Wikipedias spiegeln vielmehr wieder, dass einerseits die Internetbenutzer nach wie vor nicht repräsentativ für die (Welt)Bevölkerung sind und andereseits dass das, was momentan die online Bevölkerung bewegt, nicht immer im Verhältnis zur langfristigen Relevanz des Themas steht. So etwa ganze Weltsprachen kaum vertreten (etwa das Arabische) oder etwa der Eintrag zum TV-Moderator Thomas Raab in der deutschen Ausgabe der Wikipedia knapp vier mal länger als derjenige zu Giorgio Agamben, einem der führenden zeitgenössischen politischen Philosophen. Die Frage, ob die Eigenmotivation von Internetbenutzern je ausreicht, um dem Anspruch einer Enzyklopädie gerecht zu werden, das alle Wissensgebiete geleichermassen zu erfassen, ist offen. Dahinter verbirgt sich eine komplexe Frage. Wer kann überhaupt bestimmen, was die relevanten Wissensgebiete sind? Bisher wurde dies einfach an Spezialisten delegiert und die Öffentlichkeit musste mit der Auswahl vorlieb nehmen, die diese Herren (und wenigen Damen) trafen. Ist die aggregierte Auswahl Vieler besser oder schlechter als die selektive Auswahl Weniger? Der Vergleich der verschiedenen Enzyklopädien lässt momentan noch keine eindeutige Antwort zu, wobei schon dieses 'Unentschieden' ein beachtlicher Erfolg für die noch sehr junge Wikipedia darstellt. Seitdem es keine weit entfernte Vision mehr ist, die Wikipedia als eines der Standardreferenzwerke des Internet zu etablieren, wird die Frage der Verlässlichkeit der angebotenen Information, die ja jeder frei verändern kann, mit grossem Nachdruck diskutiert. Das Problem ist folgendes: Wie kann der Benutzer überprüfen, dass die eine Seite, die er sich gerade anschaut, korrekte Informationen enthält? Vielleicht ist der Artikel ja noch am Anfang der Entwicklung und Fehler, oder Fehlendes, noch nicht behoben, oder vielleicht wurde der Artikel ja gerade vor einer Minute bösartig verfälscht. Der einzelnen Benutzerin nützt die allgemeine Tendenz, dass Artikel sich mit der Zeit verbessern, oder dass Vandalismus schnell behoben wird, wenig. Denn für sie geht es um einen einzigen Artikel in einem einzigen Moment.

Die Lösung, an der momentan gearbeitet wird, lehnt sich an eine Praxis an, die in der freien Softwareentwicklung weit verbreitet ist. Dort wird routinemässig zwischen stabilen und aktuellen Versionen unterschieden. Die stabile Version zeichnet sich dadurch aus, dass sie intensiv getestet wurde und keine schwerwiegenden Fehler mehr enthält. Die aktuelle Version dagegen enthält die neuesten Features und Softwarecode, an dem gerade gearbeitet wird. Sie ist daher weniger getestet. Der Benutzer kann nun entscheiden, ob er die aktuelle oder die stabile Version benutzen will.  Ähnlich in der Wikipedia. Artikel sollen geprüft, editiert und dann als stabile Versionen 'eingefroren' werden. Der Nutzer kann dann entscheiden, ob er sich die stabile oder die aktuelle Version eines Artikels ansehen will. Dies würde erlauben, die Verlässlichkeit der Information zu erhöhen und gleichzeitig die freie Editierbarkeit, das Herzstück des Projektes, zu bewahren. Während dieser Ansatz sehr sinnvoll erscheint, ist er in der Praxis nicht einfach umzusetzen, nicht zu letzt deshalb, weil das Validieren von Information in einer Enzyklopädie, nicht zu vergleichen ist mit dem Testen von Software. Je mehr Nutzer sich am Testen eines Computer-Programms beteiligen, desto besser, weil mehr Konfigurationen und Anwendungen zum Einsatz kommen. Darüber hinaus kann jeder einzelne das Vorhandensein eines Bugs eindeutig feststellen: das Programm stürzt ab! Bei einem faktenorientierten Artikel gibt es keinen solch eindeutigen Test. Da hilft es auch nicht unbedingt, wenn sich viele Personen am Prozess beteiligen. Die Gefahr besteht, dass sich die mehrheitsfähige Meinung, die nicht unbedingt die korrekte sein muss, durchsetzt. Wie relevant dieses Problem ist, lässt sich zu diesem Zeitpunkt noch nicht vorhersagen. Dass auch die 'stabile' Version von Wikipedia Fehler enthalten wird, ist zu erwarten, die entscheidende Frage ist nur, ob sie mehr Fehler enthält, als konventionelle Werke. Sollten sie entdeckt werden, so lassen sich sich jedenfalls sehr viel leichter als in einer traditionellen Enzyklopädie  korrigieren.

Im Bereich der freien Kulturproduktion liegen die Herausforderungen nochmals anders. Netlabels, und ähnliche Initiativen in anderen Sparten, sind heute noch auf Nischen beschränkt. Ob und wie diese Modelle auch den Mainstream erreichen können, ist noch völlig offen. Vielleicht nie. Möglich wäre, dass ich zwei Sphären herausbilden, die eine wird durch DRM und die Marktmacht der grossen Firmen bestimmt, die andere durch offene Modelle, Nischen und Spezialisierung. In wie weit diese beiden Modelle auf der selben rechtlichen und infrastrukturellen Grundlage existieren können, ist aber noch völlig offen. Das ist aber nicht alles. Für Kulturschaffende, deren Werke sich nicht zur Live Performance eigenen, bergen die offenen Modelle auch einige Risiken. Bisher hat ihnen der Verkauf der Werke eine gewisse Autonomie gegenüber Auftraggebern und Förderungskommissionen gesichert. Diese könnte nun wegfallen. Die Autonomie aufzugeben und neue Finanzierungsmodelle zu suchen stellt aber die Position des Künstlers, paradoxerweise besonders  auch im Hinblick auf künstlerische Freiheiten, grundsätzlich in Frage.  

Ein Versuch, das Problem der Vergütung kultureller Produzenten bei freiem Austausch kultureller Güter grundsätzlich anzugehen, ist die sogenannte Kulturflatrate. Die wesentliche Idee ist, Urheber, deren Werke über das Internet verteilt werden, indirekt zu entschädigen. Anstatt auf DRM gestütze pay-per-use Modelle durchzusetzen, sollte eine pauschale Abgabe etwa auf Breitband Internetzugang erhoben werden. Auf dem so entstehenden Topf könnten dann die Urheber gemäss der Benutzung ihrer Werke durch die Öffentlichkeit entschädigt werden. Ähnliche Systeme bestehen heute bereits. So wird auf sogenannte Leermedien (Blank CD, Tapes etc.) eine Abgabe erhoben, die dann via die Verwertungsgesellschaften (Gema, VG Wort etc.) an die Urheber weitergereicht wird. Dieses indirekte System ist in der heutigen Praxis allerdings mit einige Problemen behaftet (mangelnde Transparenz, Fragen der Verteilungsgerechtigkeit) und die Ausweitung eines verbesserten Systemes auf das Internet könnte nur mit sehr starkem politischen Willen geschehen. Dieser besteht im Moment weder auf nationaler noch auf internationaler Ebene. Die Diskussion zeigt aber die Vielfalt der neuen Modelle der freien Kultur über die aktuell nachgedacht wird.

All diese Schwierigkeiten bergen aber auch kreatives Potential, solange sich die rechtlichen und technologischen  Rahmenbedingungen nicht deutlich verschlechtern. Und wie die Versuche, eine stabile Version der Wikipedia zu entwickeln, zeigen, es wird mit Nachdruck an innovativen Lösungen gearbeitet. Es ist zeigt sich, dass das Potential dieser neuen Formen der Öffentlichkeit und kulturellen Innovation noch lange nicht ausgereizt ist. Jetzt, da es trivial ist, perfekte Kopien herzustellen und dieser weltweit zu vertreiben, gibt es keine normative Rechtfertigung mehr, Menschen den Zugang zu Wissen, Information und Kultur zu verwehren. Die Nachfrage besteht. Der Vertrieb stellt keine Hürde mehr dar. Was neu organisiert werden muss ist die Produktion der 'ersten Kopie'. Die freien Lizenzen haben dafür ein solide, rechtliche Grundlage geschaffen. Die freie Kooperation Tausender, die ihrer eigener Motivation und ihren eigenen Talenten folgen, hat sich als höchst produktiv erwiesen und wird mit zunehmender Organisationserfahrung wahrscheinlich noch produktiver werden. Für individuelle Kulturschaffende  stellt die Möglichkeit, ein weltweites Publikum zu erreichen, ohne sich ins Anforderungskorsett hyperkommerzieller globaler Verwerter zwängen zu müssen, eine Bereicherung dar, die weit grösser ist, als die Risiken und offenen Fragen, die sich aus den neuen Modellen ergeben. Es zeichnet sich ein Paradigmenwechsel in der Produktion und Vertrieb von Wissen und Kultur ab, der keineswegs nur auf den nicht-kommerziellen Bereich beschränkt ist. Die ersten Modelle, die das neue Paradigma realisieren, sind bereits in Betrieb. Ihr langfristiges Überleben ist allerdings noch nicht gesichert.



Weitere Lektüre und Links

Grassmuck, Volker (2002). Freie Software. Zwischen Privat- und Gemeingut. Berlin, Bundeszentrale für Politische Bildung URL: http://freie-software.bpb.de/

Liang, Lawrence (2004). Guide to Open Content Licenses. Rotterdam, NL, Piet Zwart Institute
URL: http://pzwart.wdka.hro.nl/mdr/pubsfolder/opencontent.pdf (nur auf englisch erhältlich)

Moeller, Erik. (2004). Die heimliche Medienrevolution - Wie Weblogs, Wikis und freie Software die Welt verändern. Hannover, Heise Verlag.

Redenz, Sebastian (2005). Das Netlabel als alternativer Ansatz der Musikdistribution. In: Lutterbeck, Bernd, Gehrig, Robert A.; Bärwolf Matthias (Eds). Open Source Jahrbuch 2005: Zwischen Softwareentwicklung und Gesellschaftsmodell. Berlin, TU Berlin, Fachgebiet Informatik und Gesellschaft URL: http://www.opensourcejahrbuch.de

Röttgers, Janko (2003). Mix, Burn & R.I.P. Das Ende der Musikindustrie (Netzaugabe). Hannover, Heise Verlag URL: http://www.mixburnrip.de

Timmer, Bram (2005). Netlabels and Open Content: Making the Next Step Towards Extended Cultural Production. Faculty of Arts, University of Utrecht URL: http://www.c3.hu/~bram

General Public License
http://www.gnu.org/copyleft/gpl.html
http://www.gnu.de/gpl-ger.html     (inoffizielle deutsche Übersetzung)

Create Commons
http://creativecommons.org/    (Internationale Hauptseite)
http://de.creativecommons.org/    (CC: Deutschland)

Wikipedia
http://wikipedia.org/  (Internationale Hauptseite)
http://de.wikipedia.org/     (Wikipedia in deutsch)

Dank an: Volker Grassmuck, Janko Röttgers und Bram Timmers für ihre kritische Lektüre des Manuscripts.


Dieser Text steht unter folgender Lizenz: http://creativecommons.org/licenses/by-nc-nd/2.0/de/