Neue Formen der
Öffentlichkeit und kulturellen Innovation
zwischen Copyleft, Creative Commons und Public Domain.
Felix Stalder. In: Hoffmann, Jeanette (Hg.). Wissen und Eigentum. Geschichte, Recht und
Ökonomie stoffloser Güter. Bundeszentrale für
Politische Bildung, Bonn. 2006
http://www.bpb.de/publikationen/TRRZ2E,0,Wissen_und_Eigentum.html
In den letzten 10 Jahren ist eine neue, weltweite Bewegung entstanden,
die grundsätzlich neue Modelle der Produktion von und des
Zugangs zu digitalen Gütern nicht nur fordert, sondern auch
bereits im grossen Stil praktiziert. Wissenschaftler, Autorinnen,
Künstler, Musikerinnen, Programmieren und andere 'immaterielle
Produzentinnen' nutzen dabei das bestehende Urheberrecht in einer neuen
Art und Weise. Das Urheberrecht gewährt ja einem Autor
geistiger Werke (im Bereich der Literatur, Kunst, Wissenschaft, Design,
Computerprogammierung, etc) exklusive Verfügungsrechte
über seine Schöpfungen, die nur durch eng definierte
Schranken eingegrenzt werden. Diese Rechte entstehen automatisch mit
der Kreation des Werkes, ohne dass es registriert oder anderweitig
gekennzeichnet werden muss. Der Autor kann (fast) frei bestimmen, wer,
wann, wie und unter welchen Umständen sein Werk nutzen kann
(siehe Beiträge von Thomas Hoeren und Till Kreutzer in diesem
Band). Die neue Nutzung dieser Rechte ziehlt darauf ab, den
Zugang zu den Werken zu vereinfachen, in dem etwa das freie
Kopieren erlaubt wird, und Möglichkeiten der
Öffentlichkeit zu erweitern, mit diesen Werken kreativ
umzugehen.
Konventionellerweise wird das Urheberrecht von den eigentlichen Autoren
an Dritte, etwa einen Verlag oder ein Musiklabel, übertragen.
Die Verwerter sorgen dann dafür, dass die meisten
Werknutzungen nur gegen Entgelt und nur im beschränktem Umgang
erlaubt werden. Wenn wir beispielsweise ein Buch kaufen, erwerben wir
das Recht, es zu lesen, es Freunden auszuleihen oder es wieder zu
verkaufen. Untersagt ist es uns hingegen, das Buch als Ganzes zu
kopieren, es öffentlich vorzulesen, zu verfilmen oder
abzuändern. Diese Rechte werden vom Rechteinhaber in aller
Regel einzeln verkauft. Auf einem solchen Verständnis des
Urheberrechts, das auf der Möglichkeit des Ausschlusses und
der exklusiven Kontrolle der Nutzungen aufbaut, beruht im wesentlichen
die Medienindustrie (Verlage, Musiklabels, Film- und
Fernsehproduktion), aber auch die konventionelle Softwareindustrie und
der grösste Teil der weiteren kommerziellen Produktion
immaterieller Güter.
Dies ist zwar der dominierende, aber nicht der einzige Ansatz, wie der
Möglichkeitsraum, den das Urheberrecht schafft,
ausgefüllt werden kann. Es gibt heute eine alternative Praxis,
die das Urheberrecht nicht dazu benutzt, exklusive Kontrolle
über die Nutzungen und Weiterverwertung geschützter
Werke auszuüben. Im Gegenteil, zentrales Anliegen ist es hier,
einen freien und ungehinderten Zugang zu den Werken zu garantieren und
deren Weiterverarbeitung explizit zu ermuntern. Formuliert wurde dieser
Ansatz zuerst im Bereich der Softwareentwicklung unter dem Schlagwort
'Freie Software' und seit dem Ende der 1990er Jahre hat er als 'Open
Source' die breite Öffentlichkeit erreicht. Gleichzeitig wurde
begonnen mit einem solchen – auf der Garantie des freien
Zugangs beruhenden – Ansatz auch in anderen Feldern der
immateriellen Produktion zu experimentieren. Heute stehen sich in
nahezu allen Bereichen der Wissens- und Kulturproduktion diese beiden
Ansätze gegenüber. Am weitesten entwickelt ist diese
Auseinandersetzung in der Software Industrie, wo sich
proprietäre Produzenten (zum Beispiel Microsoft) und Open
Source Produzenten (etwa des Betriebssystems Linux) einen zunehmend
härteren Konkurrenzkampf liefern (siehe Beitrag von Robert
Gehring in diesem Band). Sie trennen nicht nur unterschiedliche
Anwendungen des bestehenden Urheberrechts, sondern sehr grundlegend
verschiedene Annahmen, wie neues Wissen und neue Kultur entsteht und
wie die Produktion, sei sie nun kommerziell, wissenschaftlich oder
künstlerisch, am effektivsten gesellschaftlich organisiert
werden soll.
Im folgenden werde ich mich auf die neuen, öffentlichkeits-
und innovationsfreundlichen Modelle im Bereich der Wissens- und
Kulturproduktion konzentrieren. Ich werde erst ihre technologischen,
gesellschaftlichen und rechtlichen Grundlagen erläutern, bevor
ich mich der Praxis der kooperativen, aber auch der individuellen
Produktion unter diesen neuen Rahmenbedingungen zuwende. Im letzten
Teil dieses Kapitels werden die aktuellen Probleme und das weitere
Potential dieser Modellen zur Sprache kommen.
Technologische, gesellschaftliche und rechtliche Grundlagen offener
Modelle
Die technologischen Veränderungen im Bereich der
Informationsverarbeitung und Telekommunikation ('Internet Revolution'),
erlauben einen völlig neuen Umgang mit geistigen Werken, die
immer häufiger in digitaler Form produziert, distribuiert und
konsumiert werden. Während die Herstellung und der Vertrieb
analoger Kopien (etwa gedruckter Bücher oder Filme auf
Zelluloid) eine komplexe und kapitalintensive Angelegenheit ist, so ist
es heute praktisch ohne Kosten möglich, digitale Kopien
anzufertigen und über Webserver oder peer-to-peer (p2p) Netze
weltweit zu vertrieben. Diese neuen Vertriebswege stehen der Effizienz
der bestehenden Kanäle um nichts nach, ja sie
übertreffen sie sogar in vielen Fällen. Dies erlaubt,
neue Beziehungen zwischen Produzenten und Nutzern digitaler Inhalte zu
knüpfen, die nicht mehr auf Vermittler und Verwerter in der
alten Form angewiesen sind. Dies ist die erste Veränderung,
die mit den neuen Kommunikationsmöglichkeiten verbunden ist.
Die zweite ist etwas subtiler, aber ebenso weitreichend. Im Kontext
digitaler Medien ist kaum mehr zu unterscheiden, was als Endprodukt des
einen Prozesses gelten soll, und was als Rohmaterial des anderen. Copy
& Paste ist eine der Grundfunktionen, die die meisten
Computeranwender täglich benutzen, um Material von einem
Kontext in einen anderen einzufügen. Was in der analogen
Kultur eine relativ marginale Praktik war (etwa das Anfertigen von
Photocollagen à la John Hartfield oder Klaus Staeck) ist
heute zentrale Kulturtechnik. In der Musik sind durch Sampling und
Remixing ganz neue Genres entstanden. In anderen Worten, die
Weiterverarbeitung bestehender Werke als Teil des Schaffens neuer Werke
ist Alltag geworden in unserer digitalen Kultur (siehe auch Beitrag von
Kawohl/Kretschmer in diesem Band).
Das Kopieren, Verbreiten und Weiterverarbeiten geistiger Werke
fällt in den zentralen Regelungsbereich des Urheberrechts.
Nach konventioneller Anwendung, welche solche Nutzungen nur mit
expliziter Einwilligung der Rechteinhaber erlaubt, müsste
für jeden dieser Akte zuerst Erlaubnis eingeholt werden. Die
praktische Schwierigkeit, jedes mal Erlaubnis einzuholen (mit der dann
möglicherweise hohe finanzielle Forderungen verbunden sind),
steht in einem krassen Missverhältnis zur Einfachheit, die
Werke im ganz normalen Alltag zu nutzen. Durch dieses
Auseinanderklaffen von Rechtslage und Alltagspraxis ist eine riesige
Grauzone entstanden, in der massenhafte Rechteverletzungen geschehen,
die teilweise drakonisch verfolgt werden (etwas durch die
Musikindustrie) teilweise ohne jegliche Folgen bleiben.
Die neuen, offenen Modelle nehmen nun die freie Kopierbarkeit, den
einfachen, weltweiten Vertrieb durch jeden einzelnen und die hohe
Weiterverwendbarkeit des digitalen Materials als Ausgangspunkt, um
einen grundlegend anderen Umgang mit geistigen Produkten zu entwickeln.
Wieso, so die Frage, soll jemand von einer Werknutzung ausgeschlossen
werden, wenn die Werke in einer nicht-limitierten Anzahl perfekter
Kopien zu Verfügung stehen und durch die zusätzliche
Nutzung keinerlei zusätzliche Kosten entstehen? Die
Standardantwort darauf ist, dass nur die exklusiven Verwertungsrechte
des Urhebers die finanziellen Anreize schaffen, in die Herstellung der
ersten Kopie zu investieren. Ohne den generellen Ausschluss, der es
ermöglicht die meisten Nutzungen nur gegen Entgelt zu
zuzulassen, sei es unmöglich, die ursprünglichen
Investitionen je wieder zurück zu bekommen. Dieses Argument
beruht auf einer ganz bestimmten Vorstellung, über den
Charakter geistiger Werke. Es wird davon ausgegangen, dass geistige
Werke relativ eindeutig voneinander abgrenzbare Einheiten darstellen,
die jeweils einem einzelnen, klar definierbaren Urheber zugeordnet
werden können, wie etwa Bücher in einer Bibliothek.
Diese stehen zwar gemeinsam auf einem Regal, aber es ist ohne
Schwierigkeiten zu bestimmen, wo das eine Buch aufhört und das
andere anfängt. Auf jedem Buchrücken ist ein
einzelner Autor, hin und wieder eine Autorengruppe, angegeben. Die
Autoren mögen sich vielleicht auf einander beziehen, aber dies
steht im Verhältnis zur Individualität ihres
Schaffens eindeutig im Hintergrund.
Offene Produktionsmodelle gehen von einer anderen Vorstellung aus, wie
geistige Werke beschaffen sind. Für sie steht nicht die
originäre Schöpfung relativ isolierter Autoren im
Vordergrund, sondern Prozesse der Verarbeitung und Veränderung
bereits bestehender Werke, durch die neue Werke entstehen. Die Urheber
werden definiert durch den Kontext, in dem sie arbeiten. Von diesem
beziehen sie das Rohmaterial und in diesem finden ihre Werke Anwendung.
Die Analogie ist nicht das statische Buch in der Bibliothek, sondern
das dynamische, offene Gespräch. Dieses beruht
natürlich auf der Teilnahme individueller Sprecher, aber das
Gespräch als solches kann weder einem einzelnen zugeordnet
noch als Summe unabhängiger Äusserungen betrachtet
werden. Vielmehr findet es statt zwischen den Sprechern, die sich
fortwährend aufeinander beziehen und von einander beeinflusst
werden. Das Ganze ist viel mehr als die Summe seiner Teile. Damit ein
interessantes Gespräch zu Stande kommt, müssen die
Ideen ungehindert fliessen können. Der freie Zugang zu dem,
was ein anderer bereits früher einmal gesagt hat, ist zentrale
Bedingung, damit das Gespräch vorankommt und neue Ideen
entstehen können. Wenn für jede Verwendung eines
bereits geäusserten Gedankens erst nachgefragt werden
müsste, und wenn die Erteilung der Erlaubnis dann vom
ursprünglichen Sprecher verweigert werden könnte,
dann würde das Gespräch schnell zum erliegen kommen.
Dies wäre nicht nur völlig unpraktisch und absurd,
sondern auch unnötig, denn die im Dialog gewonnenen
Erkenntnisse stehen ja allen Teilnehmern gleichermassen zur
Verfügung.
Ideen und andere immaterielle Güter können nicht
aufgebraucht werden. Im Gegenteil, sie vermehren sich mit dem Gebrauch.
Auf diesem Verständnis geistiger Produktion beruht etwa auch
die akademische Wissenschaft, in der nicht nur Zitate- sondern auch
Publikationspflicht besteht. Dies bedeutet nichts anderes als dass
bestehende Werke in neue Werke integriert und neue Werke der
Forschungsgemeinschaft zur Verfügung gestellt werden
müssen. Mit anderen Worten, geistige Produktion wird
verstanden als ein kooperativer (Urheber stehen in einen engen
Austausch miteinander) und transformativer (Neues entsteht aus
Bestehendem) Prozess. Es ist zu betonen, dass es hierbei nicht darum
geht, die individuellen Leistungen einem amorphen Kollektiv
unterzuordnen. Zitatepflicht bedeutet eben auch, seine Quellen
präzise zu nennen (und damit zu würdigen). Vielmehr
geht es darum, dass der freie Zugang zu Wissen eine der
Grundvoraussetzungen für die Entstehen neuen Wissens ist. In
der Geschichte der Wissenschaft erwies sich dieser Ansatz als
ausserorderntlich innovationsfördernd.
Offene Lizenzen
Die traditionelle Ausübung der Urheberrechte, die fast jede
Nutzung erlaubnispflichtig macht, steht einer solchen Auffassung des
kreativen Prozesses entgegen. Das muss aber nicht so sein. Denn wie
eingangs erwähnt räumt das Urheberrecht dem
Schöpfer geistiger Werke nahezu absolute Kontrolle ein. Diese
kann nun eingesetzt werden, um genau solche kooperativen und
transformativen Prozesse zu fördern, anstatt sie zu behindern.
Dazu braucht es eine Lizenz, die explizit freie Nutzungen der Werke
erlaubt. Erste und nach wie vor wichtigste offene Lizenz ist
die 'General Public License' (GPL). Die erste Fassung stammt
aus der Mitte der 1980er Jahre, die aktuelle Version auf dem Jahre
1991. In dieser Lizenz werden rechtlich verbindlich die Bedingungen
für einen freien Kommunikationsfluss zwischen
Softwareentwicklern festgeschrieben. Zentraler Punkt sind die so
genannten 'vier Freiheiten', die die GPL garantiert: 1) Die Freiheit,
das Programm zu jedem beliebigen Zweck benutzen zu dürfen. Es
bestehen keinerlei Anwendungsbeschränkungen. 2) Die Freiheit,
das Programm unlimitiert zu kopieren und weiterzugeben. 3) Die
Freiheit, das Programm zu verändern gemäss eigenem
Gutdünken. Damit steht die Weiterentwicklung steht allen
offen. 4) Die Freiheit, das veränderte Programm weiterzugeben.
Diesen Freiheiten stehen nur zwei Pflichen gegenüber. Es
müssen dem Empfänger des Programms (egal ob es nun
einfach kopiert oder weiter verarbeitet ist) wiederum die selben Rechte
eingeräumt werden und die bisherigen Autoren müssen
weiterhin genannt werden. Für diese Praxis wird auch der
Begriff des 'Copyleft' benutzt, um die Umdrehung des Copyright zu
unterstreichen.
Die GPL garantiert einem Entwickler, dass er bestehende Code-Bausteine
risikolos in sein eigenes Werk einbauen kann, oder dass, wenn er mit
anderen gemeinsam ein Programm entwickelt, ihm die Arbeit aller
uneingeschränkt zur Verfügung steht. Dies ist ein
enormer Vorteil, demgegenüber der Nachteil – sollte
es denn ein Nachteil sein – dass die eigene Arbeit ebenfalls
allen zur Verfügung steht, kaum ins Gewicht fällt.
Etwas schematisch ausgedrückt profitiert der Einzelne von der
Gemeinschaft mehr als die Gemeinschaft von einem Einzelnen. Wesentlich
ist, dass 'Profit' hier sowohl ökonomisch als auch normativ
verstanden werden kann, je nach dem, wie jemand seine
persönlichen Präferenzen setzt, ähnlich wie
bei einem Gespräch, dass dem einen helfen kann, ein Problem in
der Arbeitswelt zu lösen, dem anderen aber als willkommene
Gelegenheit dient, sein Wissen unter Beweis zu stellen, oder einfach
nur ein intellektuell anregendes Erlebnis darstellt. An der Eigenart
des Gespräches, dass es offen am besten funktioniert und die
Ergebnisse allen zu Verfügung stehen, ändern die
unterschiedlichen Motivationen der Teilnehmer nichts.
Rückblickend ist nicht verwunderlich, dass diese Form der
Lizensierung im Softwarebereich entwickelt wurde. Hier waren die
digitalen Eigenheiten (Kopierbarkeit und Weiterverwendbarkeit) von
Anfang an prägend und die Vorstellung von Software als ein
proprietäres Produkt hatte eine vergleichsweise kurze
Geschichte – Anfang der 1970er Jahre dachte kaum jemand
daran, Software zu verkaufen. Die Komplexität moderner
Softwareprogramme macht es zu dem einem Einzelnen unmöglich,
ein Programm alleine zu schreiben. Es besteht also immer die
Notwendigkeit, zusammen zu arbeiten und alles, was die Zusammenarbeit
fördert, ist als solches positiv, weil problemlösend.
Auch an proprietärer Software wird immer in grösseren
Teams gearbeitet, nur eben hinter verschlossenen Türen. Mit
der Ausbreitung des Internets Ende der 1980er, Anfangs der 90er Jahre
benutzten immer mehr Programmierer das Internet, die die GPL
für ihre eigene Arbeit praktisch fanden (so z.B. Linus
Torvalds, der Anfang 1992 den Linux-Kernel unter die GPL stellte). Die
neuen Möglichkeiten der globalen Kommunikation gaben der
Freien Software Bewegung enormen Auftrieb, weil sie den Austausch
zwischen den Programmierern enorm erleichterten.
In der zweiten Hälfte der 1990er Jahre gingen auch immer mehr
Menschen online, die mit Programmierung wenig oder gar nichts zu tun
hatten. Ihnen boten das Internet natürlich die genau gleichen
Möglichkeiten des freien Austausches digitaler Inhalte. Da nun
die GPL (wie andere ähnliche Lizenzen) auf den Softwarebereich
zugeschnitten ist, begannen sich viele Gedanken zu machen, wie
kooperative und transformative Innovationsprozesse auch auf anderen
Gebieten gefördert und rechtlich abgesichert werden
könnten. Das wichtigste Projekt, das aus diesen
Überlegungen heraus entstanden ist, ist CreativeCommons (CC).
Lanciert im Dezember 2002 unter dem Vorsitz von Lawrence Lessig, einem
an der Stanford University lehrenden Juristen und prominenten
Verfechter 'freier' Kultur, geht es dem CC Projekt darum, Urhebern
einfache Mittel in die Hand zu geben, um ihre Werke so zu
veröffentlichen, dass sie frei kopiert und vertrieben werden
können. Während sich CC bewusst an die GPL anlehnt,
wurden einige Modifikationen am Lizenzmodell vorgenommen, um den
Besonderheiten kultureller Produktion (Musik, Texte, Bilder und Filme)
gerecht zu werden. CC bietet den Urhebern ein einfaches, web-basiertes
Formular an, mittels dessen sie Lizenzbedingungen auf ihre
individuellen Bedürfnisse anpassen können. Die freie
Kopier- und Verteilbarkeit und die Pflicht der Autorennennung sind bei
allen CC Lizenzen vorgeben. Der Urheber kann nun entscheiden, ob er
kommerzielle Nutzungen seines Werkes generell erlauben will, oder
nicht. Er kann ebenfalls entscheiden, ob sein Werk frei
weiterverarbeitet werden darf, oder nicht. Besonders der letzte Punkt,
der die Frage der Weiterverarbeitung regelt, berührt einen
zentralen Unterschied zwischen der Produktion von 'funktionalen' Werken
(etwa Software, Gebrauchsanweisungen oder Nachschlagewerke) und
'expressiven' Werken (etwa literarische und künstlerische
Werke). Während bei Werken der ersten Gruppe es in der Regel
relativ eindeutig ist, welche Weiterverarbeitung eine Verbesserung
darstellt und welche nicht, fehlen bei Werken der zweiten Gruppe die
klaren Kriterien. Oftmals ist es genau das Individuelle, neben der Norm
liegende, das an solchen Werken die besondere Qualität
ausmacht. Hier bestehen durchaus legitime Ansprüche, die
Werkintegrität zu waren. Deshalb schreibt CC auch nicht vor,
dass generell Weiterverarbeitungen zugelassen sind, sondern
überlässt die Wahl dem einzelnen Urheber.
CC Lizenzen, die über ein bewusst benutzerfreundliches
Interface erstellt werden können, gibt es in dreifacher
Ausführung: einmal als einfachen, umgangssprachlichen Text,
der verständlich beschreibt, welche Werknutzungen freigegeben
sind, zum anderen als rechtlich verbindlichen Lizenztext, der von
führenden Juristen erarbeitet und geprüft wurde.
Sollte es je zu einer rechtlichen Auseinandersetzung kommen, kann davon
ausgegangen werden, dass die Lizenz auch strenger richterlicher
Prüfung standhält. Die dritte Version ist eine
computerlesbare Datei, die es ermöglicht, dass Suchmaschinen
ihre Resultate im Hinblick auf den Rechtsstatus hin filtern
können. Dies erlaubt etwa, nach Bildern zu einem Stichwort zu
suchen, die in einer nicht-kommerziellen Arbeit weiterverwendet werden
dürfen.
Die CC Lizenzen haben sich in kürzester Zeit zu einem Standard
in offeneren kulturellen, aber auch wissenschaftlichen Projekten
entwickelt. Innerhalb eines Jahres wurden mehr als 1 Millionen Werke
– Texte (u.a. zwei Bücher des Heise-Verlags),
Musikstücke, aber auch ganze Spielfilme – unter
solchen Lizenzen veröffentlicht. Was ursprünglich ein
rein amerikanisches Projekt war, und die Besonderheiten des
US-Rechtsraumes widerspiegelte, wurde in der Zwischenzeit
internationalisiert. Der rechtsverbindliche Teil, der Lizenztext, ist
auf viele andere Rechtsräume angepasst worden, so etwa
für Deutschland, Österreich und die Schweiz. Die
Standardisierung der offenen Lizenzen, die das CC Projekt geschaffen
hat, trägt wesentlich dazu bei, dass sich offene
Produktionsmodelle heute grosser Beliebtheit erfreuen und auch von
Künstlern, Programmierern und Wissenschaftlern, die sich mit
urheberrechtlichen Fragen nicht auseinander setzen wollen, einfach und
risikolos angewandt werden können.
Offene Produktion in der Praxis
Mit der Verbreitung dieser Lizenzen entsteht eine neue de facto 'public
domain' in dem Sinne, dass die Werke der Öffentlichkeit quasi
frei zugänglich sind, auch wenn sie de jure noch dem
Urheberrecht unterstehen. Die Projekte, die unter diesen Bedingungen
veröffentlicht werden, können in zwei Klassen
eingeteilt werden. Zum einen grosse, kooperative Projekte, die offene
Lizenzen benutzen, um die Zusammenarbeit zwischen Kontributoren zu
fördern. Hier steht die gemeinsame Entwicklung einer Ressource
im Vordergrund. Die Unterscheidung zwischen Produzent und Konsument
wird, zu mindest optionell, aufgeweicht. Zum anderen werden auch viele
Werke von individuellen Autoren, Musikern, Filmemachern etc
veröffentlicht, die es nicht so sehr auf eine kooperative
Weiterentwicklung abgesehen haben, sondern die ihre Werke langfristig
einer möglichst breiten Öffentlichkeit zu
Verfügung stellen möchten. Hierbei bleibt die
klassische Rollenverteilung zwischen Autor und Publikum relativ intakt.
Die Ausdiffernzierung von freien Werken in diese beiden, sich teilweise
überschneidenden Kategorien hat nicht zuletzt damit zu tun,
dass sich nicht alle Werke eignen, kooperativ produziert zu werden. Auf
den Unterschied zwischen 'funktionalen' und 'expressiven' Werken wurde
schon hingewiesen. Darüber hinaus hat sich gezeigt, dass
kooperative Projekte am besten funktionieren, wenn sie ganz bestimmte
Eigenschaften besitzen. Besonders wichtig sind die
Möglichkeiten der Modularisierung und Parallelisierung der
Produktion. Modularisierung bedeutet, dass sich viele Teile des
Projekts unabhängig von einander herstellen lassen. Die
einzelnen Teil können für sich alleine betrachtet und
verbessert werden. Ihr Gehalt wird nicht wesentlich verändert
von den anderen Elementen des Projekts. Parallelisierung bedeutet, dass
an vielen Teilen gleichzeitig gearbeitet werden kann, sodass nicht
zuerst der erste Teil fertig gestellt werden muss, bevor mit dem
zweiten begonnen werden kann. Dadurch, dass viele Leute innerhalb eines
relativ offenen Projektrahmens unabhängig voneinander arbeiten
können, entstehen zwei markante Vorteile. Erstens,
Interessierte können sich selbst aussuchen, woran sie arbeiten
möchten. Dies ist entscheidend, nicht nur um die
Eigenmotivation zu erhalten, sondern auch damit Mitwirkende ihre
individuellen Talente, die sie selbst am besten kennen, optimal
einbringen können. Und da fast immer in kleineren oder
grösseren Gruppen gearbeitet wird, werden Leute schnell, und
nicht unbedingt sehr freundlich, darauf hingewiesen, sollten sie ihre
Fähigkeiten falsch einschätzen. Zweitens erlaubt eine
solche Struktur, die Anzahl der Kontributoren enorm zu erweitern. An
grossen, erfolgreichen Projekten erarbeiten oftmals Tausende von
Personen mit, auch wenn der Kreis der Kerngruppe, die sich langfristig
und nachhaltig engagiert, in der Regel sehr viel kleiner ist. Am besten
lassen sich diese Dynamiken an einem der erfolgreichsten offenen
Projekte verdeutlichen, der freien Enzyklopädie 'Wikipedia'.
Kooperative Wissensproduktion:
Wikipedia
Die Wikipedia entstand im Januar 2001 als englischsprachiges
Projekt, mit dem Ziel, eine frei zugängliche
Enzyklopädien zu schaffen, die möglichst bald die
beste kommerzielle Enzyklopädien, die Encyclopedia Britannica,
in Umfang und Qualität übertreffen sollte. Anders als
beim in zwischen gescheiterten Projekt Nupedia, wurde nicht eine
ausgesuchte Gruppe von Spezialisten beauftragt, Artikel zu verfassen,
sondern die breite Öffentlichkeit eingeladen, am Projekt
mitzuwirken. Als Publikationsformat wurde ein 'Wiki' gewählt
(wovon sich auch der Name des Projekts ableitet), eine Plattform, die
es jedem Internetbenutzer erlaubt, Seiten nicht nur zu lesen, sondern
auch direkt zu verändern. Die Wikipedia verfolgt diesen
offenen Ansatz radikal, das heisst, sie erlaubt es tatsächlich
jedem, auch Benutzern, die sich nicht registriert haben und deshalb nur
über die IP Adresse ihres Rechners identifiziert sind, Texte
zu verändern. Die so entstandene neue Version wird unmittelbar
aufgeschaltet und damit sichtbar im Internet, ohne dass sie zuerst von
einem Lektoren oder ähnlichem geprüft wird. Die
vorhergehende Seite wird gespeichert und ist über die Funktion
'Versionen/Autoren' jederzeit einsehbar. Damit kann die
Veränderungen einer Seite nachvollzogen werden und
Vandalismus, der in beträchtlichem Umfang vorkommt, einfach
behoben werden (in dem die ältere Version wieder aufgeschaltet
wird).
Wikipedia beruht auf zwei Annahmen, die charakteristisch sind
für diese Art von Projekten. Erstens, viele Leute sind
Spezialisten auf einem bestimmten Gebiet, sei es, weil sie sich
professionell damit beschäftigen, sei es, weil sie sich
intensiv mit der Materie auseinander gesetzt haben. Wenn man nun die
verschiedenen Spezialgebiete einer sehr grossen Anzahl von Menschen
miteineinander kombiniert, dann kann man die gesamte Breite des Wissens
abdecken. Die zweite Annahme ist, dass Leser, die einen Fehler oder
eine Auslassung in einem Artikel finden, bereit sind, diesen zu beheben
– und somit selbst zu Mitautoren werden. Dadurch sollen
Artikel mit der Zeit immer besser und immer umfangreicher werden, bis
sie den Stand des Wissens korrekt wiedergeben. Um den Prozess der
Kollaboration zu erleichtern, wurden zu Beginn einige Richtlinien
erarbeitet, die beschreiben,wie ein guter Eintrag aussehen soll. Am
wichtigsten ist die Anforderungen des 'neutralen Standpunkts'. Dieser
besagt, dass ein Artikel die verschiedenen Erklärungen und
Ansichten, die es zu einem Thema geben kann, gleichberechtigt neben
einander stellen soll und nicht die eine 'richtige' Interpretation
propagieren soll. Dies erlaubt, auch umstrittene Themen, zu denen es
keinen Konsens gibt, in einer Weise darzustellen, die für
verschiedene Lager akzeptabel sein kann. Die Existenz von Richtlinien
ermöglicht es auch, mit Nutzern umzugehen, die sich
kontraproduktiv verhalten. Im extremsten Fall kann die Wikipedia
Gemeinschaft, also der innere Kreis der aktivsten Kontributoren,
beschliessen, einer Person die Editierrechte zu entziehen. Das
geschieht in der Praxis aber relativ selten.
In den vergangenen vier Jahren entwickelte sich die Wikipedia rasant.
Noch im Gründungsjahr der englischsprachigen Ausgabe kamen
Wikipedias in Deutsch und Französisch dazu. Mittlerweile
(Stand Jun. 2005) gibt es aktive Wikipedia Projekte in knapp 90
verschiedenen Sprachen. Die englischsprachige Ausgabe ist mit rund
600'000 Artikeln die grösste, gefolgt von der deutschen
Ausgabe mit mehr als 250'000 und der japanischen mit rund 130'000
Einträgen. Die Wikipedia ist einer der populärsten
Internetressourcen überhaupt und bewältigt momentan
rund 80 Million Anfragen pro Tag.
Auch wenn das Projekt nicht ohne Probleme ist, die später zur
Sprache kommen werden, so kann man doch eindeutig feststellen, dass die
Wikipedia relativ gut funktioniert. Auch im direkten Vergleich mit
konventionellen Nachschlagewerken, wie er etwa von der ZEIT (2004,
Nr.43) durchgeführt wurde, kann sie in punkto Umfang und
Qualität der Artikel durchaus mithalten und in Hinblick auf
Aktualität ist sie den gedruckten Werken wie auch traditionell
editierten elektronischen Ausgaben deutlich überlegen.
Offensichtlich sind viele Menschen bereit, Zeit und Arbeit in ein
solches Projekt zu stecken Für sie ist es motivierend an einem
grossen, weithin geschätzten Projekt teilzunehmen. Die extreme
Modularität und Parallelität, die für ein
Nachschlagewerk typisch ist, erlaubt es einer grossen Anzahl von
Personen, gleichzeitig und mit geringem Koordinationsaufwand,
zusammenzuarbeiten. Die Einfachheit des Editierens erlaubt jedem,
selbst aktiv zu werden und aus seiner Rolle als reiner Rezipient
herauszutreten. Die relativ locker gefassten, aber doch vorhandenen
Regeln und die konsistente Gestaltung des Interface sichern die Einheit
des Projektes. Obwohl Wikipedia heute ganz auf Basis freiwilliger,
unbezahlter Arbeit betrieben wird, verschlingt die technologische
Infrastruktur, die notwendig ist, um ein Projekt dieser Grösse
zu betrieben, dennoch beträchtliche finanzielle Mittel. Diese
werden nicht durch das Schalten von Anzeigen (banner adds, Google
Stichworte etc) erwirtschaftet, weil dies, so die Befürchtung,
den Charakter des Projekts verändern würde. Vielmehr
werden regelmässige Spendenaufrufe auf der Website publiziert,
die bisher immer ausserordentlich erfolgreich waren. Anfang 2005 wurden
auf dieser Weise rund US $75'000 in knapp 10 Tagen gesammelt und in die
Erweiterung der Hardware und Bandbreite, die von allen Wikipedias
genutzt wird, investiert. Andere Teile der Infrastruktur werden durch
Sponsoring finanziert. Mit den Wikipedias entsteht eine Ressource, die
der Öffentlichkeit nicht nur langfristig frei zur
Verfügung steht, sondern aufgrund der Erlaubnis der
Weiterverarbeitung, die in der Lizenz ebenfalls festgeschrieben ist,
auch Rohmaterial für die rasche Entwicklung anderer Projekten
liefern kann.
Freie Kulturproduktion: Netlabels
Die Krise der Musikindustrie ist in aller Munde. Peer-to-peer (p2p)
filesharing hat deutlich gemacht, dass Musik ausserhalb der
traditionellen Kanäle höchst effizient vertrieben
werden kann. Die etablierte Industrie, allen voran die an Grosskonzerne
angeschlossenen Labels, reagieren mit Panik und fordern neue Gesetze
und drastische Strafmassnahmen, um ihre bisherige zentrale Rolle
bewahren zu können. Um diesem Druck auszuweichen, entstehen
immer neue Netzwerke, die konstruiert sind, um die Strafverfolgung zu
erschweren. Im Schatten dieser grossen Auseinandersetzung hat sich in
den letzten Jahren eine sehr lebhafte Szene neuer Musikproduzenten
entwickelt, die neue Wege erproben – die Netlabels. Dies sind
Musiklabels, die ihre Werke nicht in erster als CD oder Vinyl
herausbringen, sondern sie als Dateien im Netz anbieten. In dem meisten
Fällen liegt eine pragmatische und keine ideologischen
Entscheidung zu Grunde und hin und wieder veröffentlichen
Netlabels auch auf Vynil oder CD (zum Beispiel 'best of'
Kompilationen). Die überwiegende Mehrheit der online
veröffentlichten Tracks steht unter einer CC Lizenz. Die
meisten Netlabels bedienen relativ kleine, spezialisierte Nischen, etwa
Techno, Drum'n'Bass, oder andere Genres der Elektronikmusik. In diesen
Nischen, die bisher Tonträger in einer Auflage von wenigen
tausend Stück produzierte, bieten neuen Modelle, so der
Netlabel Pionier Björn Hartmann (textone.org), drei Vorteile:
Promotion, Community und Nachhaltigkeit. Die meisten Musiker ausserhalb
des Radiomainstreams beziehen ihr Einkommen nicht, oder nur zu einen
kleinen Teil, vom Verkauf von Tonträgern, sondern von Gagen
für Live-Auftritte in Clubs. Für elektronische Musik
bedeutet das DJing. Die Veröffentlichungen dienen in erster
Linie dafür, sich einen Namen in der relevanten Szene
aufzubauen und damit an Auftritte zu kommen. Durch den freien Vertrieb
ist es sehr viel einfacher, an ein Publikum zu erreichen, weil die
Vertriebsmöglichkeiten des Internets denen der spezialisierten
Musikläden weit überlegen sind. Netlabels schaffen
neue, grössere Öffentlichkeiten und können
sich so als effektiver Weg erweisen, Künstler bekannt zu
machen. Darüber hinaus sind die anfallenden Kosten sehr viel
niedriger ist, weshalb sehr viel mehr Musik veröffentlicht
werden kann. Dies führt aber nicht einfach zu einer Schwemme
von schlechter Musik, sondern zu einer ungeheuren Befruchtung innerhalb
der Szene, in der mehr Austausch denn je zwischen Musikern stattfinden
kann. Die Beschränkungen der sogenannten
Aufmerksamkeitsökonomie (es gibt von allem mehr, als man sich
je anhören könnte) führen dazu, dass weniger
gute Musik schnell vergessen wird. Die Musik, die den Nerv der
Community trifft, kann sich dafür ungehindert ausbreiten.
Wie genau der Austausch zwischen den Musikern gestaltet werden soll,
ist innerhalb der Kulturszene, ebenso wie in der weiteren
kulturellen Praxis, durchaus umstritten. Da die Reputation, die mittels
Songs (oder eines anderen Kunstwerks) erarbeitet wird, der zentrale
Baustein der künstlerischen Karriere ist, stehen viele Autoren
der Weiterverwendung ihrer Werke mit sehr gemischten Gefühlen
gegenüber. Den eigenen Song in einem schlechten Remix
vertrieben zu sehen, ist nicht unbedingt im Interesse des
Künstlers. Deshalb verwenden die meisten Netzlabels Lizenzen,
die keine Weiterbearbeitung der Stücke erlauben. kooperative
Musik Communities, etwa die Plattform opsound.org, sind noch sehr in
den Anfängen und werden es wohl schwerer haben, sich
zu etablieren, als etwa die Wikipedia, deren Realisierung
Zusammenarbeit unausweichlich macht. Es gibt aber auch prominente
Bespiele offenere Kollaboration. Rap-Superstar Jay'Z, etwa, gab die
A-Capella-Version seines Black Album zur freien Bearbeitung frei.
Einige der Bearbeitungen, allen voran das Grey Album von DJ
Dangermouse, ein Remix mit dem White Album der Beatles, haben
ihrerseits weltweiten Kultstatus erreicht. Aber auch wenn solche
Experimente (noch) die Ausnahme sind, und in der Regel kein direktes
Remixing der Songs erlaubt ist, die einfache Verfügbarkeit
hochindividueller Musik stärkt dennoch die konnektive
Kreativität und fördert die Community als Ganzes. Der
dritte Punkt, in dem die neuen Modelle Vorteile bieten, ist die
Möglichkeit, die Musik langfristig verfügbar zu
halten. Die Verfügbarkeit von Musik (oder anderen Werken), die
in Kleinstauflagen produziert werden, ist von Anfang an gering. Sie
nimmt aber mit der Zeit noch weiter ab, nicht nur, weil die Auflagen
vielleicht vergriffen sind und das Geld fehlt, sie Nachpressen zu
lassen, sondern weil die Labels, die sie veröffentlichen,
oftmals selbst kurzlebig sind und verschwinden. Wenn nun die Rechte
beim Label liegen (das es in ein paar Jahren vielleicht nicht mehr
gibt), und es nicht möglich ist, herauszufinden, welcher
Musiker hinter einem Pseudonym steckt (oder falls er gestorben ist, wer
sein Rechtsnachfolger ist), so ist es faktisch unmöglich, das
Werk in irgendeiner Weise wieder verfügbar zu machen. Es ist
keine seltene Situation, dass ein Werk aufgrund der
Unklärbarkeit des Rechtsanspruchs der Öffentlichkeit
verloren geht, was allen zum Nachteil gereicht. Die Verwendung offener
Lizenzen garantieren nun, dass Werke langfristig verfügbar
bleiben, nicht zu letzt weil Organisationen wie das Internet Archiv
(archive.org), dauerhaften Speicherplatz für freie Werke
anbieten können. Somit entsteht ein stetig wachsender Fundus,
aus dem zukünftige Produzenten Material, oder zumindest
Inspiration beziehen können.
Noch sind diese Modelle auf relativ kleine Nischen beschränkt,
aber es bildet sich hier in Erfahrungsschatz neuer, offener Wissens-und
Kulturproduktion. Es hat sich bereits herauskristallisiert, dass
für die Produzenten die Community-Orientierung ganz wesentlich
ist, während auf der Seite der ökonomischen
Verwertung nicht-kopierbare Leistungen (etwas live Performances) im
Vordergrund stehen. Das Element, das beide Aspekte mit einander
verbindet, ist die Reputation des Kulturschaffenden, die durch den
freien Zugang zu den Werken nur gefördert werden kann.
Probleme und Potentiale der neuen Modelle
Diese neuen Formen der Wissens- und Kulturproduktion sind in der
Frühphase ihrer Entwicklung. Auch wenn sich noch keine
abschliessende Urteile fällen lassen, sind sowohl Probleme wie
auch grosse Potentiale für die weitere Entwicklung bereits
sichtbar geworden. Die Probleme lassen sich in zwei Kategorien
einteilen. Ein Typ von Problemen wird von außen verursacht,
als Folge der Inkompatibiliät der proprietären und
der offenen Paradigmen. Es gibt aber auch Probleme, die in den neuen
Produktionsformen selbst begründet liegen, und wohl auf ihre
noch ungenügende Ausdifferenzierung hinweisen. Zum ersten
Punkt: wie bereits ausgeführt, beruhen die neuen Modelle auf
einer innovativen Anwendung des Urheberrechts und der freien
Verfügbarkeit einer offenen Kommunikationsplattform (Standard
PCs und Internet). Beide Grundpfeiler sind momentan starkem Druck durch
die klassischen, auf Ausschluss und Kontrolle basierenden Industrien
ausgesetzt. Zum einen wird versucht, die Offenheit der
Kommunikationsplattform durch Digital Rights Management Systeme (DRM,
siehe Beitrag von Volker Grassmuck in diesem Band) stark ein zu
schränken. Dies gilt als Voraussetzung, um bestehende
Rechtsansprüche in gewohnter Form durchsetzen zu
können. Dies könnte zur Folge haben, dass freie,
nicht zertifizierte Inhalte auf der neuen DRM Infrastruktur nur noch
schwer abgespielt oder bearbeitet werden können. Zum anderen
werden immer weitere Teile der kulturellen Produktion durch Instrumente
des Immaterialgüterrechts aus der allgemeinen
Verfügbarkeit entfernt und der Kontrolle einzelner Besitzer,
in der Regel grosser Firmen, unterstellt. Ganz besonders problematisch
ist die Ausweitung der Patentierbarkeit. Im Unterschied zum
Urheberrecht, den konkreten Ausdruck schützt, lassen
sich durch Patente Ideen, unabhängig von ihrer Implementierung
kontrollieren. Während es kaum möglich ist, ein
Urheberrecht zu verletzen, ohne das ursprüngliche,
geschützte Werk zu kennen, kann das bei Patenten sehr wohl der
Fall sein. Im Softwarebereich, dessen Produkte sich in aller Regel aus
vielen einzelnen Modulen (jedes potentiell patentiert) zusammensetzen,
könnte eine Patentierung dazu führen, dass kleine und
mittlere Entwickler, wie sie gerade im Open Source Bereich anzutreffen
sind, kaum überleben würden. Ihnen fehlen die Mittel,
komplexe und teure Patentabklärungen durch zuführen,
die eventuell notwendigen Rechte zu erwerben, und sich so vor
späteren Klagen zu schützen. Diese externen
Bedrohungen offener Modelle haben in den letzten Jahren zu einer
starken Politisierung der diversen Szenen geführt. Im Bereich
der Softwarepatente ist es der Open Source Community gelungen,
wesentlichen Einfluss auf das euroäische
Gesetzgebungsverfahren zu nehmen und Softwarepatente bis auf weiteres
zu verhindern. Dies wird aber wohl kaum die letze Auseinandersetzung in
dieser Frage gewesen sein.
Die 'internen' Probleme liegen ganz anders. Im Fall der Wikipedia zeigt
sich mit zunehmendem Erfolg, dass die beiden Grundannahmen (die
Vielfältigkeit des Kontributoren sichert die Breite des Wissen
und die Artikel verbessern sich im Laufe der Zeit) zwar sehr produktiv
aber nur bedingt verlässlich sind. Die Wikipedias spiegeln
vielmehr wieder, dass einerseits die Internetbenutzer nach wie vor
nicht repräsentativ für die
(Welt)Bevölkerung sind und andereseits dass das, was momentan
die online Bevölkerung bewegt, nicht immer im
Verhältnis zur langfristigen Relevanz des Themas steht. So
etwa ganze Weltsprachen kaum vertreten (etwa das Arabische) oder etwa
der Eintrag zum TV-Moderator Thomas Raab in der deutschen Ausgabe der
Wikipedia knapp vier mal länger als derjenige zu Giorgio
Agamben, einem der führenden zeitgenössischen
politischen Philosophen. Die Frage, ob die Eigenmotivation von
Internetbenutzern je ausreicht, um dem Anspruch einer
Enzyklopädie gerecht zu werden, das alle Wissensgebiete
geleichermassen zu erfassen, ist offen. Dahinter verbirgt sich eine
komplexe Frage. Wer kann überhaupt bestimmen, was die
relevanten Wissensgebiete sind? Bisher wurde dies einfach an
Spezialisten delegiert und die Öffentlichkeit musste mit der
Auswahl vorlieb nehmen, die diese Herren (und wenigen Damen) trafen.
Ist die aggregierte Auswahl Vieler besser oder schlechter als die
selektive Auswahl Weniger? Der Vergleich der verschiedenen
Enzyklopädien lässt momentan noch keine eindeutige
Antwort zu, wobei schon dieses 'Unentschieden' ein beachtlicher Erfolg
für die noch sehr junge Wikipedia darstellt. Seitdem es keine
weit entfernte Vision mehr ist, die Wikipedia als eines der
Standardreferenzwerke des Internet zu etablieren, wird die Frage der
Verlässlichkeit der angebotenen Information, die ja jeder frei
verändern kann, mit grossem Nachdruck diskutiert. Das Problem
ist folgendes: Wie kann der Benutzer überprüfen, dass
die eine Seite, die er sich gerade anschaut, korrekte Informationen
enthält? Vielleicht ist der Artikel ja noch am Anfang der
Entwicklung und Fehler, oder Fehlendes, noch nicht behoben, oder
vielleicht wurde der Artikel ja gerade vor einer Minute
bösartig verfälscht. Der einzelnen Benutzerin
nützt die allgemeine Tendenz, dass Artikel sich mit der Zeit
verbessern, oder dass Vandalismus schnell behoben wird, wenig. Denn
für sie geht es um einen einzigen Artikel in einem einzigen
Moment.
Die Lösung, an der momentan gearbeitet wird, lehnt sich an
eine Praxis an, die in der freien Softwareentwicklung weit verbreitet
ist. Dort wird routinemässig zwischen stabilen und aktuellen
Versionen unterschieden. Die stabile Version zeichnet sich dadurch aus,
dass sie intensiv getestet wurde und keine schwerwiegenden Fehler mehr
enthält. Die aktuelle Version dagegen enthält die
neuesten Features und Softwarecode, an dem gerade gearbeitet wird. Sie
ist daher weniger getestet. Der Benutzer kann nun entscheiden, ob er
die aktuelle oder die stabile Version benutzen will.
Ähnlich in der Wikipedia. Artikel sollen geprüft,
editiert und dann als stabile Versionen 'eingefroren' werden. Der
Nutzer kann dann entscheiden, ob er sich die stabile oder die aktuelle
Version eines Artikels ansehen will. Dies würde erlauben, die
Verlässlichkeit der Information zu erhöhen und
gleichzeitig die freie Editierbarkeit, das Herzstück des
Projektes, zu bewahren. Während dieser Ansatz sehr sinnvoll
erscheint, ist er in der Praxis nicht einfach umzusetzen, nicht zu
letzt deshalb, weil das Validieren von Information in einer
Enzyklopädie, nicht zu vergleichen ist mit dem Testen von
Software. Je mehr Nutzer sich am Testen eines Computer-Programms
beteiligen, desto besser, weil mehr Konfigurationen und Anwendungen zum
Einsatz kommen. Darüber hinaus kann jeder einzelne das
Vorhandensein eines Bugs eindeutig feststellen: das Programm
stürzt ab! Bei einem faktenorientierten Artikel gibt es keinen
solch eindeutigen Test. Da hilft es auch nicht unbedingt, wenn sich
viele Personen am Prozess beteiligen. Die Gefahr besteht, dass sich die
mehrheitsfähige Meinung, die nicht unbedingt die korrekte sein
muss, durchsetzt. Wie relevant dieses Problem ist, lässt sich
zu diesem Zeitpunkt noch nicht vorhersagen. Dass auch die 'stabile'
Version von Wikipedia Fehler enthalten wird, ist zu erwarten, die
entscheidende Frage ist nur, ob sie mehr Fehler enthält, als
konventionelle Werke. Sollten sie entdeckt werden, so lassen sich sich
jedenfalls sehr viel leichter als in einer traditionellen
Enzyklopädie korrigieren.
Im Bereich der freien Kulturproduktion liegen die Herausforderungen
nochmals anders. Netlabels, und ähnliche Initiativen in
anderen Sparten, sind heute noch auf Nischen beschränkt. Ob
und wie diese Modelle auch den Mainstream erreichen können,
ist noch völlig offen. Vielleicht nie. Möglich
wäre, dass ich zwei Sphären herausbilden, die eine
wird durch DRM und die Marktmacht der grossen Firmen bestimmt, die
andere durch offene Modelle, Nischen und Spezialisierung. In wie weit
diese beiden Modelle auf der selben rechtlichen und infrastrukturellen
Grundlage existieren können, ist aber noch völlig
offen. Das ist aber nicht alles. Für Kulturschaffende, deren
Werke sich nicht zur Live Performance eigenen, bergen die offenen
Modelle auch einige Risiken. Bisher hat ihnen der Verkauf der Werke
eine gewisse Autonomie gegenüber Auftraggebern und
Förderungskommissionen gesichert. Diese könnte nun
wegfallen. Die Autonomie aufzugeben und neue Finanzierungsmodelle zu
suchen stellt aber die Position des Künstlers, paradoxerweise
besonders auch im Hinblick auf künstlerische
Freiheiten, grundsätzlich in Frage.
Ein Versuch, das Problem der Vergütung kultureller Produzenten
bei freiem Austausch kultureller Güter grundsätzlich
anzugehen, ist die sogenannte Kulturflatrate. Die wesentliche Idee ist,
Urheber, deren Werke über das Internet verteilt werden,
indirekt zu entschädigen. Anstatt auf DRM gestütze
pay-per-use Modelle durchzusetzen, sollte eine pauschale Abgabe etwa
auf Breitband Internetzugang erhoben werden. Auf dem so entstehenden
Topf könnten dann die Urheber gemäss der Benutzung
ihrer Werke durch die Öffentlichkeit entschädigt
werden. Ähnliche Systeme bestehen heute bereits. So wird auf
sogenannte Leermedien (Blank CD, Tapes etc.) eine Abgabe erhoben, die
dann via die Verwertungsgesellschaften (Gema, VG Wort etc.) an die
Urheber weitergereicht wird. Dieses indirekte System ist in der
heutigen Praxis allerdings mit einige Problemen behaftet (mangelnde
Transparenz, Fragen der Verteilungsgerechtigkeit) und die Ausweitung
eines verbesserten Systemes auf das Internet könnte nur mit
sehr starkem politischen Willen geschehen. Dieser besteht im Moment
weder auf nationaler noch auf internationaler Ebene. Die Diskussion
zeigt aber die Vielfalt der neuen Modelle der freien Kultur
über die aktuell nachgedacht wird.
All diese Schwierigkeiten bergen aber auch kreatives Potential, solange
sich die rechtlichen und technologischen Rahmenbedingungen
nicht deutlich verschlechtern. Und wie die Versuche, eine stabile
Version der Wikipedia zu entwickeln, zeigen, es wird mit Nachdruck an
innovativen Lösungen gearbeitet. Es ist zeigt sich, dass das
Potential dieser neuen Formen der Öffentlichkeit und
kulturellen Innovation noch lange nicht ausgereizt ist. Jetzt, da es
trivial ist, perfekte Kopien herzustellen und dieser weltweit zu
vertreiben, gibt es keine normative Rechtfertigung mehr, Menschen den
Zugang zu Wissen, Information und Kultur zu verwehren. Die Nachfrage
besteht. Der Vertrieb stellt keine Hürde mehr dar. Was neu
organisiert werden muss ist die Produktion der 'ersten Kopie'. Die
freien Lizenzen haben dafür ein solide, rechtliche Grundlage
geschaffen. Die freie Kooperation Tausender, die ihrer eigener
Motivation und ihren eigenen Talenten folgen, hat sich als
höchst produktiv erwiesen und wird mit zunehmender
Organisationserfahrung wahrscheinlich noch produktiver werden.
Für individuelle Kulturschaffende stellt die
Möglichkeit, ein weltweites Publikum zu erreichen, ohne sich
ins Anforderungskorsett hyperkommerzieller globaler Verwerter
zwängen zu müssen, eine Bereicherung dar, die weit
grösser ist, als die Risiken und offenen Fragen, die sich aus
den neuen Modellen ergeben. Es zeichnet sich ein Paradigmenwechsel in
der Produktion und Vertrieb von Wissen und Kultur ab, der keineswegs
nur auf den nicht-kommerziellen Bereich beschränkt ist. Die
ersten Modelle, die das neue Paradigma realisieren, sind bereits in
Betrieb. Ihr langfristiges Überleben ist allerdings noch nicht
gesichert.
Weitere Lektüre und Links
Grassmuck, Volker (2002). Freie Software. Zwischen Privat-
und
Gemeingut. Berlin, Bundeszentrale für Politische Bildung URL:
http://freie-software.bpb.de/
Liang, Lawrence (2004). Guide to Open Content Licenses. Rotterdam, NL,
Piet Zwart Institute
URL: http://pzwart.wdka.hro.nl/mdr/pubsfolder/opencontent.pdf (nur auf
englisch erhältlich)
Moeller, Erik. (2004). Die heimliche Medienrevolution - Wie Weblogs,
Wikis und freie Software die Welt verändern. Hannover, Heise
Verlag.
Redenz, Sebastian (2005). Das Netlabel als alternativer Ansatz der
Musikdistribution. In: Lutterbeck, Bernd, Gehrig, Robert A.;
Bärwolf Matthias (Eds). Open Source Jahrbuch 2005: Zwischen
Softwareentwicklung und Gesellschaftsmodell. Berlin, TU Berlin,
Fachgebiet Informatik und Gesellschaft URL:
http://www.opensourcejahrbuch.de
Röttgers, Janko (2003). Mix, Burn & R.I.P. Das Ende
der Musikindustrie (Netzaugabe). Hannover, Heise Verlag URL:
http://www.mixburnrip.de
Timmer, Bram (2005). Netlabels and Open Content: Making the Next Step
Towards Extended Cultural Production. Faculty of Arts, University of
Utrecht URL: http://www.c3.hu/~bram
General Public License
http://www.gnu.org/copyleft/gpl.html
http://www.gnu.de/gpl-ger.html
(inoffizielle deutsche Übersetzung)
Create Commons
http://creativecommons.org/
(Internationale Hauptseite)
http://de.creativecommons.org/
(CC:
Deutschland)
Wikipedia
http://wikipedia.org/
(Internationale
Hauptseite)
http://de.wikipedia.org/
(Wikipedia in
deutsch)
Dank an: Volker Grassmuck, Janko Röttgers und Bram Timmers
für ihre kritische Lektüre des Manuscripts.
Dieser Text steht unter folgender Lizenz: http://creativecommons.org/licenses/by-nc-nd/2.0/de/