Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 25 2014

Digitales Kulturerbe: Der Berliner Appell wird im Landtag von NRW gehört

Seit September letzten Jahres gibt es den Berliner Appell zum Erhalt des digitalen Kulturerbes, in dem zahlreiche Experten deutlich machten, dass für dieses Ziel jetzt gehandelt werden muss. Dieser Appell, unter anderem vom Deutschen Museumsbund, dem Deutschen Bibliotheksverband, der Deutschen Digitalen Bibliothek, Wikimedia Deutschland und dem Langzeitarchivierungs-Netzwerk Nestor unterzeichnet, richtet sich an die politischen Entscheidungsträger.

Im Landtag von Nordrhein-Westfalen wurde der Appell gehört, als am 20. Februar ein Antrag der Piratenfraktion Nordrhein-Westfalens zum digitalen Kulturerbe beraten wurde. Dort wurde er an den Ausschuss für Kultur und Medien überwiesen. Und der Berliner Appell erhielt über Parteigrenzen hinweg viel Zustimmung, auch von der zuständigen Wissenschaftsministerin Svenja Schulze (SPD). Auch widersprach niemand Thomas Sternberg, Landtagsabgeordnetem der CDU, als er feststellte: „dieser Berliner Appell ist vernünftig, er ist richtig (…) Der Appell ist aller Ehren wert.“

Your browser does not support the video tag.

Von der Landtagssitzung gibt es eine Aufzeichnung (MP4, ab 8’12) und ein Protokoll.

Es war schon bei der Formulierung des Berliner Appells bemerkenswert, dass sich sehr unterschiedliche Experten und Kultureinrichtungen auf einen gemeinsamen Wortlaut einigen konnten. Die Parlamentsdebatte in NRW lässt zumindest hoffen, dass die Sache tatsächlich angegangen wird.

January 21 2014

Open-Access-Publizieren mit dem universitätsweiten Repositorium Phaidra

Die Archivierungsplattform Phaidra wird seit 2008 an der Universität Wien verwendet, um digitale Objekte über Sprach- und Ländergrenzen online zur Verfügung zu stellen. Sandra Blumesberger beschreibt das Projekt.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Phaidra (Permanent Hosting, Archiving and Indexing of Digital Resources and Assets) wurde von der Universitätsbibliothek Wien gemeinsam mit dem Zentralen Informatikdienst der Universität entwickelt und ist derzeit an mehreren in- und ausländischen Institutionen, unter anderem am Fonds zur Förderung wissenschaftlicher Forschung (FWF) in Verwendung.

Das Programm basiert auf der Open-Source-Software Fedora, die für die Archivierung digitaler Objekte entwickelt wurde. Phaidra macht eine langfristige Sicherung wertvoller digitaler Inhalte möglich und ist seit 2008 online. Objekte in allen Formaten können – mit einem dauerhaften Identifier, Lizenzen und Klassifikationen versehen – archiviert werden.

Mit diesem Repository ist es ebenfalls möglich, sehr rasch und sicher zu publizieren. Sämtliche MitarbeiterInnen, Studierende und Personen, die einen Account der Universität Wien besitzen, haben die Möglichkeit, Objekte, versehen mit einem Zeitstempel und erläuternden Metadaten, zu archivieren und, soweit rechtlich möglich, weltweit freizugeben. Wertvolle Sammlungen, Archivmaterialien, Bücher, Bilder, Texte, Videos und Audiodokumente können sehr rasch verfügbar gemacht werden.

Weiterverwendung erlaubt

Die angegeben Lizenzen garantieren jede Weiterverwendung, die der „Owner“ – so wird jene Person genannt, die das Objekt in Phaidra hochlädt – des Objekts wünscht. Aber auch die Verwendung von offenen Standards und Schnittstellen erlaubt es, die Objekte in andere Kontexte zu stellen (mehr unter phaidraservice.univie.ac.at).

So wurden zum Beispiel im Rahmen des EU-Projekts Europeana Libraries zahlreiche Bilder des Instituts für Kunstgeschichte, Nachlassmaterialien, Bücher, Inkunabeln, Videos der Universitätsbibliothek und Materialien des Universitätsarchivs für alle zugänglich ins Internet gestellt.

Das Projekt „E-Books on Demand“ ermöglicht es, rechtefreie Büchern über das für Phaidra entwickelte Betrachtungsprogramm digital bereit zu stellen. Phaidra-User haben zusätzlich die Möglichkeit, mit dem in Phaidra angebotenen Phaidra-Importer selbst Bücher zu erstellen und über den Bookviewer anzubieten.

Phaidra ist eingebunden in die EU-Projekte OpenAIRE und OpenAIREplus. Das bedeudet, dass österreichweit alle Personen, die in einem Forschungsprojekt im Rahmen des FP7-Rahmenprogramms der EU tätig und vertraglich verpflichtet sind, ihre Ergebnisse offen zugänglich zu publizieren, Phaidra nutzen können.

Rechtefragen behindern Verfügbarkeit

Die Möglichkeit, die Objekte mehrsprachig beschreiben zu können, vermindert weitere Barrieren; ein weltweiter Austausch von wissenschaftlichen Informationen ist deshalb garantiert. Dennoch hat diese Freiheit Grenzen, nämlich dann, wenn die Rechte an einem Objekt nicht geklärt sind.

Laut den Nutzungsbedingungen von Phaidra dürfen nur Objekte archiviert werden, an denen der Owner die Rechte besitzt. Bei multimedialen Objekten, bei denen von allen Beteiligten die Rechte eingeholt werden müssten, kann dies ein langer Prozess sein.

Bei Materialien, die in der Lehre eingesetzt werden, besitzen die LehrveranstaltungsleiterInnen nicht immer sämtliche Rechte. Das bedeutet, dass diese Materialien nicht in Phaidra archiviert werden dürfen. Auch Sicherheitskopien von Objekten, deren Rechte nicht gänzlich geklärt sind, dürfen nicht in Phaidra archiviert werden. Eine Lockerung der derzeitigen Gesetze würde die Verbreitung des Open-Access-Gedankens sehr unterstützen.

Während in den Naturwissenschaften bereits einige Modelle des Open-Access-Publizierens in Verwendung sind, sind die Vorbehalte in den Geisteswissenschaften zum Teil noch sehr groß. Hier bedarf es eines Umdenkungsprozesses – die Werkzeuge wären jedenfalls schon vorhanden.

Susanne Blumesberger ist Germanistin und seit 1999 Mitarbeiterin des Projekts „biografiA. Datenbank und Lexikon österreichischer Frauen“ am Institut für Wissenschaft und Kunst an der Unversität Wien und seit 2007 zuständig für Customer Management für Phaidra, das digitale Langzeitarchivierungssystem der Universität Wien.

December 03 2013

Zugang gestalten! – Die Konferenz zum Nachsehen

Am 28. und 29. November 2013 fand im Jüdischen Museum Berlin die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” statt. Sie behandelte die Frage, welche Aufgaben Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können.

Veranstaltet wurde sie gemeinsam vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland.

Hier die Aufzeichnungen der Vorträge, Inputs und Diskussionen. Zwischentöne der Konferenz hat Mathias Schindler im Liveblog bei Wikimedia (Tag 1, Tag 2) gesammelt.

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 9px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: black; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#cd2373; } .vimeoBadge #vimeo_badge_logo { margin-top:8px; width: 57px; height: 20px; } .vimeoBadge .credit { font: normal 8px Helvetica, verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 30px 10px 30px; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { margin-top:8px; font: bold 12px Helvetica, verdana,sans-serif; overflow:hidden; width: auto; height: 55px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

November 29 2013

Donnerstag und Freitag ab 10.15 Uhr im Livestream: Zugang gestalten! #ke13

Die Konferenz „Zugang gestalten!“ im Jüdischen Museum Berlin beschäftigt sich damit, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können. Hier im Stream.

Das Programm bei „Zugang gestalten!” am Freitag:

10:15

Kulturpolitische Positionsbestimmung: Wie sollen Museen, Archive und Bibliotheken auf die Digitalisierung reagieren?

Kurze Statements von:

  • Pavel Richter
    Vorstand von Wikimedia Deutschland e.V.
  • Prof. Dr. Michael Naumann
    Direktor der Barenboim-Said-Akademie, vormals Kulturstaatsminister, Chefredakteur und Herausgeber der „Zeit“
  • Ranga Yogeshwar
    Wissenschaftsjournalist und Autor

11:00

Podiumsdiskussion

  • Mit Beteiligung von Prof. Monika Grütters, MdB, Stiftungsvorstand, Literatur- und Kunsthistorikerin
    Moderation: Julia Eikmann, Freie Hörfunkjournalistin

12:30 Mittagspause

13:30

Innovative Projekte und Entwicklungen, Teil 2: Zugang gescheitert

  • Jüdische Exilzeitungen
    Dr. Sylvia Asmus, Leiterin des Deutschen Exilarchivs 1933–1945 der Deutschen Nationalbibliothek

14:00

  • Depub.org
    Dr. Christoph Classen, Zentrum für zeithistorische Forschung Potsdam

14:30 Kaffeepause

15:00

Rechtliche Rahmenbedingungen und ihre Weiterentwicklung

    Impulsreferat

  • Dr. Cedric Manara, Copyright counsel, Google

15:30

    Kurze Statements

  • Prof. Dr. Thomas Dreier, Leiter des Instituts für Informations- und Wirtschaftsrecht und des Zentrums für angewandte Rechtswissenschaft am Karlsruher Institut für Technologie
  • Dr. Till Kreutzer
    Rechtsanwalt bei iRights.Law, Partner iRights.Lab
  • Dr. Tilo Gerlach
    Geschäftsführer der Gesellschaft zur Verwertung von Leistungsschutzrechten
  • Prof. Dr. Katharina de la Durantaye
    Juniorprofessorin für Bürgerliches Recht an der Humboldt-Universität zu Berlin

16:30–18:00

    Diskussion

  • Moderation: Dr. Paul Klimpel, Leiter der Konferenz

Stand vom 22.11.2013 – Änderungen möglich!

Erste Videos der Konferenz am Donnerstag – weitere folgen:

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 11px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: #3A75C4; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#00CCFF; } .vimeoBadge #vimeo_badge_logo { margin-top:10px; width: 57px; height: 16px; } .vimeoBadge .credit { font: normal 11px verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 10px 10px 0; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { font: normal 11px verdana,sans-serif; overflow:hidden; width: auto; height: 30px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

„Zugang gestalten!” wird veranstaltet vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google.

Mehr Infos zu den Referenten, Themen und Dokumentation:
zugang-gestalten.de

November 05 2013

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

In der digitalen Welt müssen Museen ihre Arbeit neu ausrichten und zugleich ihrem öffentlichen Auftrag treu bleiben. Von der Zusammenarbeit mit neuen Institutionen und privaten Akteuren können sie profitieren – wenn der Zugang dadurch nicht beschränkt wird.

Dieser Beitrag basiert auf einem Vortrag, den Paul Klimpel bei der Jahreskonferenz des Network of European Museum Organisations (NEMO) vom 1.-3. November in Bukarest gehalten hat.

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

Er geht ins Internet.

Aber er ruft nicht als erstes die Website des Ägyptischen Museums in Berlin auf; auch nicht die Europeana. Er gibt den Namen dieser schönen Frau in eine Suchmaschine ein.

Die ersten vier Suchtreffer führen – jedenfalls bei mir – zur Wikipedia. Dann kommt, immerhin schon auf Platz 5, das Ägyptische Museum, dicht gefolgt von einem Jazz-Club auf Platz 6. Platz 5 ist ein sehr sehr guter Rang. Häufig kommen Museen noch weiter hinten. Bei weniger bekannten Objekten kann es auch Platz 23 oder 48 sein. Ich habe hier Google als Suchmaschine genutzt, das Ergebnis ist aber mit anderen Suchmaschinen ähnlich.

Der Mensch, der sich für Nofretete interessiert, klickt also auf den ersten Suchtreffer. Er landet bei Wikipedia und findet nicht nur einen durchaus ausgewogenen und fachlich nicht zu beanstandenden Artikel über Nofretete, sondern an mehreren Stellen des Artikels auch den Verweis auf das Ägyptische Museum in Berlin.

Alle Wege führen ins Museum

Dort, im Ägyptischen Museum – heute im Neuen Museum auf der Berliner Museumsinsel – befindet sich die berühmte Büste der Nofretete, die ich gezeigt habe. Der Mensch, der sich für Nofretete interessiert, landet dort, wo er hin soll: im Museum, mit nur zwei Zwischenschritten.

Alle Wege führen ins Museum. Nur, dass es häufig andere sind, die diese Wege bauen, nicht die Museen selbst.

Sind die Museen nun das Schlusslicht der Digitalisierung, ein historisches Überbleibsel und eigentlich überflüssig? Warum waren die Museen im Prozess der Digitalisierung keine Avantgarde? Museen waren und sind Orte, die Menschen eine neue Welt eröffnen können. Da wäre es naheliegend, dass sich die Museen jederzeit der Möglichkeiten bedienten, mit dem, was sie vermitteln wollen, auch überall präsent zu sein.

Wikipedia, Google und die Museen

Trotzdem waren sie nicht Avantgarde, sie waren nicht vorne. Die Museen waren keine treibende Kraft, als mit Digitalisierung und Internet neue Möglichkeiten des Zugang, der Vermittlung, der Verbreitung und der Vernetzung von Wissen entstanden. Private Initiativen jenseits der institutionellen öffentlichen Strukturen haben das Potenzial früher genutzt.

Wohl wichtigstes Beispiel ist die Wikipedia. Lange wurde Wikipedia kritisch beäugt, belächelt. Doch inzwischen hat sie eine erhebliche Reputation und sich im Bereich der Enzyklopädien durchgesetzt, viele klassische gedruckte Enzyklopädien wurden eingestellt.

Aber auch Firmen haben sich mit großem Mut, mit viel Chuzpe und oft mit hohen Investitionen daran gemacht, zu digitalisieren und online zugänglich zu machen. Das Google-Buch-Projekt ist wohl das bekannteste Beispiel für Massendigitalisierung, aber keineswegs das einzige. Die Projekte von Google waren und sind umstritten, teilweise heftig umkämpft. Und sie sind erfolgreich und viele Museen kooperieren inzwischen mit Google.

Museen werden mit der Digitalisierung und durch neue Institutionen nicht überflüssig. Ihre Aufgabe – das Beschaffen, Bewahren, Erforschen, Bekannt machen und Ausstellen von Kulturzeugnissen – bleibt. Doch sie müssen sich verändern.

Was heißt das?

1. Beschaffen

Es fängt mit dem Beschaffen an: Früher wurden den Museen häufig Nachlässe angeboten, mit denen die Erben nichts anzufangen wussten. Die Erben konnten sie vor allem nicht verkaufen, Interessenten gab es nicht und damit keinen Markt. In Zeiten von Ebay und vielen anderen Möglichkeiten, im Internet Dinge anzubieten und für eigentlich alles einen Käufer zu finden, ist das anders. Damit ist es an den Museen, dafür zu werben, ihnen Nachlässe zu überlassen statt auf das schnelle Geld zu schielen.

2. Bewahren

Auch das Bewahren digitaler Objekte stellt die Museen vor gänzlich neue Herausforderungen – Herausforderungen, die sie nicht selbst lösen können. Die technische Expertise für digitale Langzeitarchivierung haben Museen nicht. Sie sind auf Zusammenarbeit angewiesen, mit Rechenzentren, mit Firmen, mit Experten.

3. Erhalten

Erhalten werden müssen nicht nur digitale Objekte selbst, sondern auch die Metadaten über analoge Objekte. Metadaten sind der Schlüssel zum Verständnis des kulturellen Erbes. Wer forscht, benötigt Zugang zu den Beständen, der Zugang zu den Beständen wiederum benötigt Standardisierung; Standardisierung heißt in der digitalen Welt Webservices, Personen-Norm-Dateien und Schnittstellen für den Austausch von Metadaten. Datenmodellierung im digitalen Zeitalter ist eine weitaus größere Herausforderung als die klassischen „Findbücher“.

4. Erforschen

Digitalisierte Sammlungen und moderne, vernetzte Datenbanken eröffnen der Forschung neue Möglichkeiten. Damit sind auch gleich die beiden Grundvoraussetzungen benannt, die Museen im digitalen Zeitalter nicht nur für die Forschung erfüllen müssen. Sie müssen ihre Bestände digitalisieren. Und sie müssen ihre Bestandsverzeichnisse online zugänglich machen. Das setzt Standardisierung der Metadaten voraus, sollen die Bestandsverzeichnisse auch genutzt werden können. Von Seiten der Museen werden insbesondere durch die Europeana und das Europeana Data Model wichtige Schritte hin zur Standardisierung gemacht. Bis diese Standards in den Museen implementiert sind, ist allerdings noch ein langer Weg.

5. Bekannt machen

Groß sind die Möglichkeiten von Museen, ihre Bestände durch das Internet bekannt zu machen. Auch hier gilt: Voraussetzung ist die Digitalisierung der Bestände und die Standardisierung der Metadaten. Das wohl ehrgeizigste und anspruchsvollste Projekt in Europa ist die Europeana. Sie ist ein wichtiger Beitrag, Kultur im Netz auffindbar zu machen. Aber die Wege im Netz sind nicht immer gradlinig.

Ich will dies mit einer kleinen Anekdote erläutern. 2008 kam der Film „Indiana Jones and the crystal scull“ in die Kinos. Und plötzlich sah sich das Britische Museum mit einem großen Interesse an Kristallschädeln konfrontiert.

The crystal skull, Collection of the British Museum in London. Rafał Chałgasiewicz, CC BY

The crystal skull, Collection of the British Museum in London. Foto: Rafał Chałgasiewicz, CC BY

Was war passiert? Fans von Indiana Jones wollten mehr über den Film wissen. In die Suchmaschine gaben sie jedoch nicht den Filmtitel ein, sondern nur „crystal scull“. Und die Suchmaschine zeigte als erstes einen Wikipedia-Artikel über Kristallschädel an. Dieser Artikel war illustriert mit Bildern der Kristallschädel im Britischen Museum. Und wieder führt ein ganz unerwarteter Weg ins Museum.

6. Ausstellen

Ausstellen ist wahrscheinlich der Bereich, der sich am wenigsten ändern muss. Ausstellungen werden weiter von der Aura des Originals leben, werden weiter ihren eigenen Gesetzen unterliegen. Fragen der Ausstellungsgestaltung haben mit Digitalisierung nur sehr mittelbar zu tun. Sicher gibt es „virtuelle Ausstellungen“, also kuratierte Angebote zu bestimmten Beständen. Es gibt den Einsatz neuer Technik, zum Beispiel Smartphone-Apps als Ersatz für den traditionellen Audioguide. Aber digitale Technik hat hier nur dienende Funktion. Museen sollten diese Möglichkeit nutzen, aber kein Netzauftritt und keine App ersetzt einen Museumsbesuch. Er kann Aufmerksamkeit schaffen, die zu einem Museumsbesuch führen kann.

Nicht Avantgarde, aber auch nicht abgehängt

Wo stehen die Museen im digitalen Zeitalter? Sie sind nicht die Avantgarde des Informationszeitalters, aber auch nicht der abgehängte Rest. Der Platz der Museen ist die Mitte. Da gehören sie auch hin.

Sie sind und bleiben Orte, die ihren Besuchern neue Welten eröffnen, die das Sammeln und Bewahren ernst nehmen, die Forschung ernst nehmen. Ihr Platz ist die Mitte der Gesellschaft, die durch die Digitalisierung immer vernetzter wird. Sie stehen in einem sich schnell verändernden Netzwerk von Institutionen, Initiativen und Firmen, die sich um das kulturelle Erbe bemühen. Solange Museen in der Mitte bleiben, stehen ihnen alle Optionen für die Zukunft offen. Wenn sich Museen der Vernetzung verweigern, werden sie ihrem öffentlichen Auftrag nicht gerecht und an Relevanz verlieren. Dann werden sie abgehängt werden in einer sich schnell ändernden Gesellschaft.

Betrachten Sie die neuen Player im Zeitalter der Digitalisierung, betrachten Sie Wikipedia, betrachten Sie Google und die vielen anderen nüchtern. Angebracht ist weder emotionale Abwehr noch devote Unterwerfung. Die neuen Player können in der digitalen Welt vieles besser. Im Bereich der digitalen Langzeitarchivierung beispielsweise haben Rechenzentren Kompetenzen, die Museen nie erlangen werden. Wo sich Museen diese Kompetenzen in Partnerschaften zunutze machen können, wo die neuen Player Aufmerksamkeit auf die Museen lenken, wo sie Zugang zum kulturellen Erbe ermöglichen, ist das gut.

Das kulturelle Erbe gehört allen, nicht einigen

Aber die Museen sollten selbstbewusst in solche Partnerschaften gehen. Sie sollten die Bedingungen solcher Kooperation aushandeln und öffentlich machen. Sind die Bedingungen der Kooperation zwischen Museen und Firmen nicht transparent, wächst Argwohn. So ist zum Beispiel – nach allem was ich weiß – die Kooperation der Bayerischen Staatsbibliothek mit Google eine sehr sinnvolle Kooperation, von der beide Seiten profitieren. Die Bedingungen sind inzwischen auch weitgehend bekannt. Was dem Ansehen dieser Kooperation am meisten geschadet hat, ist, dass der Kooperationsvertrag nicht von Anfang an öffentlich zugänglich war.

Museen haben eine große Verantwortung. Das kulturelle Erbe gehört allen. Digitalisierung und Internet können helfen, es allen zugänglich zu machen. Das, was Museen mit öffentlichen Mitteln für die Gesellschaft tun, muss weiter öffentlich bleiben. Der Zugang darf nicht beschränkt werden, um partikularen Firmeninteressen zu dienen. Das muss bei allen Kooperationen klar, transparent und verbindlich festgeschrieben werden. Das sind zeitlose Prinzipien, die auch und gerade im Zeitalter der Digitalisierung das Handeln bestimmen müssen.

Den öffentlichen Raum, zu dem auch die Museen gehören, gilt es zu verteidigen.

Ebenfalls zum Thema: Am 28. und 29. November findet die von Paul Klimpel geleitete Konferenz „Zugang gestalten!” statt. Disclosure: Das iRights Lab und Wikimedia Deutschland gehören zu den Veranstaltern, zu den Sponsoren gehört Google.

Deutsche Digitale Bibliothek jetzt mit API

Seit knapp einem Jahr steht die Deutsche Digitale Bibliothek als Betaversion online, seit Montag nun bietet sie auch eine API an. Über die Schnittstelle können Entwickler Daten aus dem Katalog der DDB auslesen und für weitere Anwendungen verwenden.

Was in der Welt der Softwareprojekte und Plattformen kaum erwähnenswert wäre – die pure Existenz einer Schnittstelle –, ist bei Bibliotheken und anderen Kultureinrichtungen noch eine Besonderheit. Wie auch bei offenen Daten in Politik und Verwaltung gilt: Wertvolle Metadaten „einfach so” und maschinenlesbar herauszugeben, stellt nicht nur technische und rechtliche Fragen. Es steht auch für einen Kulturwandel: Da könnte ja jeder kommen und die Daten verwenden. Bei der Deutschen Digitalen Bibliothek kann jetzt jeder kommen.

Metadaten unter CC-Zero-Widmung

Weitergenutzt werden können die Metadaten der DDB unter den Bedingungen der Creative-Commons-Zero-Widmung, was einem Verzicht auf alle Rechte entspricht. Zwar ist ein einzelnes Datum für sich nicht schutzfähig, mit der „CC0”-Widmung stellt die DDB aber klar, dass auch die Datenbank nicht eigens geschützt werden soll.

Allerdings stehen nicht alle Metadaten der DDB unter CC0, nur die entsprechend lizenzierten sind über die API ansprechbar. Hintergrund: Ausgenommen wurden diejenigen Datensätze, die neben Erschließungsinformationen auch Beschreibungen von Werken und Objekten enthalten. Da solche Beschreibungen urheberrechtlich geschützt sein können, fehlen diese Datensätze vorerst. Auf Nachfrage erklärt die DDB, dass auch diese Datensätze zugänglich gemacht werden sollen, indem Erschließungs- und Beschreibungsinformationen getrennt werden.

Bibliotheken und Museen mit APIs

Wie sich die Daten nutzen lassen, zeigen andere Projekte von Bibliotheken und Kultureinrichtungen. Naheliegend ist es etwa, die Daten in weitere Kataloge aufzunehmen oder mit Geodaten und Karten zu kombinieren – der Idee nach nichts anderes als die Erweiterung des klassischen Bibliothekskatalogs, der zeigt, was sich wo finden lässt. Die aus einem Wettbewerb resultierende (und noch rudimentäre) DPLA Map der Digital Public Library of America zum Beispiel zeigt an, was sich an Werken mit Bezug auf den eigenen Standort in der digitalen Bibliothek findet:

dplamap-berlin

Wo die Metadaten mit den Inhalten selbst kombiniert werden können, sind Anwendungen wie „Vistory” vom Rijksmuseum Amsterdam möglich. Das Programm zeigt unter anderem an, welche historischen Filmszenen in der Nähe gedreht wurden:

Der experimentelle Dienst Serendipomatic wiederum analysiert ganze Texte und durchsucht darauf basierend die Bestände der Europeana, der Digital Public Library of America und des Commons-Pools bei Flickr. Die Idee ist, mit den im Text enthaltenen Stichworten Zufallsfunde zu ermöglichen, die man sonst übersehen hätte.

Was mit den Daten der DDB möglich ist, muss sich noch zeigen. Man kann jedenfalls gespannt sein. Die DDB-API kann nach formloser Anmeldung bei der DDB genutzt werden und ist im dortigen Entwickler-Wiki näher dokumentiert.

November 01 2013

Open Access in Berlin: Zwei Gespräche und eine Ausstellung der Max-Planck-Gesellschaft

Soll das Wissen in Museen und Sammlungen frei im Netz zugänglich sein? Dieser Frage widmet sich die Berliner „Science Gallery” der Max-Planck-Gesellschaft mit einer rund vierwöchigen Veranstaltungsreihe. Begleitend zu einer ständigen Ausstellung finden zwei Podiumsdiskussionen statt.

Museen, Archive und Bibliotheken sind die traditionellen Orte, Wissen zu speichern. Was bedeutet „Open Access“ für sie? Welche Regeln und Regelungen wären notwendig? Aus Anlass des zehnten Jahrestages der „Berliner Erklärung“ gibt es in der Max Planck Science Gallery am Berliner Gendarmenmarkt vom 25. Oktober und bis zum 23. November die Reihe „30 Tage für Open Access“. Matthias Spielkamp, Projektleiter bei iRights.info, moderiert die Podiumsgespräche. (Eintritt frei, Anmeldung erbeten bei <mpgberlin at gv.mpg.de>).

Am 4.11.2013 um 19 Uhr heißt esKulturgut im Zeitalter der digitalen Reproduzierbarkeit. Was bringt Open Access Museen und Sammlungen?“. Es diskutieren Hermann Parzinger, Präsident der Stiftung Preußischer Kulturbesitz und Jürgen Renn, Direktor am Berliner Max-Planck-Institut für Wissenschaftsgeschichte:

Mit Open Access verbunden sind nicht nur praktische Probleme der Datenerfassung, sondern auch die Angst, dass die neue digitale Museumswelt in Konkurrenz tritt mit dem Original. Wo bleibt die Aura des Objekts? Kommen Besucher noch ins Museum, wenn alles digital verfügbar ist? Viele Museen stellen sich der Herausforderung und beginnen digitale und analoge Präsentationen kreativ miteinander zu verbinden. Was ist zukunftstauglich? Welche Rolle spielt das Museums in einer digitalisierten Welt, und kann Open Access den Wert von Sammlungen als Wissensspeicher auch unterstützen?

Am 18.11.2013 um 19 Uhr geht es um die Frage, ob Open Access die Position der Bibliotheken stärkt oder noch mehr Arbeit auf sie zukommt: „Who’s afraid of red tape? Open Access for a next generation science library”.

Vielfach sind die Bibliotheken noch nicht einmal auf dem aktuellen Stand der Technik angekommen. Zu wenige Ressourcen, schwierige Sammlungsgeschichten und die zunehmende Flut von Publikationen lassen die angestammten Wissensspeicher oft als Nachzügler erscheinen.

Darüber sprechen Jens Vigen, Leiter der Forschungsbibliothek am Forschungszentrum CERN und Richard E. Luce, Dekan der Bibliotheken der University of Oklahoma.

Seit dem 25.10.2013 ist in der Science Gallery auch die ständige Ausstellung „Wissen für alle” zu sehen. Sie handelt von der Welt des wissenschaftlichen Publizierens, der Globalisierung von Wissen und der Entwicklung der Open-Access-Bewegung. Geöffnet ist sie Dienstag bis Sonntag von 12 bis 18 Uhr, Montag und feiertags geschlossen. Der Eintritt ist frei.

October 30 2013

Einladung: Zugang gestalten! – Konferenz am 28. und 29. November 2013 in Berlin

zugang-gestalten-flyer

Was die Digitalisierung für Museen, Bibliotheken, Archive und andere Einrichtungen bedeutet, davon handelt die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe”. 

Mancher wird sich erinnern: Es ist nicht die erste Konferenz zum Thema. In der Einladung heißt es:

Nachdem in den vergangenen beiden Jahren das Ob und das Wie der Digitalisierung des Kulturellen Erbes diskutiert wurde, stellt die Konferenz “Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” in diesem Jahr die Frage nach dem Warum.

Im Rahmen der dritten Konferenz der Reihe soll eine Rückbesinnung auf die zentralen Werte der Gedächtnisinstitutionen im Vordergrund stehen. In diesem Zusammenhang wird die Frage erörtert werden, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlicher Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der Digitalen Welt gerecht werden können.

So wird die Konferenz in diesem Jahr das Selbstverständnis der Gedächtnisorganisationen, die Aufgabe des Staates, die Rolle von bürgerschaftlichen Initiativen und der Privatwirtschaft und nicht zuletzt die rechtlichen Rahmenbedingungen behandeln; neue Projekte werden sich in einer Werkschau vorstellen.

Wann:

Am Donnerstag und Freitag, dem 28. und 29. November 2013.

Wo:

Im Jüdischen Museum Berlin, Lindenstraße 9–14.

Veranstaltet wird die Konferenz zusammen vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google, geleitet wird die Konferenz von Paul Klimpel.

Mehr Infos und Anmeldung:

Detaillierte Informationen zum Programm, Referentinnen und Referenten gibt es auf der Konferenzwebsite zugang-gestalten.de. Dort auch das Formular zur Anmeldung.

Wer sich ins Thema einlesen will, findet mehr dazu auch im gerade von Paul Klimpel und Jürgen Keiper herausgebenen Band „Was bleibt?”. Bei iRights.info nachzulesen sind Beiträge von Andreas Lange über die Bewahrung von Games und von Eric W. Steinhauer über das Urheberrecht als „Rechtspflicht zur Amnesie”. Und die Konferenz im letzten Jahr lässt sich hier nachsehen:

Einladung: Zugang gestalten! – Konferenz am 28. und 29. November 2013 in Berlin

zugang-gestalten-flyer

Was die Digitalisierung für Museen, Bibliotheken, Archive und andere Einrichtungen bedeutet, davon handelt die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe”. 

Mancher wird sich erinnern: Es ist nicht die erste Konferenz zum Thema. In der Einladung heißt es:

Nachdem in den vergangenen beiden Jahren das Ob und das Wie der Digitalisierung des Kulturellen Erbes diskutiert wurde, stellt die Konferenz “Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” in diesem Jahr die Frage nach dem Warum.

Im Rahmen der dritten Konferenz der Reihe soll eine Rückbesinnung auf die zentralen Werte der Gedächtnisinstitutionen im Vordergrund stehen. In diesem Zusammenhang wird die Frage erörtert werden, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlicher Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der Digitalen Welt gerecht werden können.

So wird die Konferenz in diesem Jahr das Selbstverständnis der Gedächtnisorganisationen, die Aufgabe des Staates, die Rolle von bürgerschaftlichen Initiativen und der Privatwirtschaft und nicht zuletzt die rechtlichen Rahmenbedingungen behandeln; neue Projekte werden sich in einer Werkschau vorstellen.

Wann:

Am Donnerstag und Freitag, dem 28. und 29. November 2013.

Wo:

Im Jüdischen Museum Berlin, Lindenstraße 9–14.

Veranstaltet wird die Konferenz zusammen vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google, geleitet wird die Konferenz von Paul Klimpel.

Mehr Infos und Anmeldung:

Detaillierte Informationen zum Programm, Referentinnen und Referenten gibt es auf der Konferenzwebsite zugang-gestalten.de. Dort auch das Formular zur Anmeldung.

Wer sich ins Thema einlesen will, findet mehr dazu auch im gerade von Paul Klimpel und Jürgen Keiper herausgebenen Band „Was bleibt?”. Bei iRights.info nachzulesen sind Beiträge von Andreas Lange über die Bewahrung von Games und von Eric W. Steinhauer über das Urheberrecht als „Rechtspflicht zur Amnesie”. Und die Konferenz im letzten Jahr lässt sich hier nachsehen:

September 30 2013

Rechtspflicht zur Amnesie: Digitale Inhalte, Archive und Urheberrecht

Mit dem geltenden Urheberrecht wird es nicht ermöglicht, sondern vielmehr verhindert, dass digitale Inhalte archiviert werden können, so Eric W. Steinhauer. Der Bibliotheksjurist skizziert die Lage und fragt: Was soll unser kulturelles Gedächtnis ausmachen?

Was wir uns erzählen, was wir uns berichten, bildet das kommunikative Gedächtnis unserer Gesellschaft. Es reicht gerade soweit zurück wie die Erinnerung noch lebender Menschen: maximal 100 Jahre. Alles, was darüber hinausgeht, ist entweder mythisch oder vergessen oder im kulturellen Gedächtnis als einem Speichergedächtnis enthalten, wie es der Kulturwissenschaftler Jan Assmann einmal formuliert hat.

Dieses kulturelle Gedächtnis findet seinen Niederschlag in dauerhaften Zeugnissen der Kultur: in lesbaren Medien, an erster Stelle in Büchern und anderen gedruckten Materialien. Auf diese Medien sind wir zwingend angewiesen, wenn wir uns auf Sachverhalte außerhalb des zeitlichen Erfahrungshorizontes lebender Personen beziehen wollen.

Digitale Inhalte sind nicht von allein lesbar

Die Allgegenwart des Internet in der heutigen Wissens- und Informationsgesellschaft kann hier mit der Zeit zu einem ernsten Problem werden. Denn digitale Inhalte – kurz Digitalia – haben die unangenehme Eigenschaft, der sinnlichen Wahrnehmung nicht unmittelbar zugänglich zu sein. Sie müssen erst durch Software interpretiert und lesbar gemacht werden.

Soll dieser Vorgang über lange Zeiträume funktionieren, ist Vorsorge für die Stabilität von Formaten zu treffen oder eine Überführung in neue Formate notwendig. Doch damit nicht genug: Digitalia sind darüber hinaus auch noch hochfragil, da sie entweder unkörperlich und damit flüchtig in Netzen kursieren oder auf Datenträgern aufbewahrt werden, die nach dem gegenwärtigen Stand der Technik nicht wie Papier über Generationen hinweg haltbar sind.

Digitalia müssen daher in regelmäßigen Abständen auf neue Datenträger umgeschrieben werden. Formatänderungen und Datenträgerwechsel sind technisch komplexe Vorgänge. Sie stehen bei der Frage der digitalen Langzeitarchivierung meist im Vordergrund. Technische Aspekte sind aber nur eine Seite des digitalen Gedächtnisses. Die andere Seite ist eine juristische.

1. Langzeitarchivierung: Was das Urheberrecht sagt

Soweit die betroffenen Digitalia persönliche geistige Schöpfungen sind – was meist der Fall sein wird – unterfallen sie als geschützte Werke dem Urheberrecht, und ihre Vervielfältigung hat bestimmte rechtliche Vorgaben zu beachten. Da sowohl das für die digitale Langzeitarchivierung unverzichtbare Umkopieren als auch mögliche Formatänderungen Vervielfältigungen darstellen, liegt die gar nicht zu überschätzende Relevanz des Urheberrechts für diese Vorgänge auf der Hand. Und hier stellt sich die Lage – in grober Skizze – wie folgt dar:

Jede Vervielfältigung eines urheberrechtlich geschützten Werkes greift in das Verwertungsrecht des Urhebers oder entsprechende Nutzungsrechte von Rechteinhabern ein. Wenn der Urheber oder die Rechteinhaber die für die Langzeitarchivierung erforderlichen Vervielfältigungen – sei es in Form von Nutzungsrechten, sei es in sonstiger Form – gestatten, ergeben sich keine Probleme. Die Vervielfältigung ist dann rechtmäßig. Ansonsten aber kann eine Langzeitarchivierung nur auf Grundlage urheberrechtlicher Schrankenbestimmungen vorgenommen werden.

Von den Schrankenregelungen kommen im Wesentlichen nur die labyrinthischen Normen für „Vervielfältigungen zum privaten und sonstigen eigenen Gebrauch” in Betracht, um Kopien im Rahmen der digitalen Langzeitarchivierung zu rechtfertigen. Danach ist eine digitale Privatkopie gestattet, sofern sie nicht von einer offensichtlich rechtswidrigen Vorlage angefertigt wird. Ebenfalls zulässig sind Vervielfältigungen für den eigenen wissenschaftlichen Gebrauch.

Hier wäre jedoch näher zu begründen, warum der eigene wissenschaftliche Gebrauch gerade eine auf mehrere Generationen angelegte Langzeitarchivierung erfordert. Tote können schwerlich einen eigenen wissenschaftlichen Gebrauch für sich reklamieren. Selbst wenn man sich hier auf den Gebrauch einer Institution bezieht, so stellt sich die Frage, ob Kopien noch vor jedem Gebrauch von der Schranke überhaupt erfasst sind oder ob nicht die Kopie selbst dem unmittelbaren Gebrauch dienen muss. Vor dem Hintergrund der regelmäßig geforderten engen Schrankenauslegung ist diese Frage keineswegs haarspalterisch, sondern leider nur allzu berechtigt.

Archivkopie: Ein kunstvolles Regelungslabyrinth

Interessanter ist da schon die Erlaubnis im selben Paragrafen, eine Vervielfältigung zur Aufnahme in ein eigenes Archiv herzustellen, denn der Aufbau eines Archivs ist genau das, was wir wollen, wenn wir über digitale Langzeitarchivierung reden.

Allerdings liegt hier die Tücke im Detail. So muss die Vorlage für die Archivkopie zunächst ein „eigenes Werkstück“ sein. Doch darf die Vervielfältigung selbst oder ihre Nutzung bloß in analoger Form erfolgen, was für die digitale Langzeitarchivierung schlicht sinnlos ist. Diese Beschränkung wiederum gilt nicht für Archive, die im öffentlichen Interesse tätig sind und keine wirtschaftlichen oder Erwerbszwecke verfolgen. Diesen Einrichtungen ist auch die digitale Kopie zur Aufnahme in ein eigenes Archiv gestattet. Hier ist also Gelegenheit, den kunstvoll verschränkten Aufbau des Paragrafen 53 Urheberrechtsgesetz zu bewundern.

Halten wir hier kurz inne. Die digitale Langzeitarchivierung scheint zwar nicht im Fokus des Gesetzgebers zu stehen, ist aber Einrichtungen gestattet, die im öffentlichen Interesse tätig werden. So jedenfalls kann man die Archivschranke verstehen und damit der Ansicht sein, dass immerhin Bibliotheken und Archive, mithin öffentliche Gedächtnisinstitutionen aus urheberrechtlichen Gründen nicht gehindert sind, digitale Langzeitarchivierung durchzuführen.

Einmal kopieren und Schluss

Diese Ansicht zur Archivschranke freilich ist etwas schlicht. Bei der Frage der digitalen Langzeitarchivierung geht es um den Aufbau eines digitalen Speichergedächtnisses, das in seiner Dauerhaftigkeit den gedruckten Büchern als den wohl wichtigsten Medien des überkommenen kulturellen Gedächtnisses entsprechen soll. Wegen der begrenzten Haltbarkeit von Datenträgern hilft es daher nichts, es mit einer einzigen Archivkopie für die Dauer des Urheberrechts an dem betreffenden Werk bewenden zu lassen. Um eine zuverlässige Speicherung zu gewährleisten, ist vielmehr die regelmäßige Migration auf einen neuen Datenträger nötig.

Die Archivschranke aber gestattet nur Vervielfältigungen zur Aufnahme in ein Archiv, Kopien im Archiv selbst sind nicht im Fokus der Norm. Ob hier eine Auslegung der Schrankenbestimmung helfen kann, ist zweifelhaft. Die jüngsten Gerichtsverfahren gegen Hochschulen um elektronische Semesterapparate und Leseplätze zeigen zudem, welche komischen, den Erfordernissen einer digital arbeitenden Wissenschaft nicht unbedingt entgegenkommenden Auslegung Schrankenbestimmungen durch Gerichte erfahren können.

Hält man sich dies vor Augen, ist man nicht gut beraten, auf dem sandigen Fundament der Archivschranke eine kostspielige Infrastruktur für die digitale Langzeitarchivierung aufzubauen. Unklares Recht ist hier ein ernstes Investitions- und Planungsrisiko!

Ausnahmen für Datenbankwerke und Kopierschutz

Indes, das Recht ist nicht in allen Punkten unklar. Klar und deutlich etwa drückt sich der Gesetzgeber bei den Ausnahmen von der Archivkopie aus. Danach ist eine Archivkopie von Datenbankwerken unzulässig; sie wird lediglich für den eigenen wissenschaftlichen Gebrauch sowie den Unterrichtsgebrauch unter Einschränkungen gestattet. Für Digitalia im Internet, die in Form von Datenbankwerken nicht unbedingt selten auftreten, ist das eine ziemliche klare, aber keine gute Aussage.

Sekundiert wird dieses wenig erfreuliche Ergebnis durch die Norm, dass bei einfachen Datenbanken ohne Werkcharakter zwar Privatkopien und solche für den Wissenschafts- und Unterrichtsgebrauch erlaubt sind (Paragraf 87c), nicht aber eine Archivkopie.

Als raffinierter Höhepunkt der klaren Aussagen des Gesetzgebers dürfen die technischen Schutzmaßnahmen nicht vergessen werden. Soweit es um Digitalia geht, die in Netzen kursieren, besteht von Rechts wegen keine Möglichkeit, technische Schutzmaßnahmen für Vervielfältigungen aufzuheben. Eine legale digitale Langzeitarchivierung allein auf Grundlage urheberrechtlicher Schrankenbestimmungen ist hier vollkommen ausgeschlossen.

Urheberrechtlich saubere Archivierung ist kaum möglich

Soweit also zu den Möglichkeiten, die das Urheberrecht zur Langzeitarchivierung von Digitalia eröffnet. Es liegt auf der Hand, dass diese Möglichkeiten nicht ausreichen. Außerhalb vertraglicher Vereinbarungen mit den Urhebern oder Rechteinhabern aber ist eine rechtlich saubere digitale Langzeitarchivierung im Rahmen der derzeitigen urheberrechtlichen Schranken nicht möglich.

Auf eine Schrankenlösung wird man aber nicht verzichten können, da insbesondere Netzinhalte oft kollaborativ und ohne eindeutige Klärung juristischer Fragen erstellt werden. Es ist in diesen Fällen oft nicht möglich, einen Ansprechpartner zur Einholung aller für die Langzeitarchivierung erforderlichen Rechte ausfindig zu machen. Überdies erscheint es angesichts der Masse an relevanten Digitalia wenig sachgerecht, neben den ohnehin schon hohen technischen Aufwand der Langzeitarchivierung noch einen bürokratischen Aufwand zur Klärung rechtlicher Fragen zu stellen.

Sammeln im Netz: Wie das Recht hinterherhinkt

Digitalia sammelt man nicht einfach so wie Bücher; es sei denn, sie sind auf körperlichen Datenträgern wie CD-ROMs verfügbar. Digitalia sammelt man, indem man sie auf eigene Speichermedien kopiert, also vervielfältigt. Solche Vervielfältigungen sind zweifelsfrei legal, wenn sie auf Grundlage einer Lizenzvereinbarung erfolgen. Allerdings ist nur ein Bruchteil des für das digitale kulturelle Gedächtnis relevanten Materials auf diese Weise verfügbar, etwa weil es von Verwertern entsprechend vermarktet oder auf Grundlage diverser Open-Content-Lizenzen im Internet bereitgestellt wird. Gerade frei zugängliche Internetquellen stehen oft unter keiner Lizenzbestimmung. Was tun?

Der Blick auf die urheberrechtlichen Schranken kann kurz gehalten werden: Privater oder eigener wissenschaftlicher Gebrauch kommt für für die klassischen Gedächtnisinstitutionen wie Archive oder Bibliotheken nicht in Betracht. Damit aber ist das Sammeln von Digitalia aus dem Internet auf Grundlage urheberrechtlicher Schrankenbestimmungen nicht möglich. Die schon erwähnte Archivschranke scheidet hier aus, weil das Ergebnis der Schrankennutzung die Voraussetzung ihrer Anwendung ist, nämlich das eigene Werkstück als allein zulässige Kopiervorlage.

Nationalbibliothek soll sammeln, darf aber nicht

Trotz dieser sehr misslichen urheberrechtlichen Situation hat der Gesetzgeber mit dem Gesetz über die Deutsche Nationalbibliothek (DNBG) im Jahre 2006 dieser Bibliothek die Aufgabe zugewiesen, auch Digitalia als Kulturgut für die Nachwelt zu sichern, also ein digitales kulturelles Gedächtnis anzulegen. Dabei stellte sich der Gesetzgeber ausweislich der Gesetzgebungsmaterialien (PDF) sogar vor, dass die Deutsche Nationalbibliothek in regelmäßigen Abständen gewissermaßen Sicherungskopien des gesamten deutschsprachigen Internet im Wege des Webharvesting erstellt.

Das aber ist schlicht illegal. Das Urheberrechtsgesetz enthält keine entsprechende Schranke. Und auch das Nationalbibliotheksgesetz selbst regelt diesen Sachverhalt nicht, obwohl es den Sammelauftrag der Nationalbibliothek explizit auf unkörperliche Medienwerke und damit Digitalia in Netzen erweitert hat. Ansonsten ist das Gesetz stockkonservativ: Nicht nur Bücher und Datenträger, sondern auch Netzpublikationen müssen „abgeliefert” werden. Ähnlich „fortschrittliche“ Bestimmungen enthalten die Pflichtexemplarvorschriften der Länder Baden-Württemberg, Hamburg, Thüringen und Sachsen-Anhalt.

Digitalia nutzen: Speichern verboten

Neben der Langzeitarchivierung und dem Sammeln ist schließlich noch das Vermitteln als dritte wichtige Säule des digitalen kulturellen Gedächtnisses zu beleuchten. Bibliotheken und Archive dürfen Mikroformsammlungen an Bildschirmen in ausgewählten Pflichtexemplarbibliotheken anbieten, Nutzer dürfen sich von den multimedialen Inhalten eigene Exzerpte machen, vielleicht ein paar Screens abfotografieren oder den Bildschirm auf den Kopierer legen. Das ist auch ein Ergebnis der Rechtsprechung: Der Bundesgerichtshof hat sein Verständnis für digitales Arbeiten bündig so zum Ausdruck gebracht:

Für ein wissenschaftliches Arbeiten mit Texten ist nach heutigem Verständnis zwar der Ausdruck, nicht aber das Abspeichern wichtiger Textpassagen unerlässlich.

Für diese „komfortable” Form der Nutzung ist freilich eine angemessene Vergütung abzuführen. Wobei hier durchaus die Frage aufgeworfen werden kann, ob diese Vergütungspflicht für Pflichtexemplarbibliotheken im Rahmen ihres Sammelauftrages überhaupt angemessen ist, denn immerhin investieren diese Einrichtungen eine Menge Geld in den Erhalt von Digitalia für die Nachwelt.

Das Problem freilich ist nur ein theoretisches. Von sich aus dürfen Pflichtexemplarbibliotheken, wie wir festgestellt haben, ja gar nichts sammeln; lediglich das Land Hessen hat auch eine Sammelermächtigung bei säumigen Ablieferungspflichtigen vorgesehen. Was sie aber abgeliefert bekommen, ist konkludent entsprechend lizenziert. Anders gesagt: Das Wenige, das gesammelt wird, darf man auch der Öffentlichkeit vermitteln, jedenfalls am stationären Leseplatz im Haus.

Rechtspflicht zur Amnesie

Nachdem wir uns die urheberrechtliche Seite der Langzeitarchivierung angesehen haben, kann man sagen, dass man sich um die Zukunft unserer Digitalia im kulturellen Speichergedächtnis durchaus Sorgen machen muss. Im Gegensatz zur analogen Welt der gedruckten Bücher etwa unterfallen im digitalen Bereich alle für den Aufbau, die Pflege und die Nutzung des digitalen Gedächtnisses relevanten Handlungen dem Urheberrecht.

Es fehlt hier an einer dem Sachenrecht entsprechenden eigenen Rechtsposition („Eigentum am bedruckten Papier“) von Gedächtnisinstitutionen wie Bibliotheken oder Archiven. Vertragliche Vereinbarungen sind angesichts der Masse des relevanten Materials keine Lösung. Die vorhandenen urheberrechtlichen Schranken bieten ebenfalls keine geeignete Grundlage für die digitale Langzeitarchivierung. Hier ist der Gesetzgeber gefragt, die für Gedächtnisinstitutionen in vielen Fällen derzeit bestehende „Rechtspflicht zur Amnesie“ im digitalen Bereich durch eine sachgerechte Novellierung des Urheberrechtsgesetzes zu beenden.

Dazu hat im Übrigen auch die EU-Kommission schon 2011 eine Empfehlung „zur Digitalisierung und Online-Zugänglichkeit kulturellen Materials und dessen digitaler Bewahrung” (PDF) beschlossen. Die Kommission empfiehlt darin „die ausdrückliche und eindeutige Verankerung von Bestimmungen in ihren Rechtsordnungen, die ein mehrfaches Kopieren und Konvertieren digitalen kulturellen Materials durch öffentliche Einrichtungen zum Zwecke der Bewahrung erlauben“, sowie „die Schaffung der erforderlichen Regelungen für die Pflichtexemplarhinterlegung in digitaler Form“.

Zu den notwendigen Pflichtexemplarvorschriften rechnet die Kommission auch die Gestattung von Web-Harvesting und des gegenseitiges Austausches von Digitalia zwischen Pflichtexemplarbibliotheken, wenn sie einen eigenen gesetzlichen Sammelanspruch haben. Österreich hat das bereits umgesetzt und verfügt im Mediengesetz über ein recht differenziertes Regelwerk, das sich der deutsche Gesetzgeber als Beispiel nehmen könnte.

2. Was soll das kulturelle Gedächtnis ausmachen?

Das Ergebnis der urheberrechtlichen Bestandsaufnahme ist, um es mit einem Wort zu sagen, vernichtend. Hier ist nahezu alles problematisch und eine rechtssichere digitale Langzeitarchivierung ebenso unmöglich wie der nachhaltige Aufbau und die Nutzung eines digitalen kulturellen Gedächtnisses. Aber selbst wenn wir hier eine zufriedenstellende Lösung für die Gedächtnisinstitutionen bekommen sollten: Die rechtlichen Probleme des digitalen kulturellen Speichergedächtnis sind damit bei weitem noch nicht gelöst. Ich möchte beispielhaft auf drei Bereiche eingehen, die sich als problemträchtig erweisen.

Wer darf archivieren?

Zunächst werden für das digitale kulturelle Gedächtnis, wenn man das soeben zitierte Kommissionsdokument betrachtet, ausschließlich bestimmte Institutionen als zuständig erachtet: vor allem Bibliotheken und Archive. Doch eine Fülle weiterer Akteure ließe sich anführen. Beispielhaft möchte ich hier private Sammler nennen. Neben dem großen Fundus an Kulturgütern in öffentlichen Institutionen existiert ein vielleicht noch größerer, jedenfalls vielfältigerer Schatz in privaten Sammlungen. Oft sind es private Sammler, die wichtige Kollektionen erst zu einer Form zusammenstellen, die für eine öffentliche Einrichtung interessant ist.

Keine Gedächtnisinstitution würde Briefkastenwerbung von Edeka archivieren. Aber wenn ein Sammler einem Wirtschaftsarchiv nun ein vollständiges Konvolut solcher Werbezettel aus der Zeit von 1965 bis 2000 anböte? Das wäre fast ein DFG-Projekt! Könnte ich aber eine mit Kennerschaft zusammengestellte Sammlung von Fotos und Texten aus dem Internet – alles legale Kopien für den wissenschaftlichen Eigengebrauch – einfach so einer Bibliothek übergeben? Und könnte die Bibliothek damit überhaupt etwas anfangen?

Mit anderen Worten: Im analogen Zeitalter konnte jedermann, der am Kulturleben teilnahm, einen substantiellen Beitrag zum kulturellen Speichergedächtnisses leisten. Im digitalen Bereich aber, mit seiner ungleich größeren Vielfalt, verengt sich der Fokus der Diskussion auf wenige institutionelle Akteure. Ich habe aus „sammlungsphilosophischen“ Gründen meine Zweifel, dass das sachgerecht ist.

Persönlichkeitsrechte im Internetzeitalter

Äußerungen in den klassischen Massenmedien sind schnell vergessen und werden von neuen Meldungen überlagert. Wenn es um Berichte über unvorteilhaftes persönliches Verhalten geht, Straftaten etwa, dumme Plagiate oder eine kleine Affäre, ist es die Vergesslichkeit der Massenmedien, die aus persönlichkeitsrechtlichen Gründen eine Berichterstattung darüber ermöglicht.

Das Bundesverfassungsgericht hat es in der berühmten Lebach-Entscheidung von 1973 daher für unzulässig gehalten, „dass die Kommunikationsmedien sich … zeitlich unbeschränkt mit der Person eines Straftäters und seiner Privatsphäre befassen.“ Damals war das Fernsehen das Leitmedium. Was aber gilt im Internetzeitalter, wenn Google mir über digital verfügbare Medienarchive zwanzig Jahre alte Skandale wie frische Meldungen serviert?

Auch dies möchte ich als Frage stehen lassen. Sie zeigt, dass im digitalen kulturellen Speichergedächtnis persönlichkeitsrechtliche Fragestellungen eine völlig neue Relevanz bekommen.

Rückruf und Depublizierung: Imperative des Vergessens

„Das Netz speichert zuviel, es soll auch wieder vergessen!“ Diese Forderung wird oft erhoben. Tatsächlich könnte ein Urheber ein Werk einfach aus den Internet löschen. Sofern er keine Nutzungsrechte eingeräumt hat, können Dritte es nicht mehr zugänglich machen. Was aber, wenn das Werk bereits an die Deutsche Nationalbibliothek gelangt ist? Könnte jetzt der Urheber eine Löschung verlangen? Hier wird deutlich, wie anfällig für gezielte Manipulationen und Streichungen das digitale Gedächtnis im Vergleich zum gedruckten ist. Die Vielzahl von nicht mehr manipulierbaren Werkstücken und der Erschöpfungsgrundsatz verhindern hier einen Zugriff des Urhebers auf sein bereits publiziertes und verbreitetes Werk.

Neben dem Urheber, der sein Werk unterdrücken möchte, gibt es noch einen ungleich problematischeren Imperativ des Vergessens. Betrachtet man das Gesetz über die Deutsche Nationalbibliothek und politische Äußerungen zum digitalen Kulturerbe, dann ist man sehr irritiert, wenn man sich näher mit der Praxis des Depublizierens von Webseiten der öffentlich-rechtlichen Rundfunkanstalten beschäftigt. Diese Internetseiten dürfen sicher als zeitgeschichtliche Zeugnisse ersten Ranges gelten. Gleichwohl schreibt der Rundfunkstaatsvertrag für einen Großteil dieser Inhalte eine bloß befristete Verweildauer vor. Danach werden die Seiten vom Netz genommen.

Und dann? Dann sind die Seiten weg. Die Deutsche Nationalbibliothek fühlt sich unter Verweis auf ihre Sammelrichtlinien nicht zuständig – man kann das durchaus anders sehen! – und die Rundfunkarchive, wo diese Inhalte möglicherweise noch zu finden sind, gleichen hermetischen Silos und haben keinen klaren Auftrag, ein digitales kulturelles Speichergedächtnis zu schaffen, das allen leicht zugänglich ist.

Archivieren im Datenstrom

Was im analogen Bereich säuberlich getrennt war, ist nun unterschiedslos einfach ein Datenstrom. Im Internet konvergieren Publikation, Kommunikation, Information, Unterhaltung und Business. In der analogen Welt ist es klar, dass wir Bücher sammeln, Werbeflyer eher nicht und Telefongespräche gar nicht. Im Internet ist das nicht mehr klar. Neben einer angemessenen Rechtsordnung für das digitale kulturelle Gedächtnis müssen wir fragen: Was soll dieses Gedächtnis eigentlich ausmachen? Und wenn wir es anlegen, sollten wir es vielleicht nur gestuft zugänglich machen? Persönliches nach 100 Jahren, Publiziertes sofort?

Erst wenn diese Fragen gelöst und in ein stimmiges Konzept gebracht sind, kann auch der Gesetzgeber ein sinnvolles Rechtsregime für Digitalia aufbauen. Am Rande sei erwähnt, dass dabei auch die Rolle der digitalisierten analogen Kulturgüter mit zu bedenken ist, denn bei aller Unsicherheit bei der Bewahrung von Digitalia werden paradoxerweise Unmengen analoger Kulturgüter digitalisiert, auch und gerade um sie der Nachwelt zu erhalten.

Sollte es sich in einer Generation jedoch herausstellen, dass vor allem das gegenwärtige, stark urheber- und verwerterzentrierte Recht des geistigen Eigentums den Aufbau nachhaltiger Speicher- und Sammelstrukturen verhindert hat, wird dies eine Debatte auslösen, die an Heftigkeit die gegenwärtigen Diskussionen um Nutzer- und Wissenschaftsrechte weit übertreffen wird.

Zerstörte Gedächtnisspuren lösen stärkste Emotionen aus. Man denke nur an den Weimarer Bibliotheksbrand oder den Einsturz des Kölner Stadtarchivs. Wir betreten dann einen Resonanzboden, der das Urheberrecht in der Form, in der wir es kennen, nicht nur zum Wanken, sondern zum totalen Einsturz bringen könnte. Ob hier der archimedische Punkt der neuen Urheberrechtsordnung liegt, nach dem alle suchen? Wer weiß?

Zur Person

steinhauerDr. Eric W.  Steinhauer ist Bibliothekar an der Universitätsbibliothek der Fernuniversität in Hagen. Als Bibliotheksjurist beschäftigt sich Steinhauer unter anderem mit den urheberrechtlichen Problemen der digitalen Langzeitarchivierung und gehörte zur Expertengruppe der Initiative „Nachhaltigkeit in der digitalen Welt” des Internet und Gesellschaft Collaboratory. Foto: Mathias Schindler, CC BY-SA.

Eine erweiterte Version dieses Artikels ist im Band „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt” bei iRights.Media als Print, E-Book sowie frei im Netz erschienen. Dort finden sich auch weitere Literaurangaben.

September 25 2013

Was Archive, Museen und Bibliotheken von Gamern lernen können – und umgekehrt

Spielefans auf der ganzen Welt haben freiwillig und außerhalb der traditionellen Gedächtnisorganisationen eigene Ansätze entwickelt, um Games zu bewahren. Für Museen, Archiven und Bibliotheken wird dieses Wissen jetzt relevant. Doch braucht auch die Spielecommunity die Zusammenarbeit mit Institutionen, um Games als digitales Kulturgut zu bewahren.

Games sind die ersten digital geborenen Kulturgüter, die massenhaft und global produziert wurden. Wissen und Praktiken, die sich in der Games-Kultur herausgebildet haben, sind auch darüber hinaus für die Bewahrung digitaler Kulturgüter relevant. Als komplexe digitale Artefakte stellen Computerspiele höchste Anforderungen an Archivare, sodass ich die These aufstelle: Wenn es uns gelingt, Computerspiele zu bewahren, können wir alles Digitale bewahren, da alle digitalen Werke die gleiche technische Grundlage besitzen.

Digitale Werke wie Games sind von der Kombination aus Betriebssystem und Hardware in hohem Maße abhängig. Ohne deren Hilfe wären wir nicht in der Lage, den Nullen und Einsen im Bitstrom einen Sinn zu geben. Weil diese Nullen und Einsen nur eine begrenzte Lebensdauer haben, ist es eine der wichtigsten Aufgaben, sie unabhängig von der ursprünglichen physischen Systemplattform zu bewahren. Dies leisten im Kern Emulatoren, indem sie die ursprüngliche physische Hardware auf anderen Systemen imitieren und durch Virtualisierung auch dann noch anwendbar halten, wenn kein funktionsfähiger Computer eines bestimmten Systems mehr existiert.

Die Strategie der Migration – der Umarbeitung der Software auf ein neues System – ist im Bereich komplexer digitaler Artefakte nicht praktikabel. Zwar dient auch Migration dazu, ein Werk vom Ursprungssystem unabhängig zu machen, indem es so verändert wird, dass es auf aktuellen Systemen zugänglich ist. Allerdings ist diese Methode lediglich bei technisch einfachen Inhalten wie Texten oder Grafiken praktikabel, da der Migrationsaufwand mit zunehmender Komplexität der Werke steigt. Auch muss die Migration stets neu durchgeführt werden, wenn sich die aktuelle Systemplattform ändert. Da bei der Emulation jedoch das Werk selbst unverändert bleibt und die ständige Anpassung der Werke an neue Plattformen wegfällt, bietet sie unbestreitbare Vorteile für die Langzeitbewahrung. Die Komplexität der Computerspiele als interaktive, zeit-, bild- und tonkritische Anwendungen macht ihre Bewahrung zur Nagelprobe für das Gelingen digitaler Bewahrung.

Die Anfänge der digitalen Bewahrung

Es ist keine Besonderheit der Games-Kultur, dass die erste Initiative zur Bewahrung von Kulturgütern von den Fans ausging: So wie die Cinémathèque in Paris als eines der ersten Archive für die noch junge Filmkultur 1935 von Filmenthusiasten um Henri Langlois gegründet wurde, waren es auch die Fans früher Computerspiele, die den kulturellen Wert der Spiele erkannten und erste Ansätze entwickelten, um diese Kultur zu bewahren.

Gaming-Fans waren allerdings die ersten Liebhaber, die sich an diese Aufgabe unter den Bedingungen des Internets machten. Mehr noch: Sie gehörten zu den ersten Internet-Communitys überhaupt, die das World Wide Web Mitte der 1990er Jahre mit ihrem Hobby besetzten und damit begannen, die Geschichte ihres geliebten Kulturguts kollaborativ aufzuschreiben. Als Anfangspunkt dieser Bewegung lässt sich der 7. Dezember 1992 festhalten: Mit alt.games.video.classic wurde die erste Newsgroup gegründet, die sich dem Austausch von Nachrichten und Diskussionen ausschließlich über klassische Videospiele widmete.

Diese erste Phase lässt sich mit einer mündlichen Geschichtsüberlieferung vergleichen: Vieles wurde eher dem Hörensagen nach festgehalten – Dinge, die man auf anderen Seiten gelesen hatte, wurden zusammenkopiert oder verlinkt. Genauigkeit wurde zwar angestrebt, systematisch und wissenschaftlich fundiert waren die Aktivitäten aber nicht. Dennoch: Parallel zu dieser ersten Geschichtsschreibung entstanden bereits umfangreiche Archive und Metadatensammlungen, die ebenfalls von Fans zusammengetragen wurden. Dazu gehören etwa die Projekte Home of the Underdogs und mobygames.com.

Bewahrung im Wettlauf mit der Technik

Bedingt durch die schnelle technische Entwicklung der Abspielplattformen sind Spiele schon nach kurzer Zeit obsolet und nur noch mit Glück gebraucht zu bekommen. Insofern waren die Fans der alten Spiele darauf angewiesen, eigene Bewahrungsansätze zu realisieren. Zwei Aspekte dieses Prozesses verdienen es, hervorgehoben zu werden:

Erstens handelte es sich bei diesen Fan-Communitys von Anfang an um globale Communitys. Dies nicht nur in Bezug auf die technische Kommunikationsgrundlage Internet, die keine nationalen Grenzen kannte. Die globale Ausdehnung der Fangemeinschaft war dem globalen Charakter der Games selbst geschuldet, die von Anfang an für einen möglichst weltweiten Markt produziert und verkauft wurden. Wie sich dieser Unterschied auf die zukünftigen organisatorischen Strukturen der Computerspielebewahrung auswirken wird, muss sich noch zeigen, sind doch Bewahrungsinitiativen traditionell oft in einen nationalen Kontext eingebunden.

Zweitens war es die Community der Gamer selbst, die als Erste praktikable Lösungen entwickelt hat, um diese zu bewahren. Über das Internet bildeten sich offene, kollaborative, globale und üblicherweise nicht-kommerzielle Projekte, die heute auch von etablierten Gedächtnisorganisationen zur Kenntnis genommen werden. Für die Community lag es aufgrund der Komplexität der digitalen Spiele nahe, die Spiele nicht einzeln auf neue Plattformen zu adaptieren, sondern die obsoleten Plattformen selbst in Form von Emulatoren zu bewahren. Die Retro-Gamer waren insofern die ersten Anwender, die das bereits bekannte Modell Emulator nicht als Programmierumgebung für neue Hardware einsetzten, sondern als Werkzeug der Bewahrung.

Emulatoren bilden alte Plattformen auf neueren nach. Hier zu sehen ein Gameboy-Emulator auf einem Taschenrechner der Firma Texas Instruments.

Seitdem sind Millionen von Stunden an hochspezialisiertem Wissen in die Entwicklung der Emulatoren eingeflossen, die unter institutionellen Rahmenbedingungen womöglich hunderte Millionen gekostet hätten. Eines der ältesten und bis heute wichtigsten Emulatorenprojekte ist M.A.M.E., der Multiple Arcade Machine Emulator. Seinen Ursprung hat er in der Emulation historischer Spieleautomaten. Seit der Gründung 1996 sind mindestens 7304 Spieleautomaten (ROM sets) und 3910 einzelne Games für den Emulator adaptiert worden.

M.A.M.E wird auch heute noch weiterentwickelt, doch die letzten Zahlen über emulierte Automatenhardware stammen aus dem Jahr 2008. Auf das Projekt setzen weitere Entwicklungen auf, darunter MESS (Multi Emulator Super System), das seit 1998 entwickelt wird und 632 unterschiedliche Systeme emuliert, von denen das älteste aus dem Jahr 1948 stammt. M.A.M.E. war von Anfang an ein offenes, nicht-kommerzielles Projekt, das ausschließlich von der Community getragen wurde.

Probleme der digitalen Bewahrung: bitrot und Kopierschutz

Unabhängig von der jeweils eingeschlagenen Bewahrungsstrategie ist die Frage relevant, wie lange ein Medium Informationen speichern kann. Der je nach Speichermedium einsetzende Datenverlust wird bitrot genannt. Für das Computerspielemuseum bedeutet dies einen regelmäßigen Verlust an Bits – speziell bei den magnetischen Datenträgern wie Compact Cassetten, Floppy-Discs oder Disketten, auf denen viele der mehr als 20.000 Spiele seiner Sammlung gespeichert sind.

Eine Stichprobe bei Spielen für den C64-Computer ergab, dass bereits ca. zehn Prozent aller Spiele aufgrund nachlassender magnetischer Ladung so weit verrottet sind, dass sie nicht mehr gespielt werden können. Um digitale Sammlungen vor dem Verschwinden zu retten, müssen die Werke von ihren originalen auf stabilere Datenträger überführt werden. Erst mit dem virtuellen Abbild des Werkes, dem Datenträger-Image, kann das Werk von einem Emulator verarbeitet werden.

Da Computerspiele wie viele andere digitale Werke jedoch mit Kopierschutz (DRM) ausgestattet sind, der genau diesen Transfer verhindern soll, sind wir bei diesem Prozess mit weiteren technischen und rechtlichen Herausforderungen konfrontiert. Rein technisch stehen uns zwei alternative Strategien zur Verfügung:

Erstens können die DRM-Maßnahmen gewaltsam außer Funktion gesetzt werden, gemeinhin auch als Cracken bezeichnet. Da dabei der Programmcode des Werkes verändert wird, ist diese Methode – unabhängig von der rechtlichen Problematik – keine befriedigende Option.

Zweitens kann der Kopierschutzmechanismus intakt gelassen werden und wird einfach mitkopiert. In Anbetracht hunderter verschiedener DRM-Mechanismen stellt dieser Ansatz eine immense technische Herausforderung dar, die nur von wenigen Werkzeugen wenigstens teilweise beherrscht wird, etwa dem Kryoflux Controller.

Rechtliche Hürden bei Games

Unabhängig von der Transfermethode sind rechtliche Fragen zu bedenken: Zwar gestattet uns das Urheberrecht in Deutschland, eine Sicherungskopie anzufertigen, doch dürfen wir technische Schutzmaßnahmen dabei nicht umgehen. Das Gesetz bietet nur den Ausweg, die Rechteinhaber um Erlaubnis zu fragen. Im Bereich der Computerspiele bleibt das größtenteils nur eine theoretische Option. Wir haben es mit einem großen Anteil an verwaisten Werken zu tun, bei denen es entweder nicht möglich ist, den Rechteinhaber herauszufinden, oder die Rechteinhaber selbst gar nicht wissen, welche Rechte sie tatsächlich besitzen. Zentrale Register, über die man Auskunft einholen könnte, haben sich im jungen Games-Markt noch nicht gebildet. Viele Firmen sind nach kurzer Lebensdauer wieder vom Markt verschwunden, die von ihnen gehaltenen Rechte wurden aufgesplittet und weiterverkauft.

Erschwerend kommt hinzu, dass Games ihrer komplexen Natur gemäß aus Werkteilen unterschiedlicher Rechteherkunft bestehen. Es ist üblich, dass man es bei einem Spiel mit einer Vielzahl an Rechteinhabern zu tun hat. Die zweite Möglichkeit, zu warten, bis das Urheberrecht abgelaufen ist, ist bei der gegenwärtigen Frist von 70 Jahren keine Lösung, da sich nach diesem Zeitraum kein funktionierendes Werk mehr auf einem alten Datenträger befinden würde.

Probleme und Grenzen der Emulatorenstrategie

Jedes Werk, auch das digitale, benötigt Schnittstellen, über das es von Menschen wahrgenommen und im Fall von interaktiven Werken gesteuert werden kann. Diese Ein- und Ausgabeschnittstellen sind kein Bestandteil des Codes an sich, sondern sind seine Peripherie. Ein klassischer Videospieleautomat wie etwa Tempest (Atari 1980) besitzt einen Trackball als Eingabe- und einen Vektormonitor als Ausgabeschnittstelle. Führt man den originalen Programmcode über einen Emulator auf einem aktuellen Desktoprechner aus, fehlen beide historische Schnittstellen. Da beide jedoch wesentlich zum originalen Spielerlebnis beitragen, muss diese „historische Aufführungspraxis“ bedacht werden. Eine vom Computerspielemuseum praktizierte Lösung für historische Videospieleautomaten besteht darin, einen aktuellen Computer mitsamt Emulator in die alten Gehäuse mit den originalen Schnittstellen einzubauen, sodass das Look-and-feel des ursprünglichen Werkes weitgehend beibehalten wird.

tempest

Das Arcade-Spiel „Tempest” im Original. Foto: Rob DiCaterino, CC BY.

Ein weiteres Problem besteht in der Notwendigkeit, die Emulatoren selbst immer wieder an die aktuellen Plattformen anzupassen. Immer, wenn ein neues Betriebssystem oder eine neue Hardwarearchitektur etabliert wird, müssen auch die Emulatoren auf diese angepasst werden, was aufwändige Neuprogrammierungen notwendig machen kann. Bisher haben die Programmierer von Emulatoren freiwillig und ohne Budget solche Portierungen – etwa von DOS auf Windows 95, von Windows 95 auf Windows XP – vorgenommen. Sie haben eine mehr oder weniger persönliche Beziehung zu den Spielen und Originalplattformen, jedoch können wir nicht davon ausgehen, dass die immer wieder notwendig werdenden Anpassungen auch mittel- bis langfristig auf diese Weise geleistet werden können.

Abhilfe könnten virtuelle Maschinen bringen, die speziell zu Bewahrungszwecken geschaffen werden. Bereits im Jahr 2000 hat Jeff Rothenberg eine solche Schnittstelle für Emulatoren vorgeschlagen (PDF). Sie würde die notwendigen Anpassungsprozesse auf ein Minimum reduzieren. Seine Idee einer Emulation Virtual Machine (EVM) führt eine Zwischenebene ein: eine Schnittstelle, die als virtuelle Maschine zwischen dem aktuellen Betriebssystem und den Emulatoren implementiert wird und auf die die Emulatoren einmalig portiert werden müssen.

Der Vorteil besteht darin, dass bei einem Wechsel der aktuellen Kombination aus Hardware und Betriebssystem lediglich die virtuelle Maschine an das neue System angepasst werden muss, nicht der jeweilige Emulator. Da wir es mittlerweile mit dutzenden von obsoleten Hardwareplattformen und mindestens ebenso vielen verschiedenen Emulatoren zu tun haben, ist der Nutzen leicht erkennbar. Ohne sie müssten alle Emulatoren einzeln angepasst werden, sobald das aktuelle Computersystem wechselt. Allerdings stellt die Programmierung einer solchen virtuellen Maschine technisch eine so große Herausforderung dar, dass mit einsatzfähigen Lösungen zumindest zeitnah nicht zu rechnen ist.

Gaming-Community und traditionelle Gedächtnisorganisationen

Während die Gamer-Community von Anfang an auf Emulation statt auf Migration setzte, erwies sich die Migration für traditionelle Gedächtnisorganisationen zunächst als eine praktikable Methode. Doch wurden einerseits die zu bewahrenden Artefakte immer komplexer, andererseits wuchs mit jedem abermaligen Migrationsschritt die Bereitschaft, sich alternativen Methoden wie der Emulation zu öffnen.

Das EU-Forschungsprojekt KEEP (Keeping Emulation Environments Portable) steht für diesen Wendepunkt, zusammen mit einer Reihe weiterer Initiativen – wie dem EU-Projekt PLANETS und der Open Planets Foundation, auf nationaler Ebene mit dem baden-württembergischen Langzeitarchivierungsprojekt bwFLA. Alle diese Initiativen und Projekte greifen Werkzeuge und Ansätze auf, die in der Retro-Gamer-Community entstanden sind, und passen sie institutionellen Bedürfnissen an. Etwa beim Emulation Framework, das im Rahmen von KEEP entstanden ist. Es bietet die Möglichkeit, existierende Emulatoren mit bestehenden digitalen Sammlungen zu verbinden. Der Archivar muss sich hier nicht mehr mit den verschiedenen Einstellmöglichkeiten der unterschiedlichen Emulatoren auseinandersetzen, sondern findet die einheitliche Benutzeroberfläche eines Archivsystems vor.

Im Ergebnis all dieser Tendenzen erleben wir, wie sich die Verantwortung, das digitale Spieleerbe zu bewahren, von den Fans hin zum institutionellen Sektor verlagert. Auch wenn damit ein höherer materieller Ressourceneinsatz einhergeht, ist es ein notwendiger und folgerichtiger Schritt. Die Motivation der bisherigen Emulatoren-Programmierer und ihr emotionaler Bezug zu den Spielen und Plattformen werden zukünftigen Generation wohl fehlen. Einzelne Personen können nicht ersetzen, was Institutionen für die Bewahrung des Spieleerbes leisten können. Es ist dennoch bemerkenswert, wie viele Ressourcen bereits in Werkzeuge geflossen sind, die jetzt übergeben, weitergenutzt und -entwickelt werden, ohne dass dafür öffentliche Mittel geflossen sind.

Das Gaming-Museum der Zukunft

Um großangelegte Archivsysteme auf Emulatorenbasis technisch zu realisieren, sind heute alle benötigten Komponenten verfügbar. Kombiniert man diese mit den ebenfalls existierenden Streamingtechnologien, ergibt sich daraus ein Bild, wie zukünftige Archive eingerichtet sein können, die den Zugang zu ihren Sammlungen über das Internet organisieren. In diesem Zusammenhang sind Emulatoren nicht nur notwendiger Bestandteil einer Bewahrungsstrategie, sondern eröffnen auch breite Möglichkeiten des Zugangs.

Sicher trifft das hier Gesagte vor allem auf diejenigen digitalen Werke zu, die auf physikalischen Datenträgern vorliegen. Heute tritt der internetbasierte Zugang zu digitalen Werken als Service zunehmend an die Stelle des auf Speicherkarten, DVDs oder anderen Datenträgern angebotenen Werkexemplars. Hier sind Spiele ebenfalls Vorreiter der Entwicklung, die auch ihre Bewahrung vor neue Herausforderungen stellt. Für diese Spiele müssen nicht nur lokale Systeme, sondern ganze Serverstrukturen inklusive ihrer Online-Bezahlsysteme mit Hilfe von Emulatoren bewahrt werden. Prinzipiell ist das kein anderer Ansatz, doch kann etwa die soziale Interaktion – die für viele dieser Services wesentlich ist – nicht mit Hilfe von Emulation abgebildet werden. Hier wird man die digitale Bewahrung mit den traditionellen Mitteln und Fähigkeiten der Archivare ergänzen und Dokumentationen parallel zur Codebasis des Werkes erstellen müssen.

Akuter Handlungsbedarf besteht vor allem im juristischen Bereich. Solange die Rechtslage keinen praktikablen Transfer der Werke auf stabilere Datenträger zulässt, wird es nicht möglich sein, die Bewahrungsaktivitäten der Community auf eine tragfähige institutionelle Basis zu stellen. In Anbetracht der sich aufgrund von bitrot auflösenden Spielesammlungen ist schnelles Handeln gefordert. Ein möglicher Weg könnte eine neue Regelung im Urheberrecht sein, die es Archiven erlaubt, Kopierschutzmechanismen zu umgehen. In den USA wurde dies mit einer Ergänzung des Digital Millennium Copyright Act bereits 2003 vollzogen.

Mehr Einsatz für Games als Kulturgut nötig

Ein Bewusstsein des Gesetzgebers, dass Games ebenso wie Bücher, Musikstücke und Filme digitale Werke darstellen und zum kulturellen Erbe gehören, ist jedoch noch kaum ausgeprägt. Dies zeigte sich auch bei der europäischen Richtlinie zu verwaisten Werken, die eine Möglichkeit geboten hätte, eine entsprechende Regelung zu verankern. Hier bleibt nur, langwierige Erklärungs- und Überzeugungsarbeit zu leisten. Europäische Einrichtungen haben erst kürzlich mit EFGAMP, der European Federation of Game Archives, Museums and Preservation Projects, einen eigenen Verband gegründet. Neben Lobbyarbeit und der Verbreitung von Wissen soll er auch Bewahrungs- und Beschreibungsstandards etablieren. Im Initiatorenkreis sind Organisationen aus der Gaming-Community ebenso vertreten wie klassische Gedächtniseinrichtungen, etwa die Dänische Nationalbibliothek und das Nationale Medienmuseum Englands.

Mit dieser Herangehensweise lassen sich die Qualitäten und Möglichkeiten beider Bereiche kombinieren. Neben den in der Retro-Gamer-Community entwickelten Werkzeugen können Nutzer zum Beispiel bei der Beschreibung von Werken wichtige Aufgaben übernehmen. In keinem anderen kulturellen Bereich sind die Möglichkeiten, große Metadatensammlungen mit Hilfe der Nutzer zu erzeugen, so erfolgreich erprobt worden wie bei Computerspielen. Mit den Jahren sind große und umfangreiche Sammlungen entstanden, die permanent von den Nutzern erweitert werden, ohne dass große Mittel zur Verfügung standen. Ein gutes Beispiel ist mobygames.com, dessen Inhalte ausschließlich von Nutzern erstellt wurden und das im Juli 2013 über detaillierte Beschreibungen von 73 844 Spielen auf über 138 verschiedenen Plattformen verfügt. Der Computerspiele-Leihservice Gamefly erkannte den Wert solcher Sammlungen und kaufte die Plattform 2010 auf.

All das zeigt, welche Chancen in der Kooperation und dem Zusammenwachsen der Retro-Gamer-Community mit den traditionellen Gedächtnisorganisationen liegen – auch für die Bewahrung digitaler Kulturgüter jenseits des Spielebereichs. Die neuen Möglichkeiten, den Zugang dauerhaft und niederschwellig zu organisieren, übertreffen die Schwierigkeiten, denen wir hier gegenüberstehen, bei weitem.

Dieser Artikel ist zuerst im Buch „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt” erschienen. Der von Paul Klimpel und Jürgen Keiper herausgegebene Band ist heute bei iRights.Media als Print, E-Book sowie frei im Netz erschienen.

Zur Person

A_LangeAndreasAndreas Lange ist Direktor des Computer­spiele­museums in Berlin, das er seit 1996 aufgebaut hat. Er war Projektleiter des Computer­spiele­museums für das europäische Forschungsprojekt KEEP und ist Sprecher der AG Emulation des Langzeitarchivierungs-Netzwerks Nestor und Sprecher von EFGAMP. Sein Studium der Religions- und Theaterwissenschaft schloss er mit der Abschlussarbeit „Die Geschichten der Computerspiele betrachtet unter mythentheoretischen Gesichtspunkten“ ab. Foto: Joerg Metzner.

September 23 2013

Buchvorstellung am 25.9. in der DNB Frankfurt: „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt”

In eigener Sache: Was bleibt von den Zeugnissen des kulturellen Schaffens und der Wissenschaft, die auf digitalen Trägern festgehalten werden, in 5, in 20 oder in 100 Jahren? Das fragt eine neue Publikation von iRights.Media. Am 25.9. wird sie in der Deutschen Nationalbibliothek in Frankfurt am Main vorgestellt.

cover_was_bleibtDie Publikation hält die Diskussionen der Initiative „Nachhaltigkeit in der digitalen Welt” fest. Vor welchen Herausforderungen traditionelle ebenso wie neuartige Gedächtnisorganisationen bei der Erhaltung des kulturellen Erbes und beim Übergang zu digitalen Trägermedien stehen, hat die Initiative des Internet und Gesellschaft Collaboratory in Kooperation mit dem Langzeitarchivierungs-Netzwerk Nestor, dem iRights.Lab Kultur und dem Institut für Museumsforschung in Expertenworkshops untersucht. Finanziell unterstützt wurde die Initiative von EMC2 und Google Deutschland.

Die Vorstellung des von Paul Klimpel und Jürgen Keiper herausgegebenen Buchs findet am 25. September 2013 von 17 bis 19 Uhr in der Deutschen Nationalbibliothek (Adickesallee 1, 60322 Frankfurt am Main) statt. Dann erscheint das Buch zugleich als Print und E-Book.

Hier kann man sich zur Veranstaltung anmelden.

Einen Einblick in die Arbeit und Themen der Initiative bietet auch die Dokumentation und Linksammlung zur Abschlussveranstaltung im Mai.

September 20 2013

Abmahnbremse, verwaiste Werke, Zweitveröffentlichungen: Bundesrat winkt Gesetzesänderungen durch

Abmahnungen sollen für Nutzer nur noch 155,30 Euro kosten, Bibliotheken und andere Einrichtungen können Werke ohne klaren Rechtsinhaber online stellen, Wissenschaftler ihre Artikel frei im Netz veröffentlichen. Der Bundesrat winkte heute Änderungen am Urheberrecht durch. Doch überall lauern gewichtige „Wenns” und „Abers“.

Zwei Tage vor der Bundestagswahl hat der Bundesrat heute mehreren Gesetzesänderungen zugestimmt, die die schwarz-gelbe Koalition auf den Weg gebracht hat. Die Regierung hatte sich Zeit gelassen: Die Deckelung der Abmahnkosten hing lange fest; von weiteren, als „Dritter Korb” angekündigten Reformen blieb kaum etwas übrig. Zwar hatten die Länder an den neuen Regelungen Kritik geäußert, am Ende aber stimmten sie diesen nun zu. Drei Regelungen haben damit den Weg durch den Bundesrat genommen.

1. Die Abmahndeckelung

Um die Abmahnindustrie beim Filesharing einzudämmen, will das „Gesetz gegen unseriöse Geschäftspraktiken” die Kosten deckeln: Der Streitwert bei der ersten Abmahnung wird auf 1000 Euro begrenzt, Nutzer müssten dann höchstens 155,30 Euro zahlen, sofern es beim außergerichtlichen Verfahren bleibt. Landet der Fall vor Gerichten, gilt die Regel nicht.

Weitere Änderungen kommen hinzu: Der „fliegende Gerichtsstand” bei Urheberrechtsabmahnungen wird eingeschränkt. Bislang konnten sich Abmahner ein für sie als günstig bekanntes Gericht aussuchen; jetzt wird der Wohnort des beklagten Nutzers maßgeblich sein. Pauschalsummen sind in Filesharing-Abmahnungen nicht mehr erlaubt: Was Anwaltsgebühr und was Schadensersatz ist, müssen die Abmahner einzeln aufschlüsseln. Bei Missbrauch soll der Nutzer einen Gegenanspruch erhalten.

Wenn & Aber: „Besondere Umstände”

Ganz neu ist die Idee der Abmahndeckelung nicht. Tatsächlich ist eine ähnliche Regelung schon seit 2008 in Kraft. Auch diese sollte Abmahnungen eindämmen, blieb aber de facto wirklungslos. Die große Koalition hatte die Anwaltskosten sogar auf 100 Euro begrenzt – in „einfach gelagerten Fällen mit einer nur unerheblichen Rechtsverletzung außerhalb des geschäftlichen Verkehrs”. Doch was im Gesetz als Ausnahme erschien, wurde zur Regel: Die Gerichte sahen Filesharing-Fälle meist nicht als „unerheblich” an und unterstellten „gewerbliches Ausmaß”.

SPD, Linke und Grüne kritisieren, auch das neue Gesetz weise Hintertüren auf. Denn die 1000-Euro-Regel zum Streitwert gilt nicht, wenn „dieser Wert nach den besonderen Umständen des Einzelfalles unbillig“ ist, wie es im Gesetz heißt. Auch wo urheberrechtlich geschützte Werke für „gewerbliche oder selbständige berufliche Tätigkeit” verwendet werden, gilt sie nicht. Der Bundesrat wollte das eigentlich ändern. Seine Vorschläge: 500 Euro Streitwert, keine Hintertür für besondere Umstände; sonst werde das Problem nicht behoben, sondern lediglich in neuem Gewand fortgeschrieben – heißt es in einem Beschluss im Mai (PDF). Nun stimmte er dennoch zu.

2. Verwaiste und vergriffene Werke

Für Digitalisierungsprojekte wie die Europeana und die Deutsche Digitale Bibliothek ist es ein häufiges Problem: Sie können Werke, deren Rechteinhaber nicht bekannt oder nicht mehr auffindbar sind, nicht nutzen. Sie dürfen sie daher weder digitalisieren noch online stellen. Die Bundesregierung setzt mit der Regelung für verwaiste Werke eine EU-Richtlinie um, die letzten Herbst beschlossen wurde. Öffentliche Einrichtungen wie Archive, Bibliotheken oder öffentlich-rechtliche Sender dürfen verwaiste Werke nun im Netz verfügbar machen, sofern sie „sorgfältig” nach Rechteinhabern gesucht haben. Auch vergriffene Werke, die vor 1966 erschienen sind, werden von der neuen Regelung umfasst. Die Rechte für diese Werke werden bei Verwertungsgesellschaften gebündelt, auch für solche, bei denen das ursprünglich nicht vereinbart war.

Wenn & Aber: Wer ist dabei, was ändert sich?

Die Grundzüge des Gesetzes sind durch die EU-Richtlinie vorgegeben, für wesentliche Änderungen durch die Koalition war es damit bereits zu spät. Eine der Kritiken: Die Regelung hält den Kreis der „privilegierten Institutionen”, die die Werke nutzen dürfen, klein. Kommerzielle Nutzungen – darunter in der Wikipedia – sind nicht erlaubt. In der Praxis werde sich an den Problemen von Archiven, Bibliotheken und Museen wenig ändern, schrieb etwa Paul Klimpel bei iRights.info. Die Änderungswünsche des Bundesrats im ersten Durchgang beschränkten sich auf Details (PDF).

3. Zweitveröffentlichungsrecht für Wissenschaftler

Auch das Zweitveröffentlichungsrecht für Wissenschaftler wurde bereits seit vielen Jahren diskutiert. Haben Wissenschaftler die Rechte für Veröffentlichungen an einen Verlag abgetreten, dürfen sie ihre Artikel nicht gleichzeitig auf der Website der Universität oder bei einem Online-Repository anbieten. Das neue Zweitveröffentlichungsrecht erlaubt Wissenschaftlern diese Nutzung unter bestimmten Bedingungen. Es beschreitet damit die sogenannte „Green Road“ für Open Access. Bei der „Golden Road” steht bereits die Erstveröffentlichung in einem Journal unter Open-Access-Konditionen.

Wenn & Aber: Nicht für alle, ein Jahr warten

Mit der jetzt verabschiedeten Regelung hat sich die Koalition wenig Freunde gemacht: Gleich von zwei Seiten schlägt ihr Widerstand entgegen. Während Wissenschaftsverlage ihr Geschäftsmodell bedroht sehen und mit der Wissenschaftsfreiheit argumentieren, sehen sich in der Wissenschaftscommunity viele mit Minimalfortschritten abgespeist. Das „Aktionsbündnis Urheberrecht für Bildung und Wissenschaft“ forderte zuletzt sogar, ganz auf die Regelung zu verzichten. „Eine Ablehnung des Bundesrats zum jetzigen Zeitpunkt eröffnet die Chance, in der nächsten Legislaturperiode das Zweitverwertungsrecht neu zu formulieren und in einen größeren Kontext zu stellen”, hieß es in einer Erklärung. Das stieß jedoch auch auf Kritik; nicht alle Wissenschaftsorganisationen unterstützen die Position.

Kern der Kritik aus der Wissenschaft: Das neue Recht gilt nicht für alle Wissenschaftler, sondern nur für Arbeiten aus drittmittel-finanzierter und außeruniversitärer Forschung, sofern öffentliche Gelder dahinterstehen. Wenn aber das Zweitveröffentlichungsrecht von der Drittmittel-Quote der Einrichtungen und Fachbereiche abhänge, dann entstehe eine Dreiklassengesellschaft, kritisierte der Bundesrat im Mai (PDF) und wollte das Recht auf alle Wissenschaftler an öffentlich finanzierten Hochschulen ausweiten.

Ebenfalls sollte die Embargofrist von 12 auf 6 Monate verkürzt werden, neben Zeitschriftenartikeln auch Sammelbände von der Regel umfasst sein. Am Ende empfahl der Rechtsausschuss dennoch die Zustimmung, wenn auch mit zusätzlicher Forderung nach wissenschaftsfreundlicheren Regelungen. Dem hat sich der Bundesrat nun angeschlossen.

September 05 2013

Gabriele Beger: „Das Urheberrecht ist für Bibliotheken wissenschafts- und bildungsfeindlicher geworden“

Drei Fragen zur Zukunft des Urbeheberrechts* an Gabriele Beger, Direktorin der Staats- und Universitätsbibliothek Hamburg. Beger fordert die Politik auf, das Urheberrecht gesellschaftlich breiter zu diskutieren und kleinteilige Ausnahmeregelungen wieder zu vereinfachen

iRights.info: Welchen zentralen Problemen stehen die Bibliotheken beim Urheberrecht momentan gegenüber?

Dr. Gabriele Beger, Direktorin der Staats- und Universitätsbibliothek Hamburg

Gabriele Beger ist Direktorin der Staats- und Universitätsbibliothek Hamburg und Vorsitzende des Fachausschusses Urheberrecht des Deutschen Kulturrats. Sie lehrt an der HU Berlin, der FH Potsdam und der Uni Hamburg. Foto: SUB Hamburg

Gabriele Beger: Vom Urheberrecht aus betrachtet, beruht der Versorgungsauftrag der Bibliotheken mittlerweile auf einem Katalog von Ausnahmen. Nehmen wir beispielsweise den Versand von Kopien, also von Kapiteln oder Seiten aus Büchern oder Artikel aus Fachzeitschriften. Das war im analogen klar geregelt und geübte Praxis. Für digitale Kopien aus analogen Werken fürchteten viele, diese Praxis führe zu massenhafter Weiterverbreitung der digitalen Kopien ohne entsprechende Kompensation.

Demnach wurde der Kopienversand als Problem betrachtet und dann stellte der Bundesgerichtshof eine Lücke fest, die der vom Gesetzgeber formulierte Paragraf 53a des Urheberrechtsgesetzes schließen sollte. Dieser Paragraf formuliert, dass Bibliotheken elektronische Kopien nur als grafische Datei versenden dürfen, was bedeutet, dass die enthaltenen Texte nicht direkt nutzbar sind. Zudem sei die digitale Kopie nur gestattet, wenn der Verlag diese auch anbietet. Zugleich muss bestimmt werden, ob das Verlagsangebot angemessen im Preis ist. Diese ganzen Bestimmungen verkomplizieren unsere Arbeit enorm.

Im Grunde gingen die Erfinder dieser Regelungen von der Annahme aus, Verlage würden durch die Praxis des Kopienversands in digitaler Form Verluste erleiden, weil verlockender Missbrauch zunähme. Gekommen ist es aber genau umgekehrt: Der Kopienversand ist bei den Bibliotheken deutlich zurückgegangen. Es stellt sich heraus, dass die generelle Verfügbarkeit digitaler Ressourcen bei den Nutzern auch den Bedarf am Kauf dieser Ressourcen steigert.

Das heißt, die gefürchteten „Markteingriffe zu Lasten der Verlage“, die auf die Bibliotheken projiziert wurden, traten gar nicht ein. Stattdessen sehen wir uns in unserem Auftrag – der schnellen Bereitstellung von Informationen – durch diese und weitere, nach und nach eingerichtete Ausnahmen im Urheberrecht, wie die Paragrafen 52a und 52b, mehr und mehr behindert.

Die Bibliotheksbesucher erwarten, dass sie digitale Medien so unmittelbar nutzen können wie analoge Medien, für die Schule, in der Lehre, beim Studieren. Doch das ist mit elektronischen Werken nicht ohne Weiteres möglich und das hat zum einen mit Lizenzrechten und Nutzungsbegrenzungen zu tun. Zum anderen sind umfangreiche analoge Bestände noch gar nicht digitalisiert, wir sprechen hier von vergriffenen und verwaisten Werken.

Im Digitalen hat sich also etwas herausgebildet, was viel mit Rechteeinräumung und Abrechnungen von Lizenzen zu tun hat. Es geht um Differenzierungen für die Nutzung nach Dauer, in Umfängen und für Art und Weisen, die ein Verlagskaufmann vielleicht versteht, aber der Bibliotheksnutzer nicht. Kopien im elektronischen Umfeld sind durch Kopierschutzmechanismen und Digital Rights Management detailliert regulierbar. Zudem lassen sich Nutzungen nicht nur limitieren, sondern auch protokollieren und daraus Berechnungen und Kompensationen ableiten. Problematisch wird das für Bibliotheken unter anderem, wenn beispielsweise Lizenzzahlungen jedes Jahr auf‘s Neue erforderlich sind – und anderenfalls die Titel umgehend aus dem Bestand fallen.

Aus all dem ergibt sich – über den Medienbruch vom Analogen zum Digitalen hinaus – vor allem einen Bruch bei der Bereitstellung von Wissen, und das ist wahrlich ein Problem. Im Grunde sind dies doch wirtschaftliche Parameter einer Branche, denen das Urheberrecht nicht untergeordnet werden sollte. Vielmehr müsste es davon entkoppelt und entsprechend losgelöst formuliert sein.

iRights.info: Bibliotheken brauchen also mehr Rechtssicherheit?

Gabriele Beger: Ja. Und zwar dahingehend, dass ihre gesellschaftliche Leistung klar definiert wird. Nicht hunderte von Ausnahmen, die sich keinem wirklich erschließen. Ich erwarte ein klares Bekenntnis, was die Nutzer dürfen und was sie nicht dürfen, nicht diesen Flickenteppich spezifischer und kleinteiliger Regelungen.

Aus meiner Perspektive ist das Urheberrecht aufgrund dieser ganzen Ausnahmeregelungen und Erweiterungen für uns Bibliotheken unpragmatischer, wissenschafts- und bildungsfeindlicher geworden. Bibliothekare sind gut ausgebildet, können aber nicht zu Urheberrechtsberatern werden, um die Nutzer in diesem komplexen Geflecht an Rechten und Nutzungsoptionen zu unterstützen.

iRights.info: Was sollte die künftige Bundesregierung in Bezug auf das Urheberrecht unbedingt anpacken?

Gabriele Beger: Es wäre von einer künftigen Bundesregierung ehrlicher, die verquasten Ausnahmen im Urheberrechtsgesetz von Paragraf 52a bis Paragraf 53b zu streichen und zu fragen, was die wissenschaftliche Bildung für Regelungen benötigt. Im Sinne gesellschaftlicher Bedarfe. Selbstverständlich muss sie dabei berücksichtigen, dass auch bei einfacheren Regelungen Geld fließen muss, und zwar am besten direkt zu den Urhebern und Autoren – statt überwiegend Verlagen und Agenturen, wie es jetzt der Fall ist.

Die Politik muss die Balance wiederherstellen zwischen den widerstrebenden Interessen, und da sollte die Überlegung eine Rolle spielen, wie viel dem Staat seine Bürger und deren Bildung wert sind. Zudem laufen die Debatten dazu schon so lange, dass man wohl erneut überprüfen muss, ob bisherige Argumente noch stimmen oder sich die Gegebenheiten schon wieder neu darstellen. Die künftige Regierung sollte sich fragen: Was bewirkt das jetzige Urheberrecht im hier und heute? Kopien in digitalen Netzen sind eben etwas ganz anderes als Kopien früher.

Ich finde außerdem: Wir müssen diese Diskussion grundsätzlicher und gesellschaftlich breiter führen, und sie nicht zwischen Verlagen und Bibliotheken austragen lassen. Verlage wirken en gros schon länger nicht mehr als idealistische Kulturträger, sondern sind von Kaufleuten und Betriebswirtschaftlern geführt. Ich will ihnen keineswegs verdenken, dass sie wirtschaftlich funktionieren und Gewinne machen wollen. Nur haben die Bibliothekare ihnen gegenüber eine schwache Rolle, vor allem weil sie nicht sagen können: Danke wir verzichten auf dieses Medium.

Doch gerade deswegen müsste ein neuer Grundsatz her, der sich dann in einem vereinfachten Urheberrechtsgesetz wieder findet, das vielleicht gar keine Ausnahmen mehr benötigt.

*In eigener Sache: Am 6. September veranstaltet die Initiative Urheberrecht zusammen mit dem iRights Lab den Urheberkongress 2013. In dieser Reihe befragt iRights.info Referentinnen und Referenten des Kongresses zur Zukunft des Urheberrechts.

July 19 2013

Was bringt der WIPO-Blindenvertrag?

Der kürzlich in Marrakesch geschlossene internationale Vertrag der WIPO erlaubt es, Bücher in für Blinde und Sehbehinderte lesbare Varianten zu überführen – ein bemerkenswerter Erfolg nach langer Zeit ungewisser Aussichten. Kaya Köklü analysiert den Vertrag im Detail und seine Folgen.

Viele Jahre wurde bei der Welturheberrechtsorganisation WIPO über einen internationalen Vertrag diskutiert und verhandelt, der eine neue urheberrechtliche Schranke für Blinde, Sehbehinderte und Menschen mit Leseschwäche ermöglichen sollte. Lange Zeit sah es aus, als würde eine Einigung scheitern: Zum einen an den teils diametralen Auffassungen darüber, ob der Vertrag erforderlich ist. Zum anderen an den Auffassungen über den Umfang einer solchen Schranke – einer Bereichsausnahme vom urheberrechtlichen Normalfall.

Selbst eine im April dieses Jahres kurzfristig einberufene Sondersitzung des zuständigen Forums innerhalb der WIPO – des Standing Committee on Copyright and Related Rights – brachte für die damals bereits angesetzte diplomatische Konferenz in Marrakesch keinen Durchbruch. Zu viele wesentliche Punkte standen noch zur Diskussion, ohne dass ein Konsens in Sicht schien.

Wende in Marrakesch

Dennoch fand die Diplomatische Konferenz wie geplant vom 17. bis 28. Juni 2013 in Marrakesch statt. Die ersten Tage der Verhandlungen verliefen ausgesprochen zäh, was im Grunde auch nicht anders zu erwarten war. Doch mit fortschreitender Zeit wurde spürbar, dass keine Delegation die Konferenz ergebnislos und damit ohne Vertrag verlassen wollte.

In der Nacht des 25. Juni 2013 wurde dann euphorisch eine Einigung über einen Vertragstext verkündet, den (nahezu) alle Seiten als gutes und praktikables Ergebnis feiern. Selbst Stevie Wonder löste sein Versprechen ein und reiste kurzfristig nach Marrakesch, um den Delegierten am letzten Abend als kleines „Dankeschön“ ein unvergessliches Privatkonzert zu geben.

Der Vertrag im Detail

Der vereinbarte Vertragstext (PDF) enthält einige bemerkenswerte Eckpunkte, die darauf hoffen lassen, dass sich nicht nur rechtlich, sondern auch in der Praxis einiges bewegen wird:

Wer wird begünstigt?

Der Vertrag verpflichtet die Unterzeichnerstaaten, eine zwingende urheberrechtliche Schranke zugunsten von Menschen einzuführen, die aufgrund einer Behinderung nicht in der Lage sind, gedruckte Texte zu lesen (Artikel 4). Die Definition der begünstigten Personen ist erfreulich weit, so dass nicht nur Blinde und Sehbehinderte umfasst sind, sondern auch Menschen mit Leseschwäche oder körperlicher Behinderung, die einen gedruckten Text daher nicht lesen können (Artikel 3).

Diesen Menschen soll ein möglichst barrierefreier Zugang zu urheberrechtlich geschützten Texten, Notationen und dazugehörigen Illustrationen ermöglicht werden. Um dieses Ziel zu ermöglichen, sieht der Vertrag vor, die ausschließlichen Rechte auf Vervielfältigung, Verbreitung und öffentliche Zugänglichmachung – die Veröffentlichung im Internet – zwingend zu beschränken (Artikel 4).

Wer darf Blindenversionen erstellen?

Die im Vertrag genannten Einrichtungen (sogenannte authorized entities), sind berechtigt, von der Schranke Gebrauch zu machen. Zu ihnen zählen nicht nur staatliche Stellen oder anerkannte Blindenorganisationen, sondern insbesondere auch Bibliotheken (Artikel 2c).

Diesen Einrichtungen wird unter anderem das Recht zugestanden, diejenigen Änderungen an urheberrechtlich geschützten Werken vorzunehmen, die erforderlich sind, um sie den Blinden und Sehbehinderten in einem barrierefreien Format zugänglich zu machen (Artikel 4a).

Vorrang der Schranke bei Kopierschutz

Bemerkenswert ist, dass der Vertrag ausdrücklich – wenn auch sprachlich etwas umständlich – vorsieht, dass technische Schutzmaßnahmen eines Rechteinhabers privilegierte Handlungen im Rahmen der neuen Schranke rechtlich nicht einschränken dürfen (Artikel 7). Das bedeutet: Den im Vertrag genannten Einrichtungen wird das Recht eingeräumt, einen etwaigen Kopierschutz zu umgehen oder zumindest die Herausgabe einer barrierefreien Version des Werkes zu fordern.

Einfuhr auch durch private Nutzer erlaubt

Von weiterer erheblicher Bedeutung sind die Regelungen, die den Export und den Import von barrierefreien Werken erlauben (Artikel 5 und 6). Ein besonderes Anliegen der Blindenorganisationen war hierbei, dass nicht nur die privilegierten Einrichtungen, sondern auch Individualpersonen ein barrierefreies Werk importieren dürfen – jedenfalls, sofern Sie unter den Kreis der Berechtigten (Artikel 3) fallen.

Dies ist vor allem vor dem Hintergrund bedeutsam, dass in vielen Staaten Blinde und Sehbehinderte nicht über Blindenvereinigungen organisiert sind. Von Beginn an klar war, dass auch diese Menschen von dem Repertoire internationaler Anbieter barrierefreier Werke (wie Bookshare.org oder Tiflolibros.com.ar) profitieren sollen.

Ausnahmen für kommerziell erhältliche Titel möglich

Erkennbar ein Ergebnis eines Kompromisses ist die Regelung, nach der es Unterzeichnerstaaten erlaubt ist, die urheberrechtliche Schranke durch ein zusätzlich erforderliches Anwendungskriterium einzugrenzen (Artikel 4 Absatz 4). Es handelt sich hierbei um die Möglichkeit, die Schranke nur auf diejenigen Werke zu anzuwenden, die nicht bereits zu wirtschaftlich angemessenen Bedingungen in einem barrierefreien Format auf dem jeweiligen Markt erhältlich sind.

Demzufolge müssen also privilegierte Einrichtungen zunächst prüfen, ob das Werk im jeweiligen Heimatmarkt nicht bereits kommerziell in einem für Blinde und Sehbehinderte zugänglichen Format angeboten wird, bevor sie Blindenversionen erstellen. Diese Regel kann einen erheblichen administrativen, aber auch finanziellen Aufwand für Blindenorganisationen bedeuten.

Immerhin wurde aber bewusst darauf verzichtet, dieses Kriterium auch auf den grenzüberschreitenden Verkehr (Artikel 5) anzuwenden. Damit brauchen privilegierte Einrichtungen zumindest nicht zu prüfen, ob das Werk auch in dem ausländischen Zielland bereits barrierefrei auf dem Markt zugänglich ist. Wie viele Staaten letztlich von dieser Einschränkung Gebrauch machen wollen, ist derzeit noch nicht abzusehen. Die Regelungen sehen jedenfalls vor, dass diejenigen Staaten eine Erklärung bei der WIPO zu hinterlegen haben (Artikel 4 Absatz 4).

Staaten entscheiden, ob Nutzungen vergütet werden müssen

Im Übrigen bleibt noch zu erwähnen, dass es den Unterzeichnerstaaten freigestellt ist, ob sie die Nutzung im Rahmen des Blindenvertrags vergütungspflichtig ausgestalten (Artikel 4 Absatz 5 ). Dies wird insbesondere für diejenigen Staaten eine Option darstellen, die bereits über ein funktionierendes System von Verwertungsgesellschaften oder über eine steuerfinanzierte Vergütung für vergleichbare Nutzungen verfügen.

Was ändert sich in der Praxis?

Bewertet man die oben genannten Eckpunkte des Marrakesch-Vertrages auf ihre Praktikabilität, kann man feststellen: Den beteiligten Delegationen ist es weitgehend gelungen, sich auf einen Vertragstext zu einigen, der das Leben von Millionen von Sehbehinderten in dieser Welt merklich verbessern kann. Der Vertrag wird – sobald er von den Einzelstaaten ratifiziert ist – privilegierten Einrichtungen ermöglichen, Werke in einem barrierefreien Format über Landesgrenzen hinweg Sehbehinderten zu Verfügung zu stellen.

Nationale Umsetzung entscheidend

Mit diesem Meilenstein wird es gelingen, den leider noch bestehenden Büchernotstand für Sehbehinderte (book famine) zu lindern und das zugängliche Repertoire an Werken in barrierefreien Formaten kontinuierlich auszubauen. Bis Sehbehinderte ihren sehenden Mitmenschen bezüglich der Zugangsmöglichkeiten zu urheberrechtlich geschützten Werken gleichgestellt sind, werden aber sicher noch viele Jahre vergehen. Allerdings ist mit dem multilateralen Konsens im Marrakesch-Vertrag ein wichtiger Schritt in die richtige Richtung getan.

Es bleibt daher zu hoffen, dass möglichst viele Staaten den Vertrag kurzfristig ratifizieren und in nationales Recht umsetzen. Blindenvereinigungen arbeiten bereits intensiv an Mustervorschriften, die den einzelnen Staaten bei der Umsetzung als Vorlage dienen könnten.

Die Folgen für Deutschland

Deutschland wird mit einer Ratifizierung des Marrakesch-Vertrages sein Urheberrechtsgesetz anpassen müssen. Als Ausgangspunkt bieten sich hierfür die Regelungen für behinderte Menschen in Paragraf 45a Urheberrechtsgesetz an, auch wenn die Vorschrift derzeit noch nicht zwischen verschiedenen Arten der Behinderung unterscheidet. Zu erweitern wäre die Vorschrift in jedem Fall um das Recht der öffentlichen Zugänglichmachung.

Darüber hinaus werden wohl neue Regelungen zur Zulässigkeit des grenzüberschreitenden Verkehrs erforderlich. Es ist zu erwarten, dass bei der Umsetzung drei bereits bestehende Regelungen beibehalten werden: Erstens das Kriterium der Erforderlichkeit – die Ausnahme greift nur, wenn nicht bereits eine angepasste Ausgabe verfügbar ist (Paragraf 45a Absatz 1). Zweitens die Vergütungspflicht für entsprechende Nutzungen über eine Verwertungsgesellschaft (Paragraf 45a Absatz 2). Und drittens die Durchsetzung der Schranke gegenüber technischen Schutzmaßnahmen (Paragraf 95b Absatz 1 Nr. 2).

Verzögerungen bei der Umsetzung zu befürchten

Bei einem Treffen der EU-Mitgliedstaaten am 8. Juli 2013 in Brüssel wurde deutlich, dass mit einer schnellen Ratifizierung des Marrakesch-Vertrages kaum zu rechnen ist. Das ist bedauerlich, da jede Verzögerung bei der Ratifizierung die Ungleichbehandlung von Sehenden und Sehbehinderten unnötig aufrechterhält – obschon eigentlich jedem bewusst sein müsste, wie dringend ein barrierefreier Zugang zu Wissen und Kultur gebraucht wird.

Dr. Kaya Köklü ist wissenschaftlicher Referent am Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht in München. Für das Max-Planck-Institut nahm er als Beobachter an der WIPO-Konferenz teil.

June 17 2013

In eigener Sache: „Urheberrecht, Praxis und Fiktion – Rechteklärung beim kulturellen Erbe” erschienen

Das Urheberrecht birgt für Archive, Museen und Bibliotheken viele Probleme, wenn sie Werke nutzen und zugänglich machen wollen. Alle Rechte retrospektiv zu klären, ist etwa bei Filmen mit vielen beteiligten Urhebern fast unmöglich.

In der Praxis sind deshalb an vielen Stellen „Fiktionen” an die Stelle eines lückenlosen Nachweises der Rechtekette getreten: Plausible Vermutungen darüber, wo die Rechte an einem Werk liegen. Eine Bibliothek vermutet zum Beispiel, dass Rechte bei Nachkommen eines Urhebers liegen, was auch falsch sein kann. Zwischen Recht und Praxis entsteht eine Lücke.

Paul Klimpel von iRights.Law hat zu diesem Thema ein Grundlagenpapier für die Nationalbibliothek Luxemburg verfasst und auf dem 2. Europeana Licensing Workshop am 13. und 14. Juni in Luxemburg vorgestellt. Das Papier gibt einen Überblick über die urheberrechtlichen Prinzipien und ihre Folgen, über die Praxis der Rechtezuschreibung; es diskutiert Möglichkeiten, die Lücke zwischen beiden zu schließen und Konsequenzen für die Praxis von Archiven, Museen und Bibliotheken.

Wir veröffentlichen hier das Papier „Urheberrecht, Praxis und Fiktion. Rechteklärung beim kulturellen Erbe im Zeitalter der Digitalisierung” (PDF). Es kann unter Creative-Commons-BY-SA-Lizenz weiterverbreitet und -verwendet werden. Eine englische Fassung wird in Kürze von der Nationalbibliothek Luxemburg veröffentlicht.

March 05 2013

Verwaiste Werke: Die Regelung kommt, die Probleme bleiben

Die Umsetzung der EU-Richtlinie zu verwaisten Werken wird an den Problemen von Archiven, Museen und Bibliotheken nicht viel ändern: Die Rechtesituation bei älteren Werken bleibt weiterhin unklar. Doch vor allem wird sie das Problem angemaßter Rechte nicht lösen.

Verwaiste Werke sind urheberrechtlich geschützte Werke, deren Rechteinhaber nicht bekannt oder nicht lokalisierbar sind, so dass sie nach geltendem Recht nicht genutzt – etwa digitalisiert – werden können. Gerade bei älteren Beständen in Archiven, Museen und Bibliotheken sind verwaiste Werke ein häufiges Phänomen. Besonders offensichtlich wurde das bei den großen Digitalisierungsprojekten wie der Europeana und der Deutschen Digitalen Bibliothek.

Im Oktober 2012 wurde deshalb nach langer Diskussion die EU-Richtlinie über die Online-Nutzung verwaister Werke verabschiedet. Inzwischen liegt auch ein Referentenentwurf des Justizministeriums (PDF) vor, mit dem es die Richtlinie umsetzen will. Der Entwurf orientiert sich eng an den europäischen Vorgaben und enthält viele Rücksichtnahmen auf mögliche Rechteinhaber. Man kann damit rechnen, dass die Regierung den Entwurf noch in dieser Legislaturperiode umsetzen wird.

Wer sollte auch etwas dagegen haben, dass das schon lange offenkundige Problem der verwaisten Werke endlich gesetzlich geregelt wird? Das Problem: Für Archive, Bibliotheken und Museen, die ihre Bestände digitalisieren und online stellen wollen, wird sich in der Praxis wenig ändern oder gar verbessern.

Beschränkter Nutzerkreis

Schon die beschlossene EU-Richtlinie wurde im Vergleich zu den zuvor behandelten Entwürfen in einem wesentlichen Punkt eingeschränkt – insbesondere durch die erfolgreiche Lobbyarbeit der französischen Filmindustrie: Die Nutzung von verwaisten Werken soll nur bestimmten öffentlichen Institutionen erlaubt sein. Außerdem dürfen damit keine kommerziellen Zwecke verfolgt werden.

Gerade die kommerzielle Nutzung aber hatte sich als Motor für die Digitalisierung erwiesen. Schränkt man den Nutzerkreis ein, bleibt es den chronisch unterfinanzierten Gedächtnisinstitutionen überlassen, Werke zu digitalisieren. Jenen Einrichtungen also, die oft nicht einmal die Mittel haben, ihre analogen Bestände zu erhalten. Das bedeutet auch, dass die Digitalisate nicht in eine der wichtigsten Recherchequellen des Netzes, in die Wikipedia, einbezogen werden können.

Aber nicht nur der Kreis der Institutionen, die durch die neue Regelung privilegiert werden, bleibt beschränkt. Es wird auch nur die „öffentliche Zugänglichmachung“ erlaubt, also das Online-Stellen von verwaisten Werken. Die Werke in Ausstellungen oder in Büchern zu nutzen, bleibt verboten. Bei Kinofilmen kommt es zu der absurden Konsequenz, dass ein für das Kino gemachter Film dann zwar auf einem Computerbildschirm oder einem Smartphone online betrachtet werden kann, nicht aber im Kino.

Nicht nur wegen dieser Unzulänglichkeiten der Richtlinie, die sich im Referentenentwurf fortpflanzen, wird die neue Regelung in der Praxis Probleme bereiten und im Ergebnis sogar bestehende Fehlentwicklungen verstärken. Es wurde bei der Umsetzung auch nicht versucht, Spielräume zu nutzen, um den Umgang mit verwaisten Werke stärker zu vereinfachen.

Angemaßte Rechte

Verwaiste Werke sind nur die Spitze des Eisbergs. Bei den meisten älteren Werken in den Beständen der Gedächtnisinstitutionen ist die Rechtesituation unklar oder umstritten. Das gilt besonders, wenn Werke digital genutzt werden sollen. Bei Filmen ist das besonders anschaulich. Geht es um ältere Filme, etwa Stummfilme, lässt sich kaum jemals nachweisen, dass alle am Film beteiligten Urheber die Rechte für die – damals noch unbekannte – digitale Nutzung an den Filmhersteller übertragen haben.

Gleichwohl wird es von den Beteiligten oft akzeptiert, wenn jemand die Rechte für solche Filme beansprucht, auch die Rechte für die digitale Nutzung. Tritt beispielsweise eine Firma auf und behauptet, den Filmrechte-Bestand einer anderen, längst nicht mehr am Markt befindlichen Firma übernommen zu haben, dann wird das nicht hinterfragt. Ebensowenig die zweifelhafte Behauptung, zu diesen Rechten gehörten auch die der digitalen Auswertung, etwa auf DVD oder als Video on Demand. Denn ohne Rechteinhaber konnte man diese Filme bislang überhaupt nicht nutzen. Da war es pragmatisch, eine behauptete Rechteinhaberschaft anzuerkennen, selbst wenn man daran Zweifel hegte.

Auch Gedächtnisinstitutionen akzeptierten solche Rechteanmaßungen häufig. Für sie war es bislang der einzige Weg, ihre Bestände nutzen zu können. Sie hatten nicht die Mittel, die Behauptungen auf ihre Richtigkeit hin zu überprüfen. So finden sich die Spuren von betrügerischen Rechteanmaßungen nicht nur in den Abrechnungsunterlagen für ungerechtfertigt gezahlte Lizenzgebühren, sondern auch in den Datenbanken von Museen, Archiven und Bibliotheken, die die fehlerhafte Rechtezuordnung verzeichnet haben.

Zweifelhafte Beweisfunktion

Mit dem jetzt bekannt gewordenen Referentenentwurf schließt sich der Kreis: Eben diese Datenbanken werden als Recherchequellen für mögliche Rechteinhaber verbindlich vorgeschrieben. Sie bekommen damit indirekt eine Beweisfunktion, die angesichts ihrer Fehlerhaftigkeit nicht gerechtfertigt ist. Solche Datenbanken verzeichnen lediglich Momentaufnahmen darüber, wer zum Zeitpunkt der Eintragung in die Datenbank als Rechteinhaber galt. Wurden die Rechte später weiter übertragen, ist das in der Regel nicht mehr dokumentiert.

Eine tatsächlich beweiskräftige Registrierung urheberrechtlicher Nutzungsrechte gibt es leider nicht. Die revidierte Berner Übereinkunft – das grundlegende internationale Urheberrechtsabkommen – hält ausdrücklich fest, dass Rechte nicht an Formalien geknüpft werden dürfen. Am verlässlichsten sind die Datenbanken der Verwertungsgesellschaften, da die Rechteinhaber hier ein eigenes Interesse an richtigen Angaben haben, um an Ausschüttungen partizipieren zu können.

Regelung löst das Problem nicht

Rechteanmaßung bleibt in Deutschland folgenlos. Sie als Betrug zu verfolgen, ist mit kaum zu überwindenden Beweisschwierigkeiten verbunden. Man müsste nicht nur beweisen, dass ein vorgeblicher Rechteinhaber die behaupteten Rechte nicht hat. Man müsste darüber hinaus beweisen, dass er das wusste und vorsätzlich betrogen hat. Das wird – besonders bei historischen Materialien – kaum jemals gelingen. Doch Rechteanmaßung ist kein Randphänomen. Es ist die Regel bei älteren Werken, bei denen sich die aufwändige Suche nach dem „wahren“ Rechteinhaber nicht lohnt.

Die Regelung zu verwaisten Werken wird daran nichts ändern. Es ist sogar zu befürchten, dass sie dieses Phänomen noch verstärkt. Das gilt für solche angemaßten Rechte, deren Spuren sich bereits in den Datenbanken der Gedächtnisinstitutionen finden. Es gilt aber auch für die, die noch folgen: Nach dem Gesetzentwurf (Paragraf 61b) soll ein Rechteinhaber, der nachträglich festgestellt wird, Anspruch auf Zahlung einer angemessenen Vergütung haben.

Dabei suggeriert der Referentenentwurf eine klarere Zahlungspflicht für die Gedächtnisinstitutionen als die zugrundeliegende Richtlinie, die lediglich von einem „gerechten Ausgleich“ spricht. An der Formulierung „gerechter Ausgleich“ wird deutlich, dass auch Aspekte wie die kulturelle Bedeutung und der Aufwand der Institutionen für Erhaltung, Restaurierung und Digitalisierung berücksichtigt werden sollen und es nicht darum gehen kann, die Vergütungshöhe auf der Grundlage von Marktpreisen für kommerziell verwertete Inhalte festzulegen.

Besondere Beweisanforderungen bestehen für denjenigen, der die Rechte behauptet, nicht. Es wirkt wie eine Einladung, sich Rechte anzumaßen; vor allem für diejenigen, die zumindest bestimmte Teilrechte mit gewisser Plausibilität behaupten können. Beweispflichtig bleibt ausschließlich die Gedächtnisinstitution, die ihre „sorgfältige Suche” dokumentieren muss.

Risiken bleiben erhalten

Die vorgesehenen Anforderungen für die Recherche nach möglichen Rechteinhabern sind für Museen, Bibliotheken und Archive in ihrer alltäglichen Arbeit nicht zu bewältigen. Aber selbst, wenn sie es schaffen würden, bleibt die Online-Nutzung von Werken, deren Rechteinhaber sie nicht ermitteln konnten, voller Risiken. Sollte später ein Rechteinhaber auftauchen, kann dieser nicht nur verlangen, die Nutzung unverzüglich zu unterlassen, sondern hat darüber hinaus den Anspruch auf Zahlung einer angemessenen Vergütung. Chronisch unterfinanzierte Institutionen, die ihr Geld zusammenkratzen, um die Bestände zu digitalisieren, gehen dann ein doppeltes Risiko ein: umsonst zu investieren und mit Nachforderungen konfrontiert zu werden. Dabei verbietet ihnen häufig schon ihre kameralistische Haushaltsstruktur, Rückstellungen zu bilden.

So begrüßenswert es ist, dass die Nutzung verwaister Werke endlich geregelt werden soll, so zweifelhaft ist doch, ob die Regelung sich in der Praxis bewähren wird. Letztlich wird viel von der Haltung und dem Mut der Museen, Archive und Bibliotheken abhängen: Werden sie die hohen Anforderungen an die Recherche auf sich nehmen und für diese Recherche effiziente Routinen entwickeln? Werden sie sich bei der Recherche der Hilfe Dritter bedienen, wie es im Gesetz ausdrücklich erlaubt wird? Werden sie das Risiko eingehen, später doch zahlen zu müssen? Wie werden die Gerichte eine „angemessene Vergütung“ festlegen? Und werden Einrichtungen, die Rechteanmaßungen früher noch akzeptierten, um Werke überhaupt nutzen zu können, dieser nun entschiedener entgegentreten?

Foto: dolescumCC BY-NC-SADisclosure: Paul Klimpel berät als Anwalt Museen und Archive. Er engagiert sich seit vielen Jahren für die Verbesserung der rechtlichen Rahmenbedingungen von Gedächtnisinstitutionen.

December 03 2012

Wochenrückblick: Leistungsschutzrecht, Elektronischer Semesterapparat, Deutsche Digitale Bibliothek

Der Bundestag diskutiert das Presse-Leistungsschutzrecht, der „Intranet-Paragraf” 52a im Urheberrecht wurde verlängert und die Deutsche Digitale Bibliothek geht online.

Weiterlesen

October 22 2012

Open Access Week mit Podiumsdiskussion am Dienstag in Berlin

Heute beginnt die Open Access Week, eine seit 2008 stattfindende Aktionswoche, die für den freien Zugang zu wissenschaftlichen Informationen wirbt. Nach eigenen Angaben findet sie „überall”, also international statt und ist übrigens nicht zu verwechseln mit den Ende September in Wien abgehaltenen Open-Access-Tagen.

In Berlin gibt es zum Thema am Dienstagabend eine Podiumsdiskussion, die sich mit „Chancen und Herausforderungen” von Open Science beschäftigt. Damit ist neben Open Access im engeren Sinn auch die dauerhafte Zugänglichkeit von Forschungsdaten und der Einsatz des Web 2.0 in der Wissenschaft gemeint.

Aus dem Programm:

Wann: am Dienstag, den 23.Oktober 2012 ab 18 Uhr
Wo: Auditorium des Jacob-und-Wilhelm-Grimm-Zentrums der Humboldt-Universität zu Berlin
Die Veranstaltung ist kostenfrei. Es ist keine Anmeldung erforderlich.

Begrüßung durch Dr. Andreas Degkwitz (Humboldt-Universität zu Berlin)

Einführungsreferat: Prof. Dr. Martin Grötschel (Zuse-Institut Berlin, Technische Universität Berlin)
Moderation: Prof. Dr. Peter Schirmbacher (Humboldt-Universität zu Berlin)

Die Teilnehmer:

Dr. Christoph Bruch (Helmholtz-Gemeinschaft)
Prof. Dr. Ortwin Dally (Deutsches Archäologisches Institut)
Dr. Andreas Degkwitz (UB der Humboldt-Universität zu Berlin)
Prof. Dr. Martin Grötschel (Technische Universität Berlin)
Dr. Jeanette Hofmann (Wissenschaftszentrum Berlin für Sozialforschung)
Dr. Angelika Lex (Elsevier)
Dr. Anne Lipp (Deutsche Forschungsgemeinschaft)

Veranstaltet wird das Podium vom Open-Access-Büro der Helmholtz-Gemeinschaft, dem Institut für Bibliotheks- und Informations­wissenschaften der HU Berlin und anderen Berliner Hochschuleinrichtungen.

Weitere Veranstaltungen im Rahmen der Open Access Week gibt es diese Woche unter anderem auch in Dresden und Hannover.

September 24 2012

Wochenrückblick: Dritter Korb, digitaler Buchverleih, Universal-EMI

Statt dem Dritten Korb zur Urheberrechtsreform wird es nur Einzelregelungen geben, der EuGH wird sich mit Regelungen für elektronische Leseplätze befassen, die EU-Kommission hat d

Weiterlesen

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl