Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 25 2014

Digitales Kulturerbe: Der Berliner Appell wird im Landtag von NRW gehört

Seit September letzten Jahres gibt es den Berliner Appell zum Erhalt des digitalen Kulturerbes, in dem zahlreiche Experten deutlich machten, dass für dieses Ziel jetzt gehandelt werden muss. Dieser Appell, unter anderem vom Deutschen Museumsbund, dem Deutschen Bibliotheksverband, der Deutschen Digitalen Bibliothek, Wikimedia Deutschland und dem Langzeitarchivierungs-Netzwerk Nestor unterzeichnet, richtet sich an die politischen Entscheidungsträger.

Im Landtag von Nordrhein-Westfalen wurde der Appell gehört, als am 20. Februar ein Antrag der Piratenfraktion Nordrhein-Westfalens zum digitalen Kulturerbe beraten wurde. Dort wurde er an den Ausschuss für Kultur und Medien überwiesen. Und der Berliner Appell erhielt über Parteigrenzen hinweg viel Zustimmung, auch von der zuständigen Wissenschaftsministerin Svenja Schulze (SPD). Auch widersprach niemand Thomas Sternberg, Landtagsabgeordnetem der CDU, als er feststellte: „dieser Berliner Appell ist vernünftig, er ist richtig (…) Der Appell ist aller Ehren wert.“

Your browser does not support the video tag.

Von der Landtagssitzung gibt es eine Aufzeichnung (MP4, ab 8’12) und ein Protokoll.

Es war schon bei der Formulierung des Berliner Appells bemerkenswert, dass sich sehr unterschiedliche Experten und Kultureinrichtungen auf einen gemeinsamen Wortlaut einigen konnten. Die Parlamentsdebatte in NRW lässt zumindest hoffen, dass die Sache tatsächlich angegangen wird.

January 09 2014

Rückblick: 2013 – ein Jahr im Zeichen von Video-on-Demand

Das Verschwinden von Film als Trägermedium und der Durchbruch von Video on Demand ruft auch ­wieder alte Utopien einer universellen Filmbibliothek in Erinnerung. Doch diese Idee scheint selbst historisch zu sein. Gleichwohl entpuppt sich 2013 für die Filmwirtschaft als Transformations-Jahr

Das Jahr 2012 steht für den Schlusspunkt der Geschichte des analogen Films mit seiner fotografischen Schicht: Der Insolvenzantrag von Kodak im Januar 2012 war das finanztechnische Sig­nal, der Verkauf von Patenten im Dezember 2012 an ein von Intellectual Ventures/RPX Corporation organisiertes Konsortium (unter anderem Apple, Google, Facebook, Samsung) die machtpolitische Filetierung. Doch obwohl Film als Medium damit de facto verabschiedet wurde, blieb die erwartete Trauerfeier aus.

Die Idee, Filme übers Internet zu verbreiten, lange Zeit nur mit spitzen Fingern angefasst

Das Jahr 2013 steht nun ganz im Zeichen von Video-on-Demand (VoD). Obwohl die Idee, Filme übers Internet zu verbreiten, schon sehr früh aufkam, fassten die großen Produktionsfirmen sie lange Zeit nur mit spitzen Fingern an. Das Scheitern der großen Entertainment-Plattformen wie Time Warners Pathfinder (Entertaindom.com) und Disneys Go.com, bei denen um die Jahrtausendwende sehr viel Geld verbrannt wurde, sorgte zunächst für eine verhaltene Strategie. Allein Time Warner verlor mit Pathfinder wahrscheinlich um die 100 Millionen US-Dollar.

Gravierender als die ökonomischen Verluste war aber für viele Anbieter das Schicksal von Intertainer. Die von Intel, Microsoft, Sony, NBC und den den Kabelgesellschaften Qwest und Comcast 1996 getragene Plattform galt als die innovativste ihrer Zeit und vertrieb 2002 über 70.000 Stunden Material diverser Fernseh- und Filmstudios. Doch mit der im November 2002 eröffneten VoD-Plattform Movielink war das Spiel vorbei. Betreiber waren hier die großen Rechteinhaber (Metro Goldwyn Mayer, Sony Pictures, Viacoms Paramount, Vivendi, Universal und AOL Time Warners). Die Lizenzkosten für Intertainer wurden erhöht, eine Anti-Trust-Klage (2002) verschleppte sich und wurde schließlich abgewiesen.

Jonathan Taplin, Chairman und CEO bei Intertainer, reagierte verbittert. Offensichtlich hätte Intertainer den großen Studios nur dazu gedient, sagte Taplin, die Marktchancen eines VoD-Portals zu testen. Als dieser Test erfolgreich war, seien die Rechte, das Personal und das Know-how abgezogen und an Movielink übertragen worden.

Interessant ist diese Geschichte heute, weil sie zeigt, wie technologische Transformationen Machtstrukturen verändern können und welche Strategien im Umgang mit technologischen Transformationen umgesetzt werden. Sie zeigt, welche Bedeutung diese Prozesse für den Zugang zur audiovisuellen Kultur haben, beziehungsweise wie aus Nutzerperspektive überhaupt ein idealer Zugang zur audiovisuellen Kultur unter veränderten technologischen Rahmenbedingungen gedacht werden kann.

Der Aufbau zentralisierter Portale scheint Geschichte zu sein

VoD im Jahre 2013 zerfällt in unzählige Initiativen und Einzelprojekte. Der Aufbau zentralisierter, von den Rechte­inhabern getragener Portale scheint Geschichte zu sein. Allein das öffentlich-rechtliche Fernsehen in Deutschland plante noch die Onlinevideothek Germany‘s Gold, doch diese Idee wurde 2013 wie die geplante Fusion von Maxdome (ProsiebenSat.1) und RTLnow (RTL) vom Kartellamt verhindert.

So ist nach wie vor offen, wohin die Reise geht. Unterschiedliche VoD-Konzepte wie Ausleihe, Abo und Kauf werden angeboten, doch signalisieren die neuen Namen Download-to-rent, Subscription-Video-on-Demand und Download-to-Own bereits, dass hier völlige neue Rechts- und Nutzungsformen definiert werden. Internetprovider (Telekom Entertain), Kabelnetzbetreiber, Broadcaster und Technologieanbieter kämpfen um die beste Position. Auch die neue IT-Industrie strickt an eigenen Lösungen: Amazon ebenso wie Apple und Google.

Die Praxis, Filme inzwischen nicht mehr exklusiv zu lizenzieren, also die Bereitschaft der Rechteinhaber, sich nicht an einen Vertragspartner zu binden, und VoD nicht mehr als zeitlich letztes Auswertungsfenster zu betrachten, führte zu einer Vielzahl an VoD-Portalen und Anbietern. Und diese neuen VoD-Portale führen zu einer verbesserten Zugänglichkeit von aktuellen und historischen Produktionen.

Privat finanzierte VoD-Plattformen: Filme tauchen auf, für die nie ein DVD-Markt existierte

Bemerkenswert im Jahre 2013 ist zunächst der privat finanzierte Aufbau einer VoD-Plattform für deutschen Film, die im Februar im Rahmen der Berlinale Premiere feierte. Das ehrgeizige und konzeptionell anspruchsvolle AllesKino.de, das von Joachim von Vietinghoff, Hans W. Geißendörfer und Andreas Vogel betrieben wird, versammelt ausschließlich deutsche Filme. Inhaltlich kreist der Fokus um den anspruchsvollen Autorenfilm. Filme von Werner Herzog, Volker Schlöndorff und Wim Wenders sind ebenso zu finden wie „Lebensläufe – Die Geschichte der Kinder von Golzow“ von Barbara und Winfried Junge oder „Das Parfüm“ von Tom Tykwer.

Bemerkenswert an dieser Plattform ist, dass auch Filme wie Peter Schamonis „Schonzeit für Füchse“, einer der wichtigsten Vorläufer des Neuen Deutschen Films, nun wieder verfügbar sind. Filme tauchen also auf, für die nie ein DVD-Markt existierte oder für die Neupressungen zu teuer gewesen wären. Weitere bemerkenswerte Beispiele sind die OnlineFilm AG, die auf ihrer Plattform zahllose Dokumentarfilme vertreibt, und die 2007 in Österreich gegründete VoD-Plattform flimmit.

Das interessanteste Projekt ist allerdings Realeyz.Tv von Andreas Wildfang. Der ehemalige Filmemacher und Programmmacher des Eiszeit-Kinos in Berlin gründete Realeyz, das 2009 online ging. Er hat sich heute dem internationalen Arthouse-Film verschrieben. Der Grund sei seine Lust gewesen, so Andreas Wildfang in einem Interview mit dem Weblog Memento Movie, interessante Filme jenseits des programmpolitisch oft konservativen Kinos zu zeigen.

Eine retrospektive Erfassung des filmischen Erbes ist nicht in Sicht

Ob und wie lange sich diese neu entstandenen Nischen allerdings tragen, ist eine offene Frage. Entweder sind diese Projekte öffentlich finanziert, insbesondere über das Media-Programm der EU, oder mit viel privatem Kapital ausgestattet. Obwohl sich VoD immer mehr durchsetzt, ist es sehr stark auf neue Produktionen beschränkt. Eine retrospektive Erfassung des filmischen Erbes ist nicht in Sicht.

Allerdings zeigt sich die digitale Ökonomie dieses eine Mal nachhaltiger. Der long tail, also der rentable Abverkauf auch kleiner Lagerbestände, ist in der digitalen Ökonomie mit sehr geringen Kosten verbunden. Sind die Filme erst einmal auf den Servern, ist das Entfernen aufwändiger als der Verbleib – zumindest wenn die Verträge entsprechend konzipiert sind.

Die Großen der Branche haben ganz eigene Lösungen defininiert: Amazon hat mit dem Kindle Fire ein eigenes Ökosystem, besser vielleicht Reservat, geschaffen. Während dieses an den VoD-Dienst Lovefilm angedockt wurde, existiert in den USA auch noch Amazon Instant Video, das auf den satellitengestützen Dienst DirecTV aufbaut. Diese Dienste funktionieren aber nur mit mit speziellen Endgeräten (Tivo, einzelne Produkt­linien von Fernsehern und BluRay-Playern).

Netflix ist der Frontalangriff auf das Fernsehen, so wie wir es kennen

Am eindrucksvollsten präsentiert sich Netflix, das mit dem Versand von DVDs in den USA groß wurde. Seit 2011 ist der Dienst auch in Spanien, Großbritannien und Irland verfügbar, seit September 2013 auch in den Niederlanden. Das Netflix-Modell basiert auf einem Abo (Subscription-Video-on-demand) und ist extrem erfolgreich. Damit ist auch klar, dass dies der Frontalangriff auf das Fernsehen, so wie wir es kennen, ist. Warum sollte ich mich mir mühsam Sendungen aus einem festen Sendeschema herauspicken, wenn andere Dienste mit personalisierten Empfehlungen arbeiten.

Netflix lässt keinen Zweifel daran, dass solche Empfehlungen die Zukunft des Fernsehens sind: „Die Leute lieben TV-Inhalte und schauen jeden Tag über eine Milliarde Stunden lineares Fernsehen. Aber sie mögen das lineare Fernseh-Programm nicht, bei dem die Fernsehsender zu bestimmten Uhrzeiten Programme auf festinstallierten Geräten mit komplizierten Fernbedienungen zeigen. Konsumenten müssen sich durch Listen klicken oder digitale Videorekorder nutzen, was zusätzliche Kosten und Komplexität verursacht. Gute Sendungen finden, die man anschauen möchte, ist weder einfach noch macht es Spaß. Auch wenn das lineare Fernsehen immer noch sehr populär ist, das Modell von Programmen und festen Programmplätzen wartet nur darauf, ersetzt zu werden.“

Netflix, das sich selbst gerne mit dem innovativen Kabelsender HBO („The Wire“) vergleicht, besitzt zur Zeit über 38 Millionen Abonnenten, davon 7,7 Millionen außerhalb der USA. Von Beginn an forcierte Netflix automatisierte Empfehlungen. Bereits 2006 lobte die Firma einen entsprechenden Preis aus: Eine Million Dollar sollte bekommen, wer die firmeninternen Algorithmen zur personalisierten Empfehlung von Filmen verbessern konnte und 2009 wurde der Preis schließlich vergeben.

Der Wechsel zur Internet-Ökonomie macht aus Nutzern einen aktiven Teil einer Wertschöpfungskette

Netflix stieg 2011 aktiv in die Produktion von Serien ein. „House of Cards“, das ab Februar 2013 gestreamt wurde, gilt als extrem aufwändige Produktion und gewann gerade dreimal den Emmy. Der wachsende Einfluss zeigte sich auch auf der politischen Ebene. Ein von Netflix unterstütztes Aktionskomitee, das Einfluss auf die Verschärfung von SOPA und PIPA nehmen sollte, führte zu Boykotten gegen Netflix.

Der Wechsel zur Internet-Ökonomie, das zeigt das Beispiel Netflix überdeutlich, macht aus Nutzern einen aktiven Teil einer Wertschöpfungskette. Nur mit ihrer Hilfe sind Personalisierungen und Profilierungen möglich, nur mit ihrer Hilfe lassen sich erfolgreiche Serien planen. Dagegen muten etwa Zielgruppenanalysen von Allensbach rustikal an.

Das Jahr 2013 entpuppt sich als Transformationsjahr

Zahlreiche VoD-Portale nutzen die technischen Möglichkeiten und bieten den Nutzern Zugang zu interessanten Filmen an, die auf traditionellen Wegen nicht mehr verfügbar waren. Die großen Player haben die Widersprüche von VoD noch nicht gelöst, die Machtfragen sind noch nicht entschieden.

Aber vieles spricht dafür, dass sich die internetaffinen Lösungen durchsetzen werden. Nicht nur gegen die Wettbewerber, sondern auch gegen etablierte Strukturen wie das Fernsehen. Die Vorstellung, dass lineares Programm selbst historisch werden kann, gehört zu den offenkundigen Einsichten von 2013.

Der Preis für die neue Freiheit, für den Verzicht auf die lineare one-to-many Kommunikation könnte hoch sein, denn das Nutzerverhalten ist nun Teil der neuen Kommunikation. Für den Nutzer, der das filmisches Gedächtnis einfach erfahren möchte, wird sich die Situation wahrscheinlich verbessern. Aber von einer filmischen Bibliothek, die alle Filme dieser Welt zur Verfügung stellt, sind wir noch weit entfernt.

Jürgen Keiper

Foto: Jürgen Keiper (CC-BY-ND)

Jürgen Keiper ist Film­wissenschaflter und beschäftigt sich mit Themen rund um Archivverständnis, Digitalisierung, kollaborative Systeme und Open-Source-Software. Gemeinsam mit Chris Wahl (HFF Potsdam) betreibt er das Blog memento-movie.de. 

 Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

January 06 2014

Felix Trumpke, wie kann Norwegen alle seine Bücher ins Netz stellen?

Die norwegische Nationalbibliothek arbeitet daran, alle im Land erschienenen Bücher im Netz lesbar zu machen. Der Max-Planck-Urheberrechtsforscher Felix Trumpke erläutert im iRights.info-Interview die rechtlichen Hintergründe und die Funktionsweise des Modells „Extended Collective Licensing”.

Hintergrund: Seit 2006 hat die norwegische Nationalbibliothek ihr Digitalisierungsprogramm schrittweise ausgeweitet. Erklärtes Ziel ist es, nicht nur gemeinfreie Werke, sondern alle bis zum Jahr 2000 in Norwegen erschienenen Bücher in den nächsten 20 bis 30 Jahren zu digitalisieren. Über die Plattform Bokhylla.no sind seit 2009 Digitalisate im Netz zugänglich – jedenfalls für Nutzer, die eine norwegische IP-Adresse haben und mit einigen Einschränkungen. Grundlage bildet ein Abkommen, das die Nationalbibliothek mit der Verwertungsgesellschaft Kopinor geschlossen hat.

iRights.info: Herr Trumpke, in Norwegen bildet das sogenannte „Extended Collective Licensing” die rechtliche Basis, um die Bestände der Nationalbibliothek zu digitalisieren. Wir kennen in Deutschland die „kollektive Rechteverwertung” als Grundmodell von Verwertungsgesellschaften wie der GEMA oder der VG Wort. Worin besteht die Erweiterung beim „Extendend Collective Licensing“ (ECL)?

Felix Trumpke: Verwertungsgesellschaften werden von ihren Mitgliedern, also den Rechteinhabern, mit der Wahrnehmung ihrer Rechte beauftragt. Gewöhnlicherweise können diese Verwertungsgesellschaften einem Nutzer nur die Rechte ihrer Mitglieder einräumen. Die Besonderheit des skandinavischen „Extended Collective Licensing” liegt nun darin, Kollektivvereinbarungen zwischen einer Verwertungsgesellschaft und einem Nutzer per Gesetz auf sogenannte „außenstehende Rechteinhaber“ erstrecken zu können. Neben Norwegen sehen ein solches Modell auch Schweden, Dänemark, Finnland und Island vor.

Das heißt, es werden nicht nur die Rechte der Mitglieder einer Verwertungsgesellschaft an den Nutzer lizenziert, sondern die Rechte aller Rechteinhaber eines bestimmten Bereichs. Voraussetzung ist, dass die Verwertungsgesellschaft repräsentativ agiert. Das heißt, dass sie bereits eine substanzielle Anzahl an Rechteinhabern vertritt.

iRights.info: Können Sie das an einem Beispiel erläutern?

Felix Trumpke: Ja, nehmen wir eine Bibliothek, die mit einer entsprechenden Verwertungsgesellschaft eine Vereinbarung über die Nutzung von – sagen wir – Schriftwerken geschlossen hat. Sie wäre aufgrund der erweiterten kollektiven Lizenzen (ECL) berechtigt, nicht nur die Werke der Rechteinhaber zu nutzen, die Mitglied der Verwertungsgesellschaft sind, sondern aller denkbaren Rechteinhaber; beispielsweise auch ausländischer Rechteinhaber.

Hierfür gelten die in der Vereinbarung niedergelegten Bedingungen. Einem „außenstehenden“ Rechteinhaber räumt so eine ECL-Vereinbarung dabei verschiedene Rechte ein: Etwa auf Gleichbehandlung mit den Mitgliedern der Verwertungsgesellschaft, auf individuelle Vergütung und manchmal auch auf Widerspruch gegenüber der Nutzung, womit er sein Werk dem Zugriff entziehen kann.

iRights.info: Wie verhält sich dieser „skandinavische Weg“ zum EU-Recht? Gibt es Konflikte, wenn Norwegen und andere Länder das „Extended Collective Licensing” umsetzen?

Felix Trumpke: Das ist ein interessanter Punkt. In der EU-Urheberrechts-Richtlinie von 2001, die bestimmte Aspekte des Urheberrechts in den Mitgliedstaaten harmonisiert hat, finden sich im Artikel 5 zahlreiche sogenannte „Ausnahmen und Beschränkungen“. Diese haben zur Folge, dass die Staaten keine weiteren „Schranken“ in das nationale Recht einführen dürfen.

Gleichzeitig ist den Regelungen der Richtlinie ein Erwägungsgrund vorangestellt, konkret der Erwägungsgrund 18. Er besagt, dass die Richtlinie „die Regelungen der betroffenen Mitgliedstaaten für die Verwaltung von Rechten, beispielsweise der erweiterten kollektiven Lizenzen“ nicht berührt.

Dies haben die skandinavischen Gesetzgeber nun so verstanden, dass sie berechtigt sind, an der ECL festzuhalten und diese sogar auszuweiten, weil es vom europäischen Recht nicht tangiert werde. Ob das so zutrifft oder nicht, mag eine andere Frage sein und würde jetzt auch an dieser Stelle zu weit führen.

Um es also kurz zu sagen: Ja, wegen Erwägungsgrund 18 der Richtlinie können sie die ECL umsetzen, ohne in Konflikt zu den europäischen Vorgaben zu treten.

iRights.info: Norwegen will auf diesem Weg praktisch große Teile des digitalisierbaren kulturellen Erbes frei zugänglich machen – könnte das ECL für so ein Vorhaben generell eine Art „Königsweg“ sein?e

Felix Trumpke: An dieser Stelle muss man etwas genauer hinschauen: Die Regelung in Skandinavien ist keine revolutionäre Erfindung. Die Länder wenden die ECL in unterschiedlichen Anwendungsbereichen seit den 1960er Jahren bereits an. Auch Schweden hat jüngst eine ähnliche ECL-Vorschrift wie Norwegen zugunsten von Bibliotheken und Museen in sein Urheberrechtsgesetz eingeführt.

Auch das Bokhylla-Projekt der norwegischen Staatsbibliothek läuft schon einige Jahre. Es handelt sich aber nicht um ein unbegrenztes und kostenloses Zuverfügungstellen des kulturellen Erbes Norwegens. Zunächst ist ja eine Vergütung ausgehandelt worden: pro Seite, die zugänglich gemacht wurde, zahlt die Bibliothek einen kleinen Betrag an die entsprechende Verwertungsgesellschaft „Kopinor“.

Hinzu kommt, dass es „nur“ Werke betrifft, die vor dem Jahre 2000 in Norwegen veröffentlicht wurden, einschließlich der übersetzten Literatur. Die Werke können auch nur am Bildschirm betrachtet werden, ein Ausdrucken oder Herunterladen ist nicht möglich. Zudem ist ein Abruf nur über eine norwegische IP-Adresse möglich – das ist aufgrund der territorialen Anwendung des nationalen Rechts notwendig.

iRights.info: In Norwegen soll sich mit dem ECL auch eine Vergütungs-Mechanik etablieren, die Rede ist von 0,04 Euro pro online aufgerufener Textseite. Gibt es bezüglich eines solchen Systems rechtliche Bedenken?

Felix Trumpke: Meines Erachtens nicht. Man darf freilich nicht vergessen, dass die Vergütung alle paar Jahre neu ausgehandelt wird. Bei solchen digitalen Nutzungen lassen sich die einzelnen Vorgänge, also wie viele Seiten zugänglich gemacht wurden, recht leicht erfassen und damit die Vergütung sehr präzise berechnen.

iRights.info: Das klingt doch alles, als hätten die Norweger mit der ECL einen guten rechtlichen Kniff gefunden, den freien Zugang für alle zu digitalem Wissen in großer Fläche zu öffnen.

Felix Trumpke: Ich wäre zunächst mit der Formulierung „freier Zugang für alle“ vorsichtig, da man damit immer gewisse Kritiker schnell auf den Plan ruft. Die ECL ermöglicht die Umsetzung großer Digitalisierungsvorhaben in sehr funktionsfähiger Weise. Sie ermöglicht aber keine umfassende kostenfreie Nutzung für alle von allem.

Doch ohne Zweifel ist sie ein ausgesprochen brauchbares Instrument in Fällen von Massennutzungen und großen Digitalisierungsprojekten. Denn im Gegensatz zu etwa den schmalen Lösungsansätzen der EU – zuletzt etwa die Richtlinie bezüglich einer zulässigen Nutzung verwaister Werke – lassen sich über die ECL umfassend alle erforderlichen Rechte aus einer Hand lizenzieren.

Aber es wird sehr oft übersehen, warum die ECL in den skandinavischen Ländern so gut funktioniert: In Skandinavien besteht ein ausgesprochen hoher Organisationsgrad der Urheber, das heißt, eine große Anzahl an Organisationen. Seit vielen Jahren sind die Rechteinhaber dort gewöhnt, bestimmte Nutzungshandlungen über Kollektivvereinbarungen zu lizenzieren, wohingegen andernorts Schranken vorgesehen sind, so auch in Deutschland.

Hinzu kommt, dass ein solches Modell die Bereitschaft der Rechteinhaber voraussetzt, sich darauf einzulassen. Es benötigt also Zeit, sich zu entwickeln.

iRights.info: Ließe sich das ECL-basierte Verfahren aus Norwegen trotz dieser Bedenken in Deutschland anwenden?

Felix Trumpke: Grundsätzlich wäre es denkbar, ein solches Modell auch hier in Deutschland einzuführen. Allerdings sind dabei zwei Punkte zu bedenken:

Zum einen der bereits erwähnte Organisationsgrad, der in Deutschland bei weitem nicht so stark ausgeprägt ist wie in Skandinavien, der aber in entscheidender Weise zum Funktionieren der ECL beiträgt. Zum anderen wurde jüngst eine Vermutungsregelung zugunsten der Verwertungsgesellschaft mit Bezug auf die Nutzung von vergriffenen Werken in Deutschland eingeführt (Paragraf 13d Urheberrechtswahrnehmungsgesetz).

Im Grunde ist das ein ähnlicher Mechanismus: Auch hier werden letztlich die Rechte der Außenseiter durch die Verwertungsgesellschaft lizenziert. Der Ansatz ist allerdings viel zu schmal, denn von der Regelung werden einzig vergriffene Werke erfasst. Insofern halte ich die Chancen für eine Umsetzung der ECL in Deutschland eher für gering.

iRights.info: Sie schreiben gerade an einer Doktorarbeit über die ECL. Was halten Sie persönlich vom „skandinavischen Weg“?

Felix Trumpke: Ich halte die ECL für eine ausgesprochen charmante Lösungsmöglichkeit, der bisher in der Wissenschaft erstaunlich wenig Beachtung geschenkt wurde. Das will ich mit meiner Arbeit darüber ändern.

Man darf aber zum einen nicht die einzelnen Problemstellungen übersehen, die mit der ECL einhergehen, zum anderen darf man nicht vergessen, aus welchem Umfeld sie stammt. Insofern halte ich die der ECL mancherorts entgegengebrachte und teilweise übertriebene Begeisterung nicht unbedingt für gerechtfertigt.

Felix Trumpke ist Doktorand am Max-Planck-Institut für Innovation und Wettbewerb (ehemals Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht) und forscht dort zum Immaterialgüter- und Wettbewerbsrecht in der Europäischen Union und im globalen Rahmen. Derzeit arbeitet er an einer Dissertation über „kollektive Rechtewahrnehmung und Erweiterte Kollektive Lizenzen“.

December 03 2013

Zugang gestalten! – Die Konferenz zum Nachsehen

Am 28. und 29. November 2013 fand im Jüdischen Museum Berlin die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” statt. Sie behandelte die Frage, welche Aufgaben Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können.

Veranstaltet wurde sie gemeinsam vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland.

Hier die Aufzeichnungen der Vorträge, Inputs und Diskussionen. Zwischentöne der Konferenz hat Mathias Schindler im Liveblog bei Wikimedia (Tag 1, Tag 2) gesammelt.

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 9px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: black; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#cd2373; } .vimeoBadge #vimeo_badge_logo { margin-top:8px; width: 57px; height: 20px; } .vimeoBadge .credit { font: normal 8px Helvetica, verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 30px 10px 30px; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { margin-top:8px; font: bold 12px Helvetica, verdana,sans-serif; overflow:hidden; width: auto; height: 55px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

November 29 2013

Donnerstag und Freitag ab 10.15 Uhr im Livestream: Zugang gestalten! #ke13

Die Konferenz „Zugang gestalten!“ im Jüdischen Museum Berlin beschäftigt sich damit, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können. Hier im Stream.

Das Programm bei „Zugang gestalten!” am Freitag:

10:15

Kulturpolitische Positionsbestimmung: Wie sollen Museen, Archive und Bibliotheken auf die Digitalisierung reagieren?

Kurze Statements von:

  • Pavel Richter
    Vorstand von Wikimedia Deutschland e.V.
  • Prof. Dr. Michael Naumann
    Direktor der Barenboim-Said-Akademie, vormals Kulturstaatsminister, Chefredakteur und Herausgeber der „Zeit“
  • Ranga Yogeshwar
    Wissenschaftsjournalist und Autor

11:00

Podiumsdiskussion

  • Mit Beteiligung von Prof. Monika Grütters, MdB, Stiftungsvorstand, Literatur- und Kunsthistorikerin
    Moderation: Julia Eikmann, Freie Hörfunkjournalistin

12:30 Mittagspause

13:30

Innovative Projekte und Entwicklungen, Teil 2: Zugang gescheitert

  • Jüdische Exilzeitungen
    Dr. Sylvia Asmus, Leiterin des Deutschen Exilarchivs 1933–1945 der Deutschen Nationalbibliothek

14:00

  • Depub.org
    Dr. Christoph Classen, Zentrum für zeithistorische Forschung Potsdam

14:30 Kaffeepause

15:00

Rechtliche Rahmenbedingungen und ihre Weiterentwicklung

    Impulsreferat

  • Dr. Cedric Manara, Copyright counsel, Google

15:30

    Kurze Statements

  • Prof. Dr. Thomas Dreier, Leiter des Instituts für Informations- und Wirtschaftsrecht und des Zentrums für angewandte Rechtswissenschaft am Karlsruher Institut für Technologie
  • Dr. Till Kreutzer
    Rechtsanwalt bei iRights.Law, Partner iRights.Lab
  • Dr. Tilo Gerlach
    Geschäftsführer der Gesellschaft zur Verwertung von Leistungsschutzrechten
  • Prof. Dr. Katharina de la Durantaye
    Juniorprofessorin für Bürgerliches Recht an der Humboldt-Universität zu Berlin

16:30–18:00

    Diskussion

  • Moderation: Dr. Paul Klimpel, Leiter der Konferenz

Stand vom 22.11.2013 – Änderungen möglich!

Erste Videos der Konferenz am Donnerstag – weitere folgen:

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 11px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: #3A75C4; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#00CCFF; } .vimeoBadge #vimeo_badge_logo { margin-top:10px; width: 57px; height: 16px; } .vimeoBadge .credit { font: normal 11px verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 10px 10px 0; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { font: normal 11px verdana,sans-serif; overflow:hidden; width: auto; height: 30px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

„Zugang gestalten!” wird veranstaltet vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google.

Mehr Infos zu den Referenten, Themen und Dokumentation:
zugang-gestalten.de

November 26 2013

Lizzy Jongma: Das digitale Publikum ist für Museen wichtig

Lizzy Jongma ist Datenmanagerin am Rijksmuseum in Amsterdam. Sie rät Kultureinrichtungen zur Öffnung digitalisierter Bestände auch für kommerzielle Nutzung, weist der Mediathek Europeana eine wichtige Rolle zu, auch für Open Data, und setzt auf langfristige Effekte, die das digitale Publikum den Museen und Sammlungen bringt.

Anlässlich der Konferenz „Zugang gestalten“* befragt iRights.info die Expertin für die Online-Präsentation von kulturellem Erbe zu den Herausforderungen der Digitalisierung.

iRights.info: Das staatliche Rijksmuseum hat Teile seiner Bestände digitalisiert und zur freien, auch kommerziellen Nutzung bereitgestellt. Welche Hürden mussten dafür genommen werden?

Lizzy JongmaLizzy Jongma: Die erste große Herausforderung betraf uns selbst: Wir mussten uns von unseren gewohnten Denkweisen verabschieden und auch von unseren Geschäftsmodellen, die auf dem Bilderverkauf beruhten. Die zweite Herausforderung waren all die rechtlichen Fragen, die wir zu berücksichtigen hatten. Das heißt, wir mussten buchstäblich alle Gesetze lesen, die für Museen maßgeblich sind, und wir mussten unseren kompletten Bestand durchgehen. Wir können ja nur das copyright-freie Material benutzen. Zurzeit haben wir zahlreiche Debatten mit Entleihern. Sie haben zwar keine rechtliche Handhabe, doch einige wollen keine Kunstwerke mehr ausleihen, wenn wir von diesen hochaufgelöste Bilder online stellen.

iRights.info: Wie reagieren die Politiker, die für Museen zuständig sind?

Lizzy Jongma: Mit den Politikern ist es schwierig. Einerseits loben sie uns für die Öffnung unserer Bestände ins Digitale und preisen unser Vorgehen gerne an. Andererseits ändern sie die Urheberrechtsgesetze nicht. Bei Kunstwerken geht es ohnehin schon sehr streng zu, was die Prüfung der Rechtslage betrifft. Für uns bedeutet die jetzige Situation, dass wir zwar die großen Kunstwerke des goldenen Zeitalters zeigen können, doch unsere Sammlungen des 20. Jahrhunderts bleiben fürs Digitale praktisch gesperrt und damit unsichtbar. Ich befürchte, zukünftige Generationen erfahren niemals etwas über die moderne Kunst des 20. Jahrhunderts, weil sie im Internet nichts dazu finden werden.

iRights.info: Mit der Beteiligung an der digitalen Mediathek Europeana sind Sie auf europäischer Ebene aktiv – wie beurteilen Sie dieses Projekt?

Lizzy Jongma: Europeana hat uns beim Implementieren der öffentlichen Lizenzen (CC Zero) und bei vielen rechtlichen Diskussionen enorm geholfen. Wir wollten unsere Bestände öffnen und sie unterstützten uns bei der Wahl der Lizenzen. Sie berieten uns auch bezüglich der Wahrung unserer Rechte. Zudem nutzt Europeana zahlreiche Bilder von uns für ihre Facebook- und Pinterest-Auftritte und das sorgt für sehr viele Besuche auf unsere Website. Insofern ist die Europeana ein wichtiger Partner für das Rijksmuseum.

iRights.info: Hat die Europeana das Potenzial, noch mehr für Open Access zu leisten?

Lizzy Jongma: Ja, die Europeana hat großes Potenzial, Open Access voranzubringen. Die europäischen Kultureinrichtungen sollten sich ihr mehr zuwenden, denn sie hat großartige Pläne. Die Botschaft der Europeana ist, dass die alten Geschäftsmodelle des Bilderverkaufs im digitalen Zeitalter nicht mehr funktionieren und wir uns öffnen müssen, um von zukünftigen Generationen gesehen zu werden. Doch diese Botschaft muss noch tiefer ins Bewusstsein der Kulturinstitutionen eindringen.

iRights.info: Erfährt die Europeana europaweit genügend Aufmerksamkeit und Unterstützung?

Lizzy Jongma: So betrachtet muss ich sagen: nein. Allerdings kümmern sie sich dort auch um zu viele Projekte gleichzeitig.

iRights.info: In Deutschland erklärten vor kurzem fünf bedeutende Kultureinrichtungen, ihre Sammlungen für Open Access zu öffnen – allerdings erlauben sie kommerzielle Nutzung nur gegen Entgelt. Auf diese Weise wollen sie ihre Aufwände für die Digitalisierung refinanzieren. Was halten Sie davon?

Lizzy Jongma: Damit schließt man sich von Anbietern wie Wikipedia, Facebook, Pinterest, Twitter und so weiter aus. Wir hingegen wollen, dass man unsere Sammlungen auch auf diesen kommerziellen Plattformen sieht und benutzt. Dafür mussten wir auf unser alleiniges Recht zur kommerziellen Nutzung verzichten. So büßen wir zwar Umsatz ein, weil wir die Bilder nicht mehr verkaufen. Doch Einbußen hatten wir zuvor auch schon, durch Piraterie. Wenn man beispielsweise nach Johannes Vermeers’ „Dienstmagd mit Milchkrug“ (Het Melkmeisje) googelt, stößt man auf tausende Webshops, die das Werk auf Leinwand oder in anderer Form anbieten. Doch für uns zählen die langfristigen Effekte. Gerade weil unsere Sammlungen offen zugänglich sind, kommen die Leute von überall auf der Welt, um unser Museum zu besuchen. Und weil wir die digitalisierten Werke frei anbieten, melden sich viele, die uns fördern und bei der Digitalisierung finanziell unterstützen wollen.

iRights.info: Was sind aus Ihrer Sicht die drei dringlichsten nächsten Schritte, um den Zugang zu den digitalen Archiven der Gedächtnisorganisationen zu verbessern und zu erweitern?

Lizzy Jongma: Wir brauchen mehr solche Entwicklungen wie im Rijksmuseum. So können andere Einrichtungen sehen, dass man durch die Freigabe digitaler Sammlungen relevant ist und gewinnen kann. Zudem ist mehr Aufklärung darüber erforderlich, wie wichtig das digitale Publikum für Museen ist. Es gilt, Sammlungen nicht hinter komplizierten Suchwerkzeugen zu verstecken und keine niedrig aufgelösten Bilder auf die Website zu stellen. Die jeweiligen Kultureinrichtungen müssen technisch kompetenter werden, etwa bezüglich der Darstellungsqualitäten digitaler Bilder und der beschreibenden Meta-Informationen über ihre Sammlungen. Auch sollte sich die Zusammenarbeit zwischen Institutionen und Politik verbessern. Wir alle können so viel voneinander lernen, etwa von erfolgreichen Praxisbeispielen. Nicht zuletzt ist mehr Geld für das Digitalisieren notwendig, wobei dieses wiederum Hand in Hand mit den zuvor genannten Entwicklungen gehen muss.

iRights.info: Angenommen, es gibt 2015 und 2020 weitere „Zugang gestalten“-Konferenzen, wo werden wir europaweit Ihrer Meinung nach stehen?

Lizzy Jongma: Das ist sehr schwer zu sagen. In drei Jahren wird die digitale Welt wohl komplett anders aussehen als heute. Es ist zu hoffen, dass noch mehr Einrichtungen offenen und freien Zugang bieten und dass wir dann noch viel mehr über die Qualität der digitalen Sammlungen reden. Denn momentan sind wir zwar alle dabei, unsere Bestände zu öffnen, doch wir denken zu wenig über die Qualität und die Brauchbarkeit der offen zugänglichen Daten nach. Ein großer Teil der verfügbaren Werke ist technisch und visuell unzulänglich und enthält kaum verwertbare Beschreibungsdaten. Darüber hinaus interessiere ich mich sehr für semantische Verknüpfungen. Denn bisher ist das Freigeben eine sehr isolierte Angelegenheit: Man öffnet seine Sammlung und das war’s. Viel interessanter finde ich die zusätzlichen Informationen und die Beziehungen, die sich in den digitalen Räumen herstellen lassen. Ich hoffe also, dass wir schon bald unsere Sammlungen noch besser miteinander vernetzen.

* Die Konferenz „Zugang gestalten. Mehr Verantwortung für das kulturelle Erbe“  findet am 28. und 29. November in Berlin statt. iRights.Lab gehört zu den Veranstaltern. Als eine der zahlreichen Referenten geht Lizzy Jongma näher auf die Open Data-Strategie und die offene Datenbank-Schnittstelle (API) ein, die sie – neben vielen weiteren Projekten und der Website – für das Rijksmuseum in Amsterdam betreut.

November 05 2013

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

In der digitalen Welt müssen Museen ihre Arbeit neu ausrichten und zugleich ihrem öffentlichen Auftrag treu bleiben. Von der Zusammenarbeit mit neuen Institutionen und privaten Akteuren können sie profitieren – wenn der Zugang dadurch nicht beschränkt wird.

Dieser Beitrag basiert auf einem Vortrag, den Paul Klimpel bei der Jahreskonferenz des Network of European Museum Organisations (NEMO) vom 1.-3. November in Bukarest gehalten hat.

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

Er geht ins Internet.

Aber er ruft nicht als erstes die Website des Ägyptischen Museums in Berlin auf; auch nicht die Europeana. Er gibt den Namen dieser schönen Frau in eine Suchmaschine ein.

Die ersten vier Suchtreffer führen – jedenfalls bei mir – zur Wikipedia. Dann kommt, immerhin schon auf Platz 5, das Ägyptische Museum, dicht gefolgt von einem Jazz-Club auf Platz 6. Platz 5 ist ein sehr sehr guter Rang. Häufig kommen Museen noch weiter hinten. Bei weniger bekannten Objekten kann es auch Platz 23 oder 48 sein. Ich habe hier Google als Suchmaschine genutzt, das Ergebnis ist aber mit anderen Suchmaschinen ähnlich.

Der Mensch, der sich für Nofretete interessiert, klickt also auf den ersten Suchtreffer. Er landet bei Wikipedia und findet nicht nur einen durchaus ausgewogenen und fachlich nicht zu beanstandenden Artikel über Nofretete, sondern an mehreren Stellen des Artikels auch den Verweis auf das Ägyptische Museum in Berlin.

Alle Wege führen ins Museum

Dort, im Ägyptischen Museum – heute im Neuen Museum auf der Berliner Museumsinsel – befindet sich die berühmte Büste der Nofretete, die ich gezeigt habe. Der Mensch, der sich für Nofretete interessiert, landet dort, wo er hin soll: im Museum, mit nur zwei Zwischenschritten.

Alle Wege führen ins Museum. Nur, dass es häufig andere sind, die diese Wege bauen, nicht die Museen selbst.

Sind die Museen nun das Schlusslicht der Digitalisierung, ein historisches Überbleibsel und eigentlich überflüssig? Warum waren die Museen im Prozess der Digitalisierung keine Avantgarde? Museen waren und sind Orte, die Menschen eine neue Welt eröffnen können. Da wäre es naheliegend, dass sich die Museen jederzeit der Möglichkeiten bedienten, mit dem, was sie vermitteln wollen, auch überall präsent zu sein.

Wikipedia, Google und die Museen

Trotzdem waren sie nicht Avantgarde, sie waren nicht vorne. Die Museen waren keine treibende Kraft, als mit Digitalisierung und Internet neue Möglichkeiten des Zugang, der Vermittlung, der Verbreitung und der Vernetzung von Wissen entstanden. Private Initiativen jenseits der institutionellen öffentlichen Strukturen haben das Potenzial früher genutzt.

Wohl wichtigstes Beispiel ist die Wikipedia. Lange wurde Wikipedia kritisch beäugt, belächelt. Doch inzwischen hat sie eine erhebliche Reputation und sich im Bereich der Enzyklopädien durchgesetzt, viele klassische gedruckte Enzyklopädien wurden eingestellt.

Aber auch Firmen haben sich mit großem Mut, mit viel Chuzpe und oft mit hohen Investitionen daran gemacht, zu digitalisieren und online zugänglich zu machen. Das Google-Buch-Projekt ist wohl das bekannteste Beispiel für Massendigitalisierung, aber keineswegs das einzige. Die Projekte von Google waren und sind umstritten, teilweise heftig umkämpft. Und sie sind erfolgreich und viele Museen kooperieren inzwischen mit Google.

Museen werden mit der Digitalisierung und durch neue Institutionen nicht überflüssig. Ihre Aufgabe – das Beschaffen, Bewahren, Erforschen, Bekannt machen und Ausstellen von Kulturzeugnissen – bleibt. Doch sie müssen sich verändern.

Was heißt das?

1. Beschaffen

Es fängt mit dem Beschaffen an: Früher wurden den Museen häufig Nachlässe angeboten, mit denen die Erben nichts anzufangen wussten. Die Erben konnten sie vor allem nicht verkaufen, Interessenten gab es nicht und damit keinen Markt. In Zeiten von Ebay und vielen anderen Möglichkeiten, im Internet Dinge anzubieten und für eigentlich alles einen Käufer zu finden, ist das anders. Damit ist es an den Museen, dafür zu werben, ihnen Nachlässe zu überlassen statt auf das schnelle Geld zu schielen.

2. Bewahren

Auch das Bewahren digitaler Objekte stellt die Museen vor gänzlich neue Herausforderungen – Herausforderungen, die sie nicht selbst lösen können. Die technische Expertise für digitale Langzeitarchivierung haben Museen nicht. Sie sind auf Zusammenarbeit angewiesen, mit Rechenzentren, mit Firmen, mit Experten.

3. Erhalten

Erhalten werden müssen nicht nur digitale Objekte selbst, sondern auch die Metadaten über analoge Objekte. Metadaten sind der Schlüssel zum Verständnis des kulturellen Erbes. Wer forscht, benötigt Zugang zu den Beständen, der Zugang zu den Beständen wiederum benötigt Standardisierung; Standardisierung heißt in der digitalen Welt Webservices, Personen-Norm-Dateien und Schnittstellen für den Austausch von Metadaten. Datenmodellierung im digitalen Zeitalter ist eine weitaus größere Herausforderung als die klassischen „Findbücher“.

4. Erforschen

Digitalisierte Sammlungen und moderne, vernetzte Datenbanken eröffnen der Forschung neue Möglichkeiten. Damit sind auch gleich die beiden Grundvoraussetzungen benannt, die Museen im digitalen Zeitalter nicht nur für die Forschung erfüllen müssen. Sie müssen ihre Bestände digitalisieren. Und sie müssen ihre Bestandsverzeichnisse online zugänglich machen. Das setzt Standardisierung der Metadaten voraus, sollen die Bestandsverzeichnisse auch genutzt werden können. Von Seiten der Museen werden insbesondere durch die Europeana und das Europeana Data Model wichtige Schritte hin zur Standardisierung gemacht. Bis diese Standards in den Museen implementiert sind, ist allerdings noch ein langer Weg.

5. Bekannt machen

Groß sind die Möglichkeiten von Museen, ihre Bestände durch das Internet bekannt zu machen. Auch hier gilt: Voraussetzung ist die Digitalisierung der Bestände und die Standardisierung der Metadaten. Das wohl ehrgeizigste und anspruchsvollste Projekt in Europa ist die Europeana. Sie ist ein wichtiger Beitrag, Kultur im Netz auffindbar zu machen. Aber die Wege im Netz sind nicht immer gradlinig.

Ich will dies mit einer kleinen Anekdote erläutern. 2008 kam der Film „Indiana Jones and the crystal scull“ in die Kinos. Und plötzlich sah sich das Britische Museum mit einem großen Interesse an Kristallschädeln konfrontiert.

The crystal skull, Collection of the British Museum in London. Rafał Chałgasiewicz, CC BY

The crystal skull, Collection of the British Museum in London. Foto: Rafał Chałgasiewicz, CC BY

Was war passiert? Fans von Indiana Jones wollten mehr über den Film wissen. In die Suchmaschine gaben sie jedoch nicht den Filmtitel ein, sondern nur „crystal scull“. Und die Suchmaschine zeigte als erstes einen Wikipedia-Artikel über Kristallschädel an. Dieser Artikel war illustriert mit Bildern der Kristallschädel im Britischen Museum. Und wieder führt ein ganz unerwarteter Weg ins Museum.

6. Ausstellen

Ausstellen ist wahrscheinlich der Bereich, der sich am wenigsten ändern muss. Ausstellungen werden weiter von der Aura des Originals leben, werden weiter ihren eigenen Gesetzen unterliegen. Fragen der Ausstellungsgestaltung haben mit Digitalisierung nur sehr mittelbar zu tun. Sicher gibt es „virtuelle Ausstellungen“, also kuratierte Angebote zu bestimmten Beständen. Es gibt den Einsatz neuer Technik, zum Beispiel Smartphone-Apps als Ersatz für den traditionellen Audioguide. Aber digitale Technik hat hier nur dienende Funktion. Museen sollten diese Möglichkeit nutzen, aber kein Netzauftritt und keine App ersetzt einen Museumsbesuch. Er kann Aufmerksamkeit schaffen, die zu einem Museumsbesuch führen kann.

Nicht Avantgarde, aber auch nicht abgehängt

Wo stehen die Museen im digitalen Zeitalter? Sie sind nicht die Avantgarde des Informationszeitalters, aber auch nicht der abgehängte Rest. Der Platz der Museen ist die Mitte. Da gehören sie auch hin.

Sie sind und bleiben Orte, die ihren Besuchern neue Welten eröffnen, die das Sammeln und Bewahren ernst nehmen, die Forschung ernst nehmen. Ihr Platz ist die Mitte der Gesellschaft, die durch die Digitalisierung immer vernetzter wird. Sie stehen in einem sich schnell verändernden Netzwerk von Institutionen, Initiativen und Firmen, die sich um das kulturelle Erbe bemühen. Solange Museen in der Mitte bleiben, stehen ihnen alle Optionen für die Zukunft offen. Wenn sich Museen der Vernetzung verweigern, werden sie ihrem öffentlichen Auftrag nicht gerecht und an Relevanz verlieren. Dann werden sie abgehängt werden in einer sich schnell ändernden Gesellschaft.

Betrachten Sie die neuen Player im Zeitalter der Digitalisierung, betrachten Sie Wikipedia, betrachten Sie Google und die vielen anderen nüchtern. Angebracht ist weder emotionale Abwehr noch devote Unterwerfung. Die neuen Player können in der digitalen Welt vieles besser. Im Bereich der digitalen Langzeitarchivierung beispielsweise haben Rechenzentren Kompetenzen, die Museen nie erlangen werden. Wo sich Museen diese Kompetenzen in Partnerschaften zunutze machen können, wo die neuen Player Aufmerksamkeit auf die Museen lenken, wo sie Zugang zum kulturellen Erbe ermöglichen, ist das gut.

Das kulturelle Erbe gehört allen, nicht einigen

Aber die Museen sollten selbstbewusst in solche Partnerschaften gehen. Sie sollten die Bedingungen solcher Kooperation aushandeln und öffentlich machen. Sind die Bedingungen der Kooperation zwischen Museen und Firmen nicht transparent, wächst Argwohn. So ist zum Beispiel – nach allem was ich weiß – die Kooperation der Bayerischen Staatsbibliothek mit Google eine sehr sinnvolle Kooperation, von der beide Seiten profitieren. Die Bedingungen sind inzwischen auch weitgehend bekannt. Was dem Ansehen dieser Kooperation am meisten geschadet hat, ist, dass der Kooperationsvertrag nicht von Anfang an öffentlich zugänglich war.

Museen haben eine große Verantwortung. Das kulturelle Erbe gehört allen. Digitalisierung und Internet können helfen, es allen zugänglich zu machen. Das, was Museen mit öffentlichen Mitteln für die Gesellschaft tun, muss weiter öffentlich bleiben. Der Zugang darf nicht beschränkt werden, um partikularen Firmeninteressen zu dienen. Das muss bei allen Kooperationen klar, transparent und verbindlich festgeschrieben werden. Das sind zeitlose Prinzipien, die auch und gerade im Zeitalter der Digitalisierung das Handeln bestimmen müssen.

Den öffentlichen Raum, zu dem auch die Museen gehören, gilt es zu verteidigen.

Ebenfalls zum Thema: Am 28. und 29. November findet die von Paul Klimpel geleitete Konferenz „Zugang gestalten!” statt. Disclosure: Das iRights Lab und Wikimedia Deutschland gehören zu den Veranstaltern, zu den Sponsoren gehört Google.

October 30 2013

Einladung: Zugang gestalten! – Konferenz am 28. und 29. November 2013 in Berlin

zugang-gestalten-flyer

Was die Digitalisierung für Museen, Bibliotheken, Archive und andere Einrichtungen bedeutet, davon handelt die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe”. 

Mancher wird sich erinnern: Es ist nicht die erste Konferenz zum Thema. In der Einladung heißt es:

Nachdem in den vergangenen beiden Jahren das Ob und das Wie der Digitalisierung des Kulturellen Erbes diskutiert wurde, stellt die Konferenz “Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” in diesem Jahr die Frage nach dem Warum.

Im Rahmen der dritten Konferenz der Reihe soll eine Rückbesinnung auf die zentralen Werte der Gedächtnisinstitutionen im Vordergrund stehen. In diesem Zusammenhang wird die Frage erörtert werden, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlicher Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der Digitalen Welt gerecht werden können.

So wird die Konferenz in diesem Jahr das Selbstverständnis der Gedächtnisorganisationen, die Aufgabe des Staates, die Rolle von bürgerschaftlichen Initiativen und der Privatwirtschaft und nicht zuletzt die rechtlichen Rahmenbedingungen behandeln; neue Projekte werden sich in einer Werkschau vorstellen.

Wann:

Am Donnerstag und Freitag, dem 28. und 29. November 2013.

Wo:

Im Jüdischen Museum Berlin, Lindenstraße 9–14.

Veranstaltet wird die Konferenz zusammen vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google, geleitet wird die Konferenz von Paul Klimpel.

Mehr Infos und Anmeldung:

Detaillierte Informationen zum Programm, Referentinnen und Referenten gibt es auf der Konferenzwebsite zugang-gestalten.de. Dort auch das Formular zur Anmeldung.

Wer sich ins Thema einlesen will, findet mehr dazu auch im gerade von Paul Klimpel und Jürgen Keiper herausgebenen Band „Was bleibt?”. Bei iRights.info nachzulesen sind Beiträge von Andreas Lange über die Bewahrung von Games und von Eric W. Steinhauer über das Urheberrecht als „Rechtspflicht zur Amnesie”. Und die Konferenz im letzten Jahr lässt sich hier nachsehen:

Einladung: Zugang gestalten! – Konferenz am 28. und 29. November 2013 in Berlin

zugang-gestalten-flyer

Was die Digitalisierung für Museen, Bibliotheken, Archive und andere Einrichtungen bedeutet, davon handelt die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe”. 

Mancher wird sich erinnern: Es ist nicht die erste Konferenz zum Thema. In der Einladung heißt es:

Nachdem in den vergangenen beiden Jahren das Ob und das Wie der Digitalisierung des Kulturellen Erbes diskutiert wurde, stellt die Konferenz “Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” in diesem Jahr die Frage nach dem Warum.

Im Rahmen der dritten Konferenz der Reihe soll eine Rückbesinnung auf die zentralen Werte der Gedächtnisinstitutionen im Vordergrund stehen. In diesem Zusammenhang wird die Frage erörtert werden, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlicher Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der Digitalen Welt gerecht werden können.

So wird die Konferenz in diesem Jahr das Selbstverständnis der Gedächtnisorganisationen, die Aufgabe des Staates, die Rolle von bürgerschaftlichen Initiativen und der Privatwirtschaft und nicht zuletzt die rechtlichen Rahmenbedingungen behandeln; neue Projekte werden sich in einer Werkschau vorstellen.

Wann:

Am Donnerstag und Freitag, dem 28. und 29. November 2013.

Wo:

Im Jüdischen Museum Berlin, Lindenstraße 9–14.

Veranstaltet wird die Konferenz zusammen vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google, geleitet wird die Konferenz von Paul Klimpel.

Mehr Infos und Anmeldung:

Detaillierte Informationen zum Programm, Referentinnen und Referenten gibt es auf der Konferenzwebsite zugang-gestalten.de. Dort auch das Formular zur Anmeldung.

Wer sich ins Thema einlesen will, findet mehr dazu auch im gerade von Paul Klimpel und Jürgen Keiper herausgebenen Band „Was bleibt?”. Bei iRights.info nachzulesen sind Beiträge von Andreas Lange über die Bewahrung von Games und von Eric W. Steinhauer über das Urheberrecht als „Rechtspflicht zur Amnesie”. Und die Konferenz im letzten Jahr lässt sich hier nachsehen:

September 30 2013

Rechtspflicht zur Amnesie: Digitale Inhalte, Archive und Urheberrecht

Mit dem geltenden Urheberrecht wird es nicht ermöglicht, sondern vielmehr verhindert, dass digitale Inhalte archiviert werden können, so Eric W. Steinhauer. Der Bibliotheksjurist skizziert die Lage und fragt: Was soll unser kulturelles Gedächtnis ausmachen?

Was wir uns erzählen, was wir uns berichten, bildet das kommunikative Gedächtnis unserer Gesellschaft. Es reicht gerade soweit zurück wie die Erinnerung noch lebender Menschen: maximal 100 Jahre. Alles, was darüber hinausgeht, ist entweder mythisch oder vergessen oder im kulturellen Gedächtnis als einem Speichergedächtnis enthalten, wie es der Kulturwissenschaftler Jan Assmann einmal formuliert hat.

Dieses kulturelle Gedächtnis findet seinen Niederschlag in dauerhaften Zeugnissen der Kultur: in lesbaren Medien, an erster Stelle in Büchern und anderen gedruckten Materialien. Auf diese Medien sind wir zwingend angewiesen, wenn wir uns auf Sachverhalte außerhalb des zeitlichen Erfahrungshorizontes lebender Personen beziehen wollen.

Digitale Inhalte sind nicht von allein lesbar

Die Allgegenwart des Internet in der heutigen Wissens- und Informationsgesellschaft kann hier mit der Zeit zu einem ernsten Problem werden. Denn digitale Inhalte – kurz Digitalia – haben die unangenehme Eigenschaft, der sinnlichen Wahrnehmung nicht unmittelbar zugänglich zu sein. Sie müssen erst durch Software interpretiert und lesbar gemacht werden.

Soll dieser Vorgang über lange Zeiträume funktionieren, ist Vorsorge für die Stabilität von Formaten zu treffen oder eine Überführung in neue Formate notwendig. Doch damit nicht genug: Digitalia sind darüber hinaus auch noch hochfragil, da sie entweder unkörperlich und damit flüchtig in Netzen kursieren oder auf Datenträgern aufbewahrt werden, die nach dem gegenwärtigen Stand der Technik nicht wie Papier über Generationen hinweg haltbar sind.

Digitalia müssen daher in regelmäßigen Abständen auf neue Datenträger umgeschrieben werden. Formatänderungen und Datenträgerwechsel sind technisch komplexe Vorgänge. Sie stehen bei der Frage der digitalen Langzeitarchivierung meist im Vordergrund. Technische Aspekte sind aber nur eine Seite des digitalen Gedächtnisses. Die andere Seite ist eine juristische.

1. Langzeitarchivierung: Was das Urheberrecht sagt

Soweit die betroffenen Digitalia persönliche geistige Schöpfungen sind – was meist der Fall sein wird – unterfallen sie als geschützte Werke dem Urheberrecht, und ihre Vervielfältigung hat bestimmte rechtliche Vorgaben zu beachten. Da sowohl das für die digitale Langzeitarchivierung unverzichtbare Umkopieren als auch mögliche Formatänderungen Vervielfältigungen darstellen, liegt die gar nicht zu überschätzende Relevanz des Urheberrechts für diese Vorgänge auf der Hand. Und hier stellt sich die Lage – in grober Skizze – wie folgt dar:

Jede Vervielfältigung eines urheberrechtlich geschützten Werkes greift in das Verwertungsrecht des Urhebers oder entsprechende Nutzungsrechte von Rechteinhabern ein. Wenn der Urheber oder die Rechteinhaber die für die Langzeitarchivierung erforderlichen Vervielfältigungen – sei es in Form von Nutzungsrechten, sei es in sonstiger Form – gestatten, ergeben sich keine Probleme. Die Vervielfältigung ist dann rechtmäßig. Ansonsten aber kann eine Langzeitarchivierung nur auf Grundlage urheberrechtlicher Schrankenbestimmungen vorgenommen werden.

Von den Schrankenregelungen kommen im Wesentlichen nur die labyrinthischen Normen für „Vervielfältigungen zum privaten und sonstigen eigenen Gebrauch” in Betracht, um Kopien im Rahmen der digitalen Langzeitarchivierung zu rechtfertigen. Danach ist eine digitale Privatkopie gestattet, sofern sie nicht von einer offensichtlich rechtswidrigen Vorlage angefertigt wird. Ebenfalls zulässig sind Vervielfältigungen für den eigenen wissenschaftlichen Gebrauch.

Hier wäre jedoch näher zu begründen, warum der eigene wissenschaftliche Gebrauch gerade eine auf mehrere Generationen angelegte Langzeitarchivierung erfordert. Tote können schwerlich einen eigenen wissenschaftlichen Gebrauch für sich reklamieren. Selbst wenn man sich hier auf den Gebrauch einer Institution bezieht, so stellt sich die Frage, ob Kopien noch vor jedem Gebrauch von der Schranke überhaupt erfasst sind oder ob nicht die Kopie selbst dem unmittelbaren Gebrauch dienen muss. Vor dem Hintergrund der regelmäßig geforderten engen Schrankenauslegung ist diese Frage keineswegs haarspalterisch, sondern leider nur allzu berechtigt.

Archivkopie: Ein kunstvolles Regelungslabyrinth

Interessanter ist da schon die Erlaubnis im selben Paragrafen, eine Vervielfältigung zur Aufnahme in ein eigenes Archiv herzustellen, denn der Aufbau eines Archivs ist genau das, was wir wollen, wenn wir über digitale Langzeitarchivierung reden.

Allerdings liegt hier die Tücke im Detail. So muss die Vorlage für die Archivkopie zunächst ein „eigenes Werkstück“ sein. Doch darf die Vervielfältigung selbst oder ihre Nutzung bloß in analoger Form erfolgen, was für die digitale Langzeitarchivierung schlicht sinnlos ist. Diese Beschränkung wiederum gilt nicht für Archive, die im öffentlichen Interesse tätig sind und keine wirtschaftlichen oder Erwerbszwecke verfolgen. Diesen Einrichtungen ist auch die digitale Kopie zur Aufnahme in ein eigenes Archiv gestattet. Hier ist also Gelegenheit, den kunstvoll verschränkten Aufbau des Paragrafen 53 Urheberrechtsgesetz zu bewundern.

Halten wir hier kurz inne. Die digitale Langzeitarchivierung scheint zwar nicht im Fokus des Gesetzgebers zu stehen, ist aber Einrichtungen gestattet, die im öffentlichen Interesse tätig werden. So jedenfalls kann man die Archivschranke verstehen und damit der Ansicht sein, dass immerhin Bibliotheken und Archive, mithin öffentliche Gedächtnisinstitutionen aus urheberrechtlichen Gründen nicht gehindert sind, digitale Langzeitarchivierung durchzuführen.

Einmal kopieren und Schluss

Diese Ansicht zur Archivschranke freilich ist etwas schlicht. Bei der Frage der digitalen Langzeitarchivierung geht es um den Aufbau eines digitalen Speichergedächtnisses, das in seiner Dauerhaftigkeit den gedruckten Büchern als den wohl wichtigsten Medien des überkommenen kulturellen Gedächtnisses entsprechen soll. Wegen der begrenzten Haltbarkeit von Datenträgern hilft es daher nichts, es mit einer einzigen Archivkopie für die Dauer des Urheberrechts an dem betreffenden Werk bewenden zu lassen. Um eine zuverlässige Speicherung zu gewährleisten, ist vielmehr die regelmäßige Migration auf einen neuen Datenträger nötig.

Die Archivschranke aber gestattet nur Vervielfältigungen zur Aufnahme in ein Archiv, Kopien im Archiv selbst sind nicht im Fokus der Norm. Ob hier eine Auslegung der Schrankenbestimmung helfen kann, ist zweifelhaft. Die jüngsten Gerichtsverfahren gegen Hochschulen um elektronische Semesterapparate und Leseplätze zeigen zudem, welche komischen, den Erfordernissen einer digital arbeitenden Wissenschaft nicht unbedingt entgegenkommenden Auslegung Schrankenbestimmungen durch Gerichte erfahren können.

Hält man sich dies vor Augen, ist man nicht gut beraten, auf dem sandigen Fundament der Archivschranke eine kostspielige Infrastruktur für die digitale Langzeitarchivierung aufzubauen. Unklares Recht ist hier ein ernstes Investitions- und Planungsrisiko!

Ausnahmen für Datenbankwerke und Kopierschutz

Indes, das Recht ist nicht in allen Punkten unklar. Klar und deutlich etwa drückt sich der Gesetzgeber bei den Ausnahmen von der Archivkopie aus. Danach ist eine Archivkopie von Datenbankwerken unzulässig; sie wird lediglich für den eigenen wissenschaftlichen Gebrauch sowie den Unterrichtsgebrauch unter Einschränkungen gestattet. Für Digitalia im Internet, die in Form von Datenbankwerken nicht unbedingt selten auftreten, ist das eine ziemliche klare, aber keine gute Aussage.

Sekundiert wird dieses wenig erfreuliche Ergebnis durch die Norm, dass bei einfachen Datenbanken ohne Werkcharakter zwar Privatkopien und solche für den Wissenschafts- und Unterrichtsgebrauch erlaubt sind (Paragraf 87c), nicht aber eine Archivkopie.

Als raffinierter Höhepunkt der klaren Aussagen des Gesetzgebers dürfen die technischen Schutzmaßnahmen nicht vergessen werden. Soweit es um Digitalia geht, die in Netzen kursieren, besteht von Rechts wegen keine Möglichkeit, technische Schutzmaßnahmen für Vervielfältigungen aufzuheben. Eine legale digitale Langzeitarchivierung allein auf Grundlage urheberrechtlicher Schrankenbestimmungen ist hier vollkommen ausgeschlossen.

Urheberrechtlich saubere Archivierung ist kaum möglich

Soweit also zu den Möglichkeiten, die das Urheberrecht zur Langzeitarchivierung von Digitalia eröffnet. Es liegt auf der Hand, dass diese Möglichkeiten nicht ausreichen. Außerhalb vertraglicher Vereinbarungen mit den Urhebern oder Rechteinhabern aber ist eine rechtlich saubere digitale Langzeitarchivierung im Rahmen der derzeitigen urheberrechtlichen Schranken nicht möglich.

Auf eine Schrankenlösung wird man aber nicht verzichten können, da insbesondere Netzinhalte oft kollaborativ und ohne eindeutige Klärung juristischer Fragen erstellt werden. Es ist in diesen Fällen oft nicht möglich, einen Ansprechpartner zur Einholung aller für die Langzeitarchivierung erforderlichen Rechte ausfindig zu machen. Überdies erscheint es angesichts der Masse an relevanten Digitalia wenig sachgerecht, neben den ohnehin schon hohen technischen Aufwand der Langzeitarchivierung noch einen bürokratischen Aufwand zur Klärung rechtlicher Fragen zu stellen.

Sammeln im Netz: Wie das Recht hinterherhinkt

Digitalia sammelt man nicht einfach so wie Bücher; es sei denn, sie sind auf körperlichen Datenträgern wie CD-ROMs verfügbar. Digitalia sammelt man, indem man sie auf eigene Speichermedien kopiert, also vervielfältigt. Solche Vervielfältigungen sind zweifelsfrei legal, wenn sie auf Grundlage einer Lizenzvereinbarung erfolgen. Allerdings ist nur ein Bruchteil des für das digitale kulturelle Gedächtnis relevanten Materials auf diese Weise verfügbar, etwa weil es von Verwertern entsprechend vermarktet oder auf Grundlage diverser Open-Content-Lizenzen im Internet bereitgestellt wird. Gerade frei zugängliche Internetquellen stehen oft unter keiner Lizenzbestimmung. Was tun?

Der Blick auf die urheberrechtlichen Schranken kann kurz gehalten werden: Privater oder eigener wissenschaftlicher Gebrauch kommt für für die klassischen Gedächtnisinstitutionen wie Archive oder Bibliotheken nicht in Betracht. Damit aber ist das Sammeln von Digitalia aus dem Internet auf Grundlage urheberrechtlicher Schrankenbestimmungen nicht möglich. Die schon erwähnte Archivschranke scheidet hier aus, weil das Ergebnis der Schrankennutzung die Voraussetzung ihrer Anwendung ist, nämlich das eigene Werkstück als allein zulässige Kopiervorlage.

Nationalbibliothek soll sammeln, darf aber nicht

Trotz dieser sehr misslichen urheberrechtlichen Situation hat der Gesetzgeber mit dem Gesetz über die Deutsche Nationalbibliothek (DNBG) im Jahre 2006 dieser Bibliothek die Aufgabe zugewiesen, auch Digitalia als Kulturgut für die Nachwelt zu sichern, also ein digitales kulturelles Gedächtnis anzulegen. Dabei stellte sich der Gesetzgeber ausweislich der Gesetzgebungsmaterialien (PDF) sogar vor, dass die Deutsche Nationalbibliothek in regelmäßigen Abständen gewissermaßen Sicherungskopien des gesamten deutschsprachigen Internet im Wege des Webharvesting erstellt.

Das aber ist schlicht illegal. Das Urheberrechtsgesetz enthält keine entsprechende Schranke. Und auch das Nationalbibliotheksgesetz selbst regelt diesen Sachverhalt nicht, obwohl es den Sammelauftrag der Nationalbibliothek explizit auf unkörperliche Medienwerke und damit Digitalia in Netzen erweitert hat. Ansonsten ist das Gesetz stockkonservativ: Nicht nur Bücher und Datenträger, sondern auch Netzpublikationen müssen „abgeliefert” werden. Ähnlich „fortschrittliche“ Bestimmungen enthalten die Pflichtexemplarvorschriften der Länder Baden-Württemberg, Hamburg, Thüringen und Sachsen-Anhalt.

Digitalia nutzen: Speichern verboten

Neben der Langzeitarchivierung und dem Sammeln ist schließlich noch das Vermitteln als dritte wichtige Säule des digitalen kulturellen Gedächtnisses zu beleuchten. Bibliotheken und Archive dürfen Mikroformsammlungen an Bildschirmen in ausgewählten Pflichtexemplarbibliotheken anbieten, Nutzer dürfen sich von den multimedialen Inhalten eigene Exzerpte machen, vielleicht ein paar Screens abfotografieren oder den Bildschirm auf den Kopierer legen. Das ist auch ein Ergebnis der Rechtsprechung: Der Bundesgerichtshof hat sein Verständnis für digitales Arbeiten bündig so zum Ausdruck gebracht:

Für ein wissenschaftliches Arbeiten mit Texten ist nach heutigem Verständnis zwar der Ausdruck, nicht aber das Abspeichern wichtiger Textpassagen unerlässlich.

Für diese „komfortable” Form der Nutzung ist freilich eine angemessene Vergütung abzuführen. Wobei hier durchaus die Frage aufgeworfen werden kann, ob diese Vergütungspflicht für Pflichtexemplarbibliotheken im Rahmen ihres Sammelauftrages überhaupt angemessen ist, denn immerhin investieren diese Einrichtungen eine Menge Geld in den Erhalt von Digitalia für die Nachwelt.

Das Problem freilich ist nur ein theoretisches. Von sich aus dürfen Pflichtexemplarbibliotheken, wie wir festgestellt haben, ja gar nichts sammeln; lediglich das Land Hessen hat auch eine Sammelermächtigung bei säumigen Ablieferungspflichtigen vorgesehen. Was sie aber abgeliefert bekommen, ist konkludent entsprechend lizenziert. Anders gesagt: Das Wenige, das gesammelt wird, darf man auch der Öffentlichkeit vermitteln, jedenfalls am stationären Leseplatz im Haus.

Rechtspflicht zur Amnesie

Nachdem wir uns die urheberrechtliche Seite der Langzeitarchivierung angesehen haben, kann man sagen, dass man sich um die Zukunft unserer Digitalia im kulturellen Speichergedächtnis durchaus Sorgen machen muss. Im Gegensatz zur analogen Welt der gedruckten Bücher etwa unterfallen im digitalen Bereich alle für den Aufbau, die Pflege und die Nutzung des digitalen Gedächtnisses relevanten Handlungen dem Urheberrecht.

Es fehlt hier an einer dem Sachenrecht entsprechenden eigenen Rechtsposition („Eigentum am bedruckten Papier“) von Gedächtnisinstitutionen wie Bibliotheken oder Archiven. Vertragliche Vereinbarungen sind angesichts der Masse des relevanten Materials keine Lösung. Die vorhandenen urheberrechtlichen Schranken bieten ebenfalls keine geeignete Grundlage für die digitale Langzeitarchivierung. Hier ist der Gesetzgeber gefragt, die für Gedächtnisinstitutionen in vielen Fällen derzeit bestehende „Rechtspflicht zur Amnesie“ im digitalen Bereich durch eine sachgerechte Novellierung des Urheberrechtsgesetzes zu beenden.

Dazu hat im Übrigen auch die EU-Kommission schon 2011 eine Empfehlung „zur Digitalisierung und Online-Zugänglichkeit kulturellen Materials und dessen digitaler Bewahrung” (PDF) beschlossen. Die Kommission empfiehlt darin „die ausdrückliche und eindeutige Verankerung von Bestimmungen in ihren Rechtsordnungen, die ein mehrfaches Kopieren und Konvertieren digitalen kulturellen Materials durch öffentliche Einrichtungen zum Zwecke der Bewahrung erlauben“, sowie „die Schaffung der erforderlichen Regelungen für die Pflichtexemplarhinterlegung in digitaler Form“.

Zu den notwendigen Pflichtexemplarvorschriften rechnet die Kommission auch die Gestattung von Web-Harvesting und des gegenseitiges Austausches von Digitalia zwischen Pflichtexemplarbibliotheken, wenn sie einen eigenen gesetzlichen Sammelanspruch haben. Österreich hat das bereits umgesetzt und verfügt im Mediengesetz über ein recht differenziertes Regelwerk, das sich der deutsche Gesetzgeber als Beispiel nehmen könnte.

2. Was soll das kulturelle Gedächtnis ausmachen?

Das Ergebnis der urheberrechtlichen Bestandsaufnahme ist, um es mit einem Wort zu sagen, vernichtend. Hier ist nahezu alles problematisch und eine rechtssichere digitale Langzeitarchivierung ebenso unmöglich wie der nachhaltige Aufbau und die Nutzung eines digitalen kulturellen Gedächtnisses. Aber selbst wenn wir hier eine zufriedenstellende Lösung für die Gedächtnisinstitutionen bekommen sollten: Die rechtlichen Probleme des digitalen kulturellen Speichergedächtnis sind damit bei weitem noch nicht gelöst. Ich möchte beispielhaft auf drei Bereiche eingehen, die sich als problemträchtig erweisen.

Wer darf archivieren?

Zunächst werden für das digitale kulturelle Gedächtnis, wenn man das soeben zitierte Kommissionsdokument betrachtet, ausschließlich bestimmte Institutionen als zuständig erachtet: vor allem Bibliotheken und Archive. Doch eine Fülle weiterer Akteure ließe sich anführen. Beispielhaft möchte ich hier private Sammler nennen. Neben dem großen Fundus an Kulturgütern in öffentlichen Institutionen existiert ein vielleicht noch größerer, jedenfalls vielfältigerer Schatz in privaten Sammlungen. Oft sind es private Sammler, die wichtige Kollektionen erst zu einer Form zusammenstellen, die für eine öffentliche Einrichtung interessant ist.

Keine Gedächtnisinstitution würde Briefkastenwerbung von Edeka archivieren. Aber wenn ein Sammler einem Wirtschaftsarchiv nun ein vollständiges Konvolut solcher Werbezettel aus der Zeit von 1965 bis 2000 anböte? Das wäre fast ein DFG-Projekt! Könnte ich aber eine mit Kennerschaft zusammengestellte Sammlung von Fotos und Texten aus dem Internet – alles legale Kopien für den wissenschaftlichen Eigengebrauch – einfach so einer Bibliothek übergeben? Und könnte die Bibliothek damit überhaupt etwas anfangen?

Mit anderen Worten: Im analogen Zeitalter konnte jedermann, der am Kulturleben teilnahm, einen substantiellen Beitrag zum kulturellen Speichergedächtnisses leisten. Im digitalen Bereich aber, mit seiner ungleich größeren Vielfalt, verengt sich der Fokus der Diskussion auf wenige institutionelle Akteure. Ich habe aus „sammlungsphilosophischen“ Gründen meine Zweifel, dass das sachgerecht ist.

Persönlichkeitsrechte im Internetzeitalter

Äußerungen in den klassischen Massenmedien sind schnell vergessen und werden von neuen Meldungen überlagert. Wenn es um Berichte über unvorteilhaftes persönliches Verhalten geht, Straftaten etwa, dumme Plagiate oder eine kleine Affäre, ist es die Vergesslichkeit der Massenmedien, die aus persönlichkeitsrechtlichen Gründen eine Berichterstattung darüber ermöglicht.

Das Bundesverfassungsgericht hat es in der berühmten Lebach-Entscheidung von 1973 daher für unzulässig gehalten, „dass die Kommunikationsmedien sich … zeitlich unbeschränkt mit der Person eines Straftäters und seiner Privatsphäre befassen.“ Damals war das Fernsehen das Leitmedium. Was aber gilt im Internetzeitalter, wenn Google mir über digital verfügbare Medienarchive zwanzig Jahre alte Skandale wie frische Meldungen serviert?

Auch dies möchte ich als Frage stehen lassen. Sie zeigt, dass im digitalen kulturellen Speichergedächtnis persönlichkeitsrechtliche Fragestellungen eine völlig neue Relevanz bekommen.

Rückruf und Depublizierung: Imperative des Vergessens

„Das Netz speichert zuviel, es soll auch wieder vergessen!“ Diese Forderung wird oft erhoben. Tatsächlich könnte ein Urheber ein Werk einfach aus den Internet löschen. Sofern er keine Nutzungsrechte eingeräumt hat, können Dritte es nicht mehr zugänglich machen. Was aber, wenn das Werk bereits an die Deutsche Nationalbibliothek gelangt ist? Könnte jetzt der Urheber eine Löschung verlangen? Hier wird deutlich, wie anfällig für gezielte Manipulationen und Streichungen das digitale Gedächtnis im Vergleich zum gedruckten ist. Die Vielzahl von nicht mehr manipulierbaren Werkstücken und der Erschöpfungsgrundsatz verhindern hier einen Zugriff des Urhebers auf sein bereits publiziertes und verbreitetes Werk.

Neben dem Urheber, der sein Werk unterdrücken möchte, gibt es noch einen ungleich problematischeren Imperativ des Vergessens. Betrachtet man das Gesetz über die Deutsche Nationalbibliothek und politische Äußerungen zum digitalen Kulturerbe, dann ist man sehr irritiert, wenn man sich näher mit der Praxis des Depublizierens von Webseiten der öffentlich-rechtlichen Rundfunkanstalten beschäftigt. Diese Internetseiten dürfen sicher als zeitgeschichtliche Zeugnisse ersten Ranges gelten. Gleichwohl schreibt der Rundfunkstaatsvertrag für einen Großteil dieser Inhalte eine bloß befristete Verweildauer vor. Danach werden die Seiten vom Netz genommen.

Und dann? Dann sind die Seiten weg. Die Deutsche Nationalbibliothek fühlt sich unter Verweis auf ihre Sammelrichtlinien nicht zuständig – man kann das durchaus anders sehen! – und die Rundfunkarchive, wo diese Inhalte möglicherweise noch zu finden sind, gleichen hermetischen Silos und haben keinen klaren Auftrag, ein digitales kulturelles Speichergedächtnis zu schaffen, das allen leicht zugänglich ist.

Archivieren im Datenstrom

Was im analogen Bereich säuberlich getrennt war, ist nun unterschiedslos einfach ein Datenstrom. Im Internet konvergieren Publikation, Kommunikation, Information, Unterhaltung und Business. In der analogen Welt ist es klar, dass wir Bücher sammeln, Werbeflyer eher nicht und Telefongespräche gar nicht. Im Internet ist das nicht mehr klar. Neben einer angemessenen Rechtsordnung für das digitale kulturelle Gedächtnis müssen wir fragen: Was soll dieses Gedächtnis eigentlich ausmachen? Und wenn wir es anlegen, sollten wir es vielleicht nur gestuft zugänglich machen? Persönliches nach 100 Jahren, Publiziertes sofort?

Erst wenn diese Fragen gelöst und in ein stimmiges Konzept gebracht sind, kann auch der Gesetzgeber ein sinnvolles Rechtsregime für Digitalia aufbauen. Am Rande sei erwähnt, dass dabei auch die Rolle der digitalisierten analogen Kulturgüter mit zu bedenken ist, denn bei aller Unsicherheit bei der Bewahrung von Digitalia werden paradoxerweise Unmengen analoger Kulturgüter digitalisiert, auch und gerade um sie der Nachwelt zu erhalten.

Sollte es sich in einer Generation jedoch herausstellen, dass vor allem das gegenwärtige, stark urheber- und verwerterzentrierte Recht des geistigen Eigentums den Aufbau nachhaltiger Speicher- und Sammelstrukturen verhindert hat, wird dies eine Debatte auslösen, die an Heftigkeit die gegenwärtigen Diskussionen um Nutzer- und Wissenschaftsrechte weit übertreffen wird.

Zerstörte Gedächtnisspuren lösen stärkste Emotionen aus. Man denke nur an den Weimarer Bibliotheksbrand oder den Einsturz des Kölner Stadtarchivs. Wir betreten dann einen Resonanzboden, der das Urheberrecht in der Form, in der wir es kennen, nicht nur zum Wanken, sondern zum totalen Einsturz bringen könnte. Ob hier der archimedische Punkt der neuen Urheberrechtsordnung liegt, nach dem alle suchen? Wer weiß?

Zur Person

steinhauerDr. Eric W.  Steinhauer ist Bibliothekar an der Universitätsbibliothek der Fernuniversität in Hagen. Als Bibliotheksjurist beschäftigt sich Steinhauer unter anderem mit den urheberrechtlichen Problemen der digitalen Langzeitarchivierung und gehörte zur Expertengruppe der Initiative „Nachhaltigkeit in der digitalen Welt” des Internet und Gesellschaft Collaboratory. Foto: Mathias Schindler, CC BY-SA.

Eine erweiterte Version dieses Artikels ist im Band „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt” bei iRights.Media als Print, E-Book sowie frei im Netz erschienen. Dort finden sich auch weitere Literaurangaben.

September 25 2013

Was Archive, Museen und Bibliotheken von Gamern lernen können – und umgekehrt

Spielefans auf der ganzen Welt haben freiwillig und außerhalb der traditionellen Gedächtnisorganisationen eigene Ansätze entwickelt, um Games zu bewahren. Für Museen, Archiven und Bibliotheken wird dieses Wissen jetzt relevant. Doch braucht auch die Spielecommunity die Zusammenarbeit mit Institutionen, um Games als digitales Kulturgut zu bewahren.

Games sind die ersten digital geborenen Kulturgüter, die massenhaft und global produziert wurden. Wissen und Praktiken, die sich in der Games-Kultur herausgebildet haben, sind auch darüber hinaus für die Bewahrung digitaler Kulturgüter relevant. Als komplexe digitale Artefakte stellen Computerspiele höchste Anforderungen an Archivare, sodass ich die These aufstelle: Wenn es uns gelingt, Computerspiele zu bewahren, können wir alles Digitale bewahren, da alle digitalen Werke die gleiche technische Grundlage besitzen.

Digitale Werke wie Games sind von der Kombination aus Betriebssystem und Hardware in hohem Maße abhängig. Ohne deren Hilfe wären wir nicht in der Lage, den Nullen und Einsen im Bitstrom einen Sinn zu geben. Weil diese Nullen und Einsen nur eine begrenzte Lebensdauer haben, ist es eine der wichtigsten Aufgaben, sie unabhängig von der ursprünglichen physischen Systemplattform zu bewahren. Dies leisten im Kern Emulatoren, indem sie die ursprüngliche physische Hardware auf anderen Systemen imitieren und durch Virtualisierung auch dann noch anwendbar halten, wenn kein funktionsfähiger Computer eines bestimmten Systems mehr existiert.

Die Strategie der Migration – der Umarbeitung der Software auf ein neues System – ist im Bereich komplexer digitaler Artefakte nicht praktikabel. Zwar dient auch Migration dazu, ein Werk vom Ursprungssystem unabhängig zu machen, indem es so verändert wird, dass es auf aktuellen Systemen zugänglich ist. Allerdings ist diese Methode lediglich bei technisch einfachen Inhalten wie Texten oder Grafiken praktikabel, da der Migrationsaufwand mit zunehmender Komplexität der Werke steigt. Auch muss die Migration stets neu durchgeführt werden, wenn sich die aktuelle Systemplattform ändert. Da bei der Emulation jedoch das Werk selbst unverändert bleibt und die ständige Anpassung der Werke an neue Plattformen wegfällt, bietet sie unbestreitbare Vorteile für die Langzeitbewahrung. Die Komplexität der Computerspiele als interaktive, zeit-, bild- und tonkritische Anwendungen macht ihre Bewahrung zur Nagelprobe für das Gelingen digitaler Bewahrung.

Die Anfänge der digitalen Bewahrung

Es ist keine Besonderheit der Games-Kultur, dass die erste Initiative zur Bewahrung von Kulturgütern von den Fans ausging: So wie die Cinémathèque in Paris als eines der ersten Archive für die noch junge Filmkultur 1935 von Filmenthusiasten um Henri Langlois gegründet wurde, waren es auch die Fans früher Computerspiele, die den kulturellen Wert der Spiele erkannten und erste Ansätze entwickelten, um diese Kultur zu bewahren.

Gaming-Fans waren allerdings die ersten Liebhaber, die sich an diese Aufgabe unter den Bedingungen des Internets machten. Mehr noch: Sie gehörten zu den ersten Internet-Communitys überhaupt, die das World Wide Web Mitte der 1990er Jahre mit ihrem Hobby besetzten und damit begannen, die Geschichte ihres geliebten Kulturguts kollaborativ aufzuschreiben. Als Anfangspunkt dieser Bewegung lässt sich der 7. Dezember 1992 festhalten: Mit alt.games.video.classic wurde die erste Newsgroup gegründet, die sich dem Austausch von Nachrichten und Diskussionen ausschließlich über klassische Videospiele widmete.

Diese erste Phase lässt sich mit einer mündlichen Geschichtsüberlieferung vergleichen: Vieles wurde eher dem Hörensagen nach festgehalten – Dinge, die man auf anderen Seiten gelesen hatte, wurden zusammenkopiert oder verlinkt. Genauigkeit wurde zwar angestrebt, systematisch und wissenschaftlich fundiert waren die Aktivitäten aber nicht. Dennoch: Parallel zu dieser ersten Geschichtsschreibung entstanden bereits umfangreiche Archive und Metadatensammlungen, die ebenfalls von Fans zusammengetragen wurden. Dazu gehören etwa die Projekte Home of the Underdogs und mobygames.com.

Bewahrung im Wettlauf mit der Technik

Bedingt durch die schnelle technische Entwicklung der Abspielplattformen sind Spiele schon nach kurzer Zeit obsolet und nur noch mit Glück gebraucht zu bekommen. Insofern waren die Fans der alten Spiele darauf angewiesen, eigene Bewahrungsansätze zu realisieren. Zwei Aspekte dieses Prozesses verdienen es, hervorgehoben zu werden:

Erstens handelte es sich bei diesen Fan-Communitys von Anfang an um globale Communitys. Dies nicht nur in Bezug auf die technische Kommunikationsgrundlage Internet, die keine nationalen Grenzen kannte. Die globale Ausdehnung der Fangemeinschaft war dem globalen Charakter der Games selbst geschuldet, die von Anfang an für einen möglichst weltweiten Markt produziert und verkauft wurden. Wie sich dieser Unterschied auf die zukünftigen organisatorischen Strukturen der Computerspielebewahrung auswirken wird, muss sich noch zeigen, sind doch Bewahrungsinitiativen traditionell oft in einen nationalen Kontext eingebunden.

Zweitens war es die Community der Gamer selbst, die als Erste praktikable Lösungen entwickelt hat, um diese zu bewahren. Über das Internet bildeten sich offene, kollaborative, globale und üblicherweise nicht-kommerzielle Projekte, die heute auch von etablierten Gedächtnisorganisationen zur Kenntnis genommen werden. Für die Community lag es aufgrund der Komplexität der digitalen Spiele nahe, die Spiele nicht einzeln auf neue Plattformen zu adaptieren, sondern die obsoleten Plattformen selbst in Form von Emulatoren zu bewahren. Die Retro-Gamer waren insofern die ersten Anwender, die das bereits bekannte Modell Emulator nicht als Programmierumgebung für neue Hardware einsetzten, sondern als Werkzeug der Bewahrung.

Emulatoren bilden alte Plattformen auf neueren nach. Hier zu sehen ein Gameboy-Emulator auf einem Taschenrechner der Firma Texas Instruments.

Seitdem sind Millionen von Stunden an hochspezialisiertem Wissen in die Entwicklung der Emulatoren eingeflossen, die unter institutionellen Rahmenbedingungen womöglich hunderte Millionen gekostet hätten. Eines der ältesten und bis heute wichtigsten Emulatorenprojekte ist M.A.M.E., der Multiple Arcade Machine Emulator. Seinen Ursprung hat er in der Emulation historischer Spieleautomaten. Seit der Gründung 1996 sind mindestens 7304 Spieleautomaten (ROM sets) und 3910 einzelne Games für den Emulator adaptiert worden.

M.A.M.E wird auch heute noch weiterentwickelt, doch die letzten Zahlen über emulierte Automatenhardware stammen aus dem Jahr 2008. Auf das Projekt setzen weitere Entwicklungen auf, darunter MESS (Multi Emulator Super System), das seit 1998 entwickelt wird und 632 unterschiedliche Systeme emuliert, von denen das älteste aus dem Jahr 1948 stammt. M.A.M.E. war von Anfang an ein offenes, nicht-kommerzielles Projekt, das ausschließlich von der Community getragen wurde.

Probleme der digitalen Bewahrung: bitrot und Kopierschutz

Unabhängig von der jeweils eingeschlagenen Bewahrungsstrategie ist die Frage relevant, wie lange ein Medium Informationen speichern kann. Der je nach Speichermedium einsetzende Datenverlust wird bitrot genannt. Für das Computerspielemuseum bedeutet dies einen regelmäßigen Verlust an Bits – speziell bei den magnetischen Datenträgern wie Compact Cassetten, Floppy-Discs oder Disketten, auf denen viele der mehr als 20.000 Spiele seiner Sammlung gespeichert sind.

Eine Stichprobe bei Spielen für den C64-Computer ergab, dass bereits ca. zehn Prozent aller Spiele aufgrund nachlassender magnetischer Ladung so weit verrottet sind, dass sie nicht mehr gespielt werden können. Um digitale Sammlungen vor dem Verschwinden zu retten, müssen die Werke von ihren originalen auf stabilere Datenträger überführt werden. Erst mit dem virtuellen Abbild des Werkes, dem Datenträger-Image, kann das Werk von einem Emulator verarbeitet werden.

Da Computerspiele wie viele andere digitale Werke jedoch mit Kopierschutz (DRM) ausgestattet sind, der genau diesen Transfer verhindern soll, sind wir bei diesem Prozess mit weiteren technischen und rechtlichen Herausforderungen konfrontiert. Rein technisch stehen uns zwei alternative Strategien zur Verfügung:

Erstens können die DRM-Maßnahmen gewaltsam außer Funktion gesetzt werden, gemeinhin auch als Cracken bezeichnet. Da dabei der Programmcode des Werkes verändert wird, ist diese Methode – unabhängig von der rechtlichen Problematik – keine befriedigende Option.

Zweitens kann der Kopierschutzmechanismus intakt gelassen werden und wird einfach mitkopiert. In Anbetracht hunderter verschiedener DRM-Mechanismen stellt dieser Ansatz eine immense technische Herausforderung dar, die nur von wenigen Werkzeugen wenigstens teilweise beherrscht wird, etwa dem Kryoflux Controller.

Rechtliche Hürden bei Games

Unabhängig von der Transfermethode sind rechtliche Fragen zu bedenken: Zwar gestattet uns das Urheberrecht in Deutschland, eine Sicherungskopie anzufertigen, doch dürfen wir technische Schutzmaßnahmen dabei nicht umgehen. Das Gesetz bietet nur den Ausweg, die Rechteinhaber um Erlaubnis zu fragen. Im Bereich der Computerspiele bleibt das größtenteils nur eine theoretische Option. Wir haben es mit einem großen Anteil an verwaisten Werken zu tun, bei denen es entweder nicht möglich ist, den Rechteinhaber herauszufinden, oder die Rechteinhaber selbst gar nicht wissen, welche Rechte sie tatsächlich besitzen. Zentrale Register, über die man Auskunft einholen könnte, haben sich im jungen Games-Markt noch nicht gebildet. Viele Firmen sind nach kurzer Lebensdauer wieder vom Markt verschwunden, die von ihnen gehaltenen Rechte wurden aufgesplittet und weiterverkauft.

Erschwerend kommt hinzu, dass Games ihrer komplexen Natur gemäß aus Werkteilen unterschiedlicher Rechteherkunft bestehen. Es ist üblich, dass man es bei einem Spiel mit einer Vielzahl an Rechteinhabern zu tun hat. Die zweite Möglichkeit, zu warten, bis das Urheberrecht abgelaufen ist, ist bei der gegenwärtigen Frist von 70 Jahren keine Lösung, da sich nach diesem Zeitraum kein funktionierendes Werk mehr auf einem alten Datenträger befinden würde.

Probleme und Grenzen der Emulatorenstrategie

Jedes Werk, auch das digitale, benötigt Schnittstellen, über das es von Menschen wahrgenommen und im Fall von interaktiven Werken gesteuert werden kann. Diese Ein- und Ausgabeschnittstellen sind kein Bestandteil des Codes an sich, sondern sind seine Peripherie. Ein klassischer Videospieleautomat wie etwa Tempest (Atari 1980) besitzt einen Trackball als Eingabe- und einen Vektormonitor als Ausgabeschnittstelle. Führt man den originalen Programmcode über einen Emulator auf einem aktuellen Desktoprechner aus, fehlen beide historische Schnittstellen. Da beide jedoch wesentlich zum originalen Spielerlebnis beitragen, muss diese „historische Aufführungspraxis“ bedacht werden. Eine vom Computerspielemuseum praktizierte Lösung für historische Videospieleautomaten besteht darin, einen aktuellen Computer mitsamt Emulator in die alten Gehäuse mit den originalen Schnittstellen einzubauen, sodass das Look-and-feel des ursprünglichen Werkes weitgehend beibehalten wird.

tempest

Das Arcade-Spiel „Tempest” im Original. Foto: Rob DiCaterino, CC BY.

Ein weiteres Problem besteht in der Notwendigkeit, die Emulatoren selbst immer wieder an die aktuellen Plattformen anzupassen. Immer, wenn ein neues Betriebssystem oder eine neue Hardwarearchitektur etabliert wird, müssen auch die Emulatoren auf diese angepasst werden, was aufwändige Neuprogrammierungen notwendig machen kann. Bisher haben die Programmierer von Emulatoren freiwillig und ohne Budget solche Portierungen – etwa von DOS auf Windows 95, von Windows 95 auf Windows XP – vorgenommen. Sie haben eine mehr oder weniger persönliche Beziehung zu den Spielen und Originalplattformen, jedoch können wir nicht davon ausgehen, dass die immer wieder notwendig werdenden Anpassungen auch mittel- bis langfristig auf diese Weise geleistet werden können.

Abhilfe könnten virtuelle Maschinen bringen, die speziell zu Bewahrungszwecken geschaffen werden. Bereits im Jahr 2000 hat Jeff Rothenberg eine solche Schnittstelle für Emulatoren vorgeschlagen (PDF). Sie würde die notwendigen Anpassungsprozesse auf ein Minimum reduzieren. Seine Idee einer Emulation Virtual Machine (EVM) führt eine Zwischenebene ein: eine Schnittstelle, die als virtuelle Maschine zwischen dem aktuellen Betriebssystem und den Emulatoren implementiert wird und auf die die Emulatoren einmalig portiert werden müssen.

Der Vorteil besteht darin, dass bei einem Wechsel der aktuellen Kombination aus Hardware und Betriebssystem lediglich die virtuelle Maschine an das neue System angepasst werden muss, nicht der jeweilige Emulator. Da wir es mittlerweile mit dutzenden von obsoleten Hardwareplattformen und mindestens ebenso vielen verschiedenen Emulatoren zu tun haben, ist der Nutzen leicht erkennbar. Ohne sie müssten alle Emulatoren einzeln angepasst werden, sobald das aktuelle Computersystem wechselt. Allerdings stellt die Programmierung einer solchen virtuellen Maschine technisch eine so große Herausforderung dar, dass mit einsatzfähigen Lösungen zumindest zeitnah nicht zu rechnen ist.

Gaming-Community und traditionelle Gedächtnisorganisationen

Während die Gamer-Community von Anfang an auf Emulation statt auf Migration setzte, erwies sich die Migration für traditionelle Gedächtnisorganisationen zunächst als eine praktikable Methode. Doch wurden einerseits die zu bewahrenden Artefakte immer komplexer, andererseits wuchs mit jedem abermaligen Migrationsschritt die Bereitschaft, sich alternativen Methoden wie der Emulation zu öffnen.

Das EU-Forschungsprojekt KEEP (Keeping Emulation Environments Portable) steht für diesen Wendepunkt, zusammen mit einer Reihe weiterer Initiativen – wie dem EU-Projekt PLANETS und der Open Planets Foundation, auf nationaler Ebene mit dem baden-württembergischen Langzeitarchivierungsprojekt bwFLA. Alle diese Initiativen und Projekte greifen Werkzeuge und Ansätze auf, die in der Retro-Gamer-Community entstanden sind, und passen sie institutionellen Bedürfnissen an. Etwa beim Emulation Framework, das im Rahmen von KEEP entstanden ist. Es bietet die Möglichkeit, existierende Emulatoren mit bestehenden digitalen Sammlungen zu verbinden. Der Archivar muss sich hier nicht mehr mit den verschiedenen Einstellmöglichkeiten der unterschiedlichen Emulatoren auseinandersetzen, sondern findet die einheitliche Benutzeroberfläche eines Archivsystems vor.

Im Ergebnis all dieser Tendenzen erleben wir, wie sich die Verantwortung, das digitale Spieleerbe zu bewahren, von den Fans hin zum institutionellen Sektor verlagert. Auch wenn damit ein höherer materieller Ressourceneinsatz einhergeht, ist es ein notwendiger und folgerichtiger Schritt. Die Motivation der bisherigen Emulatoren-Programmierer und ihr emotionaler Bezug zu den Spielen und Plattformen werden zukünftigen Generation wohl fehlen. Einzelne Personen können nicht ersetzen, was Institutionen für die Bewahrung des Spieleerbes leisten können. Es ist dennoch bemerkenswert, wie viele Ressourcen bereits in Werkzeuge geflossen sind, die jetzt übergeben, weitergenutzt und -entwickelt werden, ohne dass dafür öffentliche Mittel geflossen sind.

Das Gaming-Museum der Zukunft

Um großangelegte Archivsysteme auf Emulatorenbasis technisch zu realisieren, sind heute alle benötigten Komponenten verfügbar. Kombiniert man diese mit den ebenfalls existierenden Streamingtechnologien, ergibt sich daraus ein Bild, wie zukünftige Archive eingerichtet sein können, die den Zugang zu ihren Sammlungen über das Internet organisieren. In diesem Zusammenhang sind Emulatoren nicht nur notwendiger Bestandteil einer Bewahrungsstrategie, sondern eröffnen auch breite Möglichkeiten des Zugangs.

Sicher trifft das hier Gesagte vor allem auf diejenigen digitalen Werke zu, die auf physikalischen Datenträgern vorliegen. Heute tritt der internetbasierte Zugang zu digitalen Werken als Service zunehmend an die Stelle des auf Speicherkarten, DVDs oder anderen Datenträgern angebotenen Werkexemplars. Hier sind Spiele ebenfalls Vorreiter der Entwicklung, die auch ihre Bewahrung vor neue Herausforderungen stellt. Für diese Spiele müssen nicht nur lokale Systeme, sondern ganze Serverstrukturen inklusive ihrer Online-Bezahlsysteme mit Hilfe von Emulatoren bewahrt werden. Prinzipiell ist das kein anderer Ansatz, doch kann etwa die soziale Interaktion – die für viele dieser Services wesentlich ist – nicht mit Hilfe von Emulation abgebildet werden. Hier wird man die digitale Bewahrung mit den traditionellen Mitteln und Fähigkeiten der Archivare ergänzen und Dokumentationen parallel zur Codebasis des Werkes erstellen müssen.

Akuter Handlungsbedarf besteht vor allem im juristischen Bereich. Solange die Rechtslage keinen praktikablen Transfer der Werke auf stabilere Datenträger zulässt, wird es nicht möglich sein, die Bewahrungsaktivitäten der Community auf eine tragfähige institutionelle Basis zu stellen. In Anbetracht der sich aufgrund von bitrot auflösenden Spielesammlungen ist schnelles Handeln gefordert. Ein möglicher Weg könnte eine neue Regelung im Urheberrecht sein, die es Archiven erlaubt, Kopierschutzmechanismen zu umgehen. In den USA wurde dies mit einer Ergänzung des Digital Millennium Copyright Act bereits 2003 vollzogen.

Mehr Einsatz für Games als Kulturgut nötig

Ein Bewusstsein des Gesetzgebers, dass Games ebenso wie Bücher, Musikstücke und Filme digitale Werke darstellen und zum kulturellen Erbe gehören, ist jedoch noch kaum ausgeprägt. Dies zeigte sich auch bei der europäischen Richtlinie zu verwaisten Werken, die eine Möglichkeit geboten hätte, eine entsprechende Regelung zu verankern. Hier bleibt nur, langwierige Erklärungs- und Überzeugungsarbeit zu leisten. Europäische Einrichtungen haben erst kürzlich mit EFGAMP, der European Federation of Game Archives, Museums and Preservation Projects, einen eigenen Verband gegründet. Neben Lobbyarbeit und der Verbreitung von Wissen soll er auch Bewahrungs- und Beschreibungsstandards etablieren. Im Initiatorenkreis sind Organisationen aus der Gaming-Community ebenso vertreten wie klassische Gedächtniseinrichtungen, etwa die Dänische Nationalbibliothek und das Nationale Medienmuseum Englands.

Mit dieser Herangehensweise lassen sich die Qualitäten und Möglichkeiten beider Bereiche kombinieren. Neben den in der Retro-Gamer-Community entwickelten Werkzeugen können Nutzer zum Beispiel bei der Beschreibung von Werken wichtige Aufgaben übernehmen. In keinem anderen kulturellen Bereich sind die Möglichkeiten, große Metadatensammlungen mit Hilfe der Nutzer zu erzeugen, so erfolgreich erprobt worden wie bei Computerspielen. Mit den Jahren sind große und umfangreiche Sammlungen entstanden, die permanent von den Nutzern erweitert werden, ohne dass große Mittel zur Verfügung standen. Ein gutes Beispiel ist mobygames.com, dessen Inhalte ausschließlich von Nutzern erstellt wurden und das im Juli 2013 über detaillierte Beschreibungen von 73 844 Spielen auf über 138 verschiedenen Plattformen verfügt. Der Computerspiele-Leihservice Gamefly erkannte den Wert solcher Sammlungen und kaufte die Plattform 2010 auf.

All das zeigt, welche Chancen in der Kooperation und dem Zusammenwachsen der Retro-Gamer-Community mit den traditionellen Gedächtnisorganisationen liegen – auch für die Bewahrung digitaler Kulturgüter jenseits des Spielebereichs. Die neuen Möglichkeiten, den Zugang dauerhaft und niederschwellig zu organisieren, übertreffen die Schwierigkeiten, denen wir hier gegenüberstehen, bei weitem.

Dieser Artikel ist zuerst im Buch „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt” erschienen. Der von Paul Klimpel und Jürgen Keiper herausgegebene Band ist heute bei iRights.Media als Print, E-Book sowie frei im Netz erschienen.

Zur Person

A_LangeAndreasAndreas Lange ist Direktor des Computer­spiele­museums in Berlin, das er seit 1996 aufgebaut hat. Er war Projektleiter des Computer­spiele­museums für das europäische Forschungsprojekt KEEP und ist Sprecher der AG Emulation des Langzeitarchivierungs-Netzwerks Nestor und Sprecher von EFGAMP. Sein Studium der Religions- und Theaterwissenschaft schloss er mit der Abschlussarbeit „Die Geschichten der Computerspiele betrachtet unter mythentheoretischen Gesichtspunkten“ ab. Foto: Joerg Metzner.

September 23 2013

Buchvorstellung am 25.9. in der DNB Frankfurt: „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt”

In eigener Sache: Was bleibt von den Zeugnissen des kulturellen Schaffens und der Wissenschaft, die auf digitalen Trägern festgehalten werden, in 5, in 20 oder in 100 Jahren? Das fragt eine neue Publikation von iRights.Media. Am 25.9. wird sie in der Deutschen Nationalbibliothek in Frankfurt am Main vorgestellt.

cover_was_bleibtDie Publikation hält die Diskussionen der Initiative „Nachhaltigkeit in der digitalen Welt” fest. Vor welchen Herausforderungen traditionelle ebenso wie neuartige Gedächtnisorganisationen bei der Erhaltung des kulturellen Erbes und beim Übergang zu digitalen Trägermedien stehen, hat die Initiative des Internet und Gesellschaft Collaboratory in Kooperation mit dem Langzeitarchivierungs-Netzwerk Nestor, dem iRights.Lab Kultur und dem Institut für Museumsforschung in Expertenworkshops untersucht. Finanziell unterstützt wurde die Initiative von EMC2 und Google Deutschland.

Die Vorstellung des von Paul Klimpel und Jürgen Keiper herausgegebenen Buchs findet am 25. September 2013 von 17 bis 19 Uhr in der Deutschen Nationalbibliothek (Adickesallee 1, 60322 Frankfurt am Main) statt. Dann erscheint das Buch zugleich als Print und E-Book.

Hier kann man sich zur Veranstaltung anmelden.

Einen Einblick in die Arbeit und Themen der Initiative bietet auch die Dokumentation und Linksammlung zur Abschlussveranstaltung im Mai.

September 09 2013

Berliner Appell fordert: Jetzt handeln, um digitales Kulturerbe zu erhalten

Was bleibt von den Zeugnissen des kulturellen Schaffens und der Wissenschaft, die auf digitalen Trägern festgehalten werden, in fünf, in zwanzig oder in hundert Jahren? Eine Reihe von Experten hat sich mit dem Thema „Nachhaltigkeit” und digitaler Langzeitarchivierung beschäftigt. Ungeachtet aller Unterschiede eint sie die Überzeugung, dass jetzt gehandelt werden muss, um die Grundlagen dafür zu schaffen, das kulturelle Erbe in der digitalen Welt zu erhalten und zu sichern.

Der Berliner Appell zum Erhalt des digitalen Kulturerbes ist das Ergebnis. Darin heißt es:

Das Wissen unserer Tage wie die Kultur unserer Gesellschaft werden aber zunehmend mittels elektronischer Medien gespeichert und sollen über diese überliefert werden. Die Bewahrung dieses Wissens und dieser Kultur steht auf tönernen Füßen. Die Bereitschaft, auch in der elektronischen Welt in die Bestandserhaltung zu investieren, ist nicht sehr groß. Die Einsicht in die Notwendigkeit, die Prozesse der digitalen Langzeitarchivierung nachhaltig und dauerhaft zu finanzieren, ist noch nicht ausgeprägt. Die Möglichkeiten der Informations- und Kommunikationstechnologie zur Bestandserhaltung auch von analogen Informationsträgern sind noch lange nicht ausgeschöpft.

Langzeitarchivierung im Zuse-Institut Berlin. Foto: Jürger Keiper, CC BY-SA

Langzeitarchivierung im Zuse-Institut Berlin. Foto: Jürger Keiper, CC BY-SA

Hervorgegangen ist der Berliner Appell aus der Initiative „Nachhaltigkeit in der Digitalen Welt”, einer Veranstaltung des Internet und Gesellschaft Collaboratory, die unter Leitung von Jürgen Keiper und mir stattfand – in Zusammenarbeit mit dem Langzeitarchivierungs-Netzwerk Nestor, dem iRights.Lab Kultur und dem Institut für Museums­forschung. Dokumentiert wird der Diskurs bald in der Publikation „Was bleibt?“, die am 25. September in der Deutschen Nationalbibliothek vorgestellt wird.

Bemerkenswert ist, dass im Appell ein breiter Konsens zum Ausdruck kommt: Zu den Erstunterzeichnern gehören so unterschiedliche Persönlichkeiten wie Michael Hollmann (Präsident des Bundesarchivs), Verena Metze-Mangold (Vizepräsidentin der Deutschen UNESCO-Kommission), Jan Engelmann (Leiter Politik und Gesellschaft bei Wikimedia Deutschland), Ellen Euler (Geschäftsstellenleiterin der Deutschen Digitalen Bibliothek), Andreas Lange (Direktor des Computerspielemuseums) und Stefan Gradmann (Direktor der Universitätsbibliothek Leuven) – um nur einige zu nennen.

Unmittelbar nachdem der Appell veröffentlicht wurde, haben ihn auch die Deutsche Digitale Bibliothek und Wikimedia Deutschland als Institutionen unterstützt. Weitere institutionelle Unterstützung zeichnet sich ab. Hier lässt er sich unterzeichnen.

August 14 2013

4.689 Bilder bei Getty jetzt gemeinfrei online

Ein vorbildlicher Schritt: Der J. Paul Getty Trust hat 4.689 Digitalisate aus dem vom US-Ölmagnaten gegründeten Museum in Los Angeles frei im Netz verfügbar gemacht. Im Rahmen eines Open-Content-Programms kann jetzt jeder die gemeinfreien Gemälde, Zeichnungen, Fotografien und Manuskripte für beliebige Zwecke verwenden.

Positiv fällt auch auf, dass Getty im Kleingedruckten keine weiteren Beschränkungen zur Verwendung der Bilder mehr vorsieht. Einige Digitalisierungsprojekte dagegen wollen die Weiterverwendung auf nicht-kommerzielle Nutzungen beschränken, zum Beispiel im Rahmen von Googles Bibliotheksprogramm – obwohl es sich auch dort um gemeinfreie Werke handelt, an denen keine Rechte mehr bestehen.

Zwar bittet Getty um einen Hinweis auf das Open-Content-Programm und hat ein Umfrage-Formular vor den Download geschaltet. In den FAQ wird jedoch deutlich, dass von der Stiftung keine Rechte an den Digitalisaten behauptet werden:

Are there copyright restrictions for the Getty’s open content images?
No. The first release includes 4,600 images of works of art believed to be in the public domain—in other words, works not protected by copyright under U.S. law. The Getty does not claim copyright in digital images of public domain artworks.

Gleiches gilt für Bearbeitungen um kommerzielle Nutzungen:

May I crop, overprint, or otherwise alter images I’ve downloaded as part of the Getty’s Open Content Program?
Yes. There are no restrictions on the use of open content images.

Are images made available through the Getty’s Open Content Program approved for commercial use? I’d like to use one for my company’s website/product/brochure.
Yes. However, please do not suggest or imply that the Getty endorses, approves of, or participated in your company, product, service, or project.

Weitere Inhalte, darunter auch Forschungsdokumentationen und die Systematiken der Getty Vocabularies sollen im Rahmen des Open-Content-Programms folgen, wie die Stiftung in einem Blogpost ankündigt.

Verbesserungen sind in der Getty-Datenbank denkbar, in der die gemeinfreien Werke im Moment nur an der Zeile „Open Content Images” und einem Download-Link erkennbar sind. Hier würde eine Kennzeichnung mit dem „Public Domain Mark” mehr Klarheit für Nutzer und bessere Auffindbarkeit schaffen.

Hier kann man die Sammlung durchsuchen.

June 17 2013

In eigener Sache: „Urheberrecht, Praxis und Fiktion – Rechteklärung beim kulturellen Erbe” erschienen

Das Urheberrecht birgt für Archive, Museen und Bibliotheken viele Probleme, wenn sie Werke nutzen und zugänglich machen wollen. Alle Rechte retrospektiv zu klären, ist etwa bei Filmen mit vielen beteiligten Urhebern fast unmöglich.

In der Praxis sind deshalb an vielen Stellen „Fiktionen” an die Stelle eines lückenlosen Nachweises der Rechtekette getreten: Plausible Vermutungen darüber, wo die Rechte an einem Werk liegen. Eine Bibliothek vermutet zum Beispiel, dass Rechte bei Nachkommen eines Urhebers liegen, was auch falsch sein kann. Zwischen Recht und Praxis entsteht eine Lücke.

Paul Klimpel von iRights.Law hat zu diesem Thema ein Grundlagenpapier für die Nationalbibliothek Luxemburg verfasst und auf dem 2. Europeana Licensing Workshop am 13. und 14. Juni in Luxemburg vorgestellt. Das Papier gibt einen Überblick über die urheberrechtlichen Prinzipien und ihre Folgen, über die Praxis der Rechtezuschreibung; es diskutiert Möglichkeiten, die Lücke zwischen beiden zu schließen und Konsequenzen für die Praxis von Archiven, Museen und Bibliotheken.

Wir veröffentlichen hier das Papier „Urheberrecht, Praxis und Fiktion. Rechteklärung beim kulturellen Erbe im Zeitalter der Digitalisierung” (PDF). Es kann unter Creative-Commons-BY-SA-Lizenz weiterverbreitet und -verwendet werden. Eine englische Fassung wird in Kürze von der Nationalbibliothek Luxemburg veröffentlicht.

May 04 2013

Beschränkte Gemeinfreiheit bei Österreichs Nationalbibliothek

Die Österreichische Nationalbibliothek hat einen ersten Schwung digitalisierter Bücher online gestellt: 100.000 gemeinfreie Titel aus dem 16. bis zur zweiten Hälfte des 19. Jahrhunderts sind jetzt im Rahmen des Projekts „Austrian Books Online” frei im Netz zugänglich. Insgesamt soll der komplette historische Buchbestand, um die 600.000 Werke, digitalisiert werden. Eine große Leistung, die so wohl nur durch die Kooperation mit Googles Bibliotheksprogramm möglich wurde.

Die ÖNB hat Fragen und Antworten zum Projekt in einer FAQ zusammengestellt. Ein wenig beachteter Aspekt findet sich in Punkt 11.

Die Digitalisate aus der Kooperation mit Google sind für BenutzerInnen der Digitalen Bibliothek der Österreichischen Nationalbibliothek kostenfrei zugänglich und für nichtkommerzielle Zwecke (inklusive Veröffentlichung) verwendbar.

Der zweite Teil des Satzes verwundert, handelt es sich doch um gemeinfreie Werke, deren Urheberrecht abgelaufen ist. Ob unkommerziell, kommerziell, öffentlich oder privat: Jeder kann die Werke nutzen, wie er will, auch die digitale Form ändert daran nichts. Höchstens würde die Sammlung, aber nicht das einzelne Digitalisat als Datenbank geschützt sein.

Scan: ÖNB

Scan: ÖNB

Die Einschränkung, wie die Digitalisate angeblich genutzt werden dürfen, geht vielmehr auf den Vertrag mit Google zurück, wie die ÖNB auf Nachfrage erklärt. Sie soll demnach für 15 Jahre gelten. Für Googles Bibliotheksprogramm ist das nicht neu. Der Vertrag mit der ÖNB ist zwar nicht veröffentlicht, aber Verträge mit anderen Bibliotheken sind es.

Die britische Open Rights Group hatte schon 2011 den Vertrag zwischen der British Library und Google per Informationsfreiheitsgesetz erkämpft. Wie die Einschränkung auf nichtkommerzielle Verwendung darin erreicht wird, hat Philippe Aigrain analysiert. Im Ergebnis ist die Bibliothek durch den Vertrag angehalten, ihren Nutzern Freiheiten zu verwehren, die sie sonst hätten.

Betroffen sind von solchen Einschränkungen nur wenige Nutzer. Betroffen sein könnte, wer einen Print-on-Demand-Dienst für gemeinfreie Werke, mit den Digitalisaten neue Anwendungen ausprobiert oder Data Mining betreibt. Für die meisten Nutzer dürfte auch bei der ÖNB der Vorteil überwiegen, dass die Werke überhaupt zum ersten Mal in digitaler Form verfügbar sind.

Aber ein schaler Beigeschmack bleibt. Public-Private-Partnerships werden als Win-Win-Situation für die öffentliche Hand und private Partner dargestellt, doch in den zugrundeliegenden Verträgen sollen der Öffentlichkeit Nutzungen entzogen werden – an dem, was inzwischen allen gehört.

January 26 2013

Brewster Kahle: “The best way to preserve things is to make things accessible”

Schöner Ausschnitt aus der Dokumentation „Archive” von Jonathan Minard: Brewster Kahle führt durch das von ihm gegründete Internet Archive in einer ehemaligen Kirche in San Francisco und erklärt dessen Arbeitsweise und Philosophie:

[via]

December 21 2012

Dokumentation: Videos der Konferenz „Zugang gestalten”

Die ersten Videos der Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” sind verfügbar.

Weiterlesen

November 13 2012

October 25 2012

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl