Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 25 2014

Digitales Kulturerbe: Der Berliner Appell wird im Landtag von NRW gehört

Seit September letzten Jahres gibt es den Berliner Appell zum Erhalt des digitalen Kulturerbes, in dem zahlreiche Experten deutlich machten, dass für dieses Ziel jetzt gehandelt werden muss. Dieser Appell, unter anderem vom Deutschen Museumsbund, dem Deutschen Bibliotheksverband, der Deutschen Digitalen Bibliothek, Wikimedia Deutschland und dem Langzeitarchivierungs-Netzwerk Nestor unterzeichnet, richtet sich an die politischen Entscheidungsträger.

Im Landtag von Nordrhein-Westfalen wurde der Appell gehört, als am 20. Februar ein Antrag der Piratenfraktion Nordrhein-Westfalens zum digitalen Kulturerbe beraten wurde. Dort wurde er an den Ausschuss für Kultur und Medien überwiesen. Und der Berliner Appell erhielt über Parteigrenzen hinweg viel Zustimmung, auch von der zuständigen Wissenschaftsministerin Svenja Schulze (SPD). Auch widersprach niemand Thomas Sternberg, Landtagsabgeordnetem der CDU, als er feststellte: „dieser Berliner Appell ist vernünftig, er ist richtig (…) Der Appell ist aller Ehren wert.“

Your browser does not support the video tag.

Von der Landtagssitzung gibt es eine Aufzeichnung (MP4, ab 8’12) und ein Protokoll.

Es war schon bei der Formulierung des Berliner Appells bemerkenswert, dass sich sehr unterschiedliche Experten und Kultureinrichtungen auf einen gemeinsamen Wortlaut einigen konnten. Die Parlamentsdebatte in NRW lässt zumindest hoffen, dass die Sache tatsächlich angegangen wird.

February 14 2014

Volker Oppmann über die geplante Online-Bücher-Plattform Log.os: „Gemeinnützigkeit kann man nicht simulieren“

Unter dem Namen Log.os entsteht eine multifunktionale und gemeinnützige Lese-Plattform, auf der Nutzer digitale Bücher finden, lesen, kommentieren, empfehlen und diskutieren können. Volker Oppmann, einen der Köpfe des Großprojekts, erzählt, was dahinter steckt.

iRights.info: Herr Oppmann, in den Beschreibungen zu Log.os ist von einer „digitalen Universalbibliothek“ die Rede. Was ist damit gemeint?

Foto: Bernd Große

Volker Oppmann, selbständiger Verleger (Onkel & Onkel), gehört zum dreiköpfigen Vorstand des Log.os-Fördervereins. 2008 bis 2013 war er für das von ihm mit initiierte E-Book-Unternehmen Textunes tätig, das 2011 von Thalia übernommen wurde und aus dem er 2013 ausschied. Foto: Bernd Große

Volker Oppmann: Eine Bibliothek definiert sich über drei Kriterien: Die Sammlung, die Erschließung sowie die Zugänglichmachung von Inhalten. Unter Erschließung versteht man, dass man die Sammlung ordnet, katalogisiert und mit Schlagworten versieht, damit man einzelne Inhalte schnell wiederfindet. Für die Zugänglichmachung zuständig waren bisher die Bibliotheken, die man besuchen konnte, um dort vor Ort zu lesen oder um die Medien auszuleihen.

Im Grunde ist die Ausleihe nur ein Teilaspekt von Bibliotheken und bei Weitem nicht der Wichtigste. Aber alle drei genannten Kriterien werden heute durch Cloud-basierte E-Book-Angebote erfüllt, und genau so verstehen wir Log.os. „Universalbibliothek“ heißt es deshalb, weil es eine umfassende Sammlung sein soll, unabhängig von Sprache, Thema oder Herkunft, in die nicht nur Werke aus regulärer Verlagsproduktion Eingang finden, sondern auch Texte von Selfpublishern sowie Freie Inhalte.

iRights.info: Also auch Werke, die unter freien Creative-Commons-Lizenzen veröffentlicht sind? Etwa die im Bildungsbereich zunehmend populären „Open Educational Ressources“ (OER)?

Volker Oppmann: Definitiv ja. Nutzer interessieren sich für konkrete Inhalte, nicht dafür, woher sie stammen. Sie interessieren sich weder für buchhändlerische Bezugswege noch dafür, ob ein Titel lieferbar, vergriffen, verwaist, rechtefrei, Open Source oder was auch immer ist. Unsere Kernaufgaben im Dienste des Kunden sind folglich, sämtliche Inhalte verfügbar zu haben, zu gewährleisten, dass sie direkt genutzt werden können, sowie sicherzustellen, dass die jeweilige Rechtekette intakt ist und sauber abgebildet werden kann, so dass jeder zu seinem Recht kommt, also auch die Urheber und Verwerter.

iRights.info: Log.os möchte die Übermacht von Amazon brechen will, heißt es. Doch es ist offenbar gar kein Online-Buchhändler. Wie soll das funktionieren?

Volker Oppmann: Wir nehmen Amazon & Co. als Buchhändler wahr, dabei haben diese Anbieter im digitalen Bereich längst aufgehört Buchhändler zu sein. Anbieter von digitalen Inhalten sind zu kommerziellen Großbibliotheken geworden, die Inhalte auf ihren Servern sammeln, diese über Kataloge, Schlagworte und Algorithmen erschließen sowie die Inhalte über diverse Apps und Endgeräte zugänglich machen. Doch der Zugang ist nur möglich, solange man sich als Kunde innerhalb der proprietären Ökosysteme ihrer digitalen Bibliothek befindet.

Sie können die Inhalte von einem Kindle nicht in ein anderes System mitnehmen, etwa auf einen Tolino, denn Sie erwerben als Nutzer kein E-Book als Objekt, sondern nur ein Nutzungsrecht an einem Inhalt, der Ihnen in Form eines E-Books zur Verfügung gestellt wird. Das ist ein ganz wesentlicher Unterschied zum gedruckten Buch, das dem Nutzer per Kauf gehört und mit dem er machen kann, was immer er will.

Das heißt, der einzige Unterschied, ob man einen E-Book-Anbieter subjektiv als Bibliothek oder als Shop wahrnimmt, begründet sich darin, ob man ein zeitlich befristetes oder ein zeitlich unbefristetes Nutzungsrecht erwirbt. Es handelt sich lediglich um eine kleine Variation im Geschäftsmodell und in der Preisgestaltung, die Systeme dahinter sind dieselben.

iRights.info: Log.os will kein Print- oder E-Book-Geschäft sein, sondern eine Online-Lese-Plattform, die den Zugang zu und den Umgang mit kommerziellen und freien Texten bietet. Wie wird das – aus Sicht des Nutzers betrachtet – konkret aussehen?

Volker Oppmann: Log.os orientiert sich an Elementen, die aus sozialen Netzwerken bekannt sind. Auf einer zentralen Startseite sind die Inhalte nach inhaltlichen „Channeln“ sortiert. Das sind zunächst einmal Filter, die sich beispielsweise an bekannten Genre-Einteilungen orientieren wie Krimi oder Science Fiction, aber auch an persönlichen Bibliotheken oder Leselisten von Nutzern – ähnlich wie bei Spotify oder Pinterest. Die Empfehlungen von Freunden können ein Channel sein oder Listen von Nutzern, denen man folgt wie bei Twitter. Darin kann man dann Rezensionen, Empfehlungen oder andere Postings lesen.

Neben der Übersichtsseite wird es zwei weitere Hauptansichten geben: eine Profilseite für Nutzer und eine Profilseite für Werke. Auf Nutzer-Seite verwalte ich meine Kontakte, meine Bibliothek und meine Leselisten. Ich verfüge dort über einen privaten beziehungsweise für andere freigegebenen „stream of consciousness“, der das anzeigt, was ich an meinen eigenen Aktivitäten protokollieren will. So entsteht ein Logbuch meiner eigenen „Literaturgeschichte“ sowie meiner Aktivitäten, Postings und Empfehlungen.

iRights.info: Das klingt nach dem, was man heute „Social Reading“ nennt…

Volker Oppmann: Log.os soll mehrere Ebenen bieten: die klassische, also anonyme Lese-Ansicht für die private Lektüre; eine Ebene für Social Reading, auf der ich mich mit Kommentaren und Diskussionen mit anderen Nutzern über den Text austauschen kann; aber auch eine Ebene, die Autoren beziehungsweise den autorisierten Mit-Autoren vorbehalten ist und ein Editieren des Textes erlaubt.

Daneben haben die einzelnen Werke eigene Profilseiten. Hier finden sich Informationen zu den individuellen Werken inklusive einer Übersicht über die jeweiligen Werkausgaben, analog wie digital.

Über das Profil-Prinzip, nutzerseitig wie werkseitig, und die Channel-Systematik lassen sich auf der Plattform alle möglichen Rollen abbilden. Dazu sind noch Anbindungen von weiteren Buchmarktteilnehmern in Planung, wie Verlagen, Buchhändlern und anderen. Daran arbeiten wir aber noch.

iRights.info: „Social Reading“ und die Netzwerk-Optionen ähneln dem Konzept der Plattform „Sobooks“, die seit Herbst vergangenen Jahres in der öffentlichen Betaphase operiert – was macht Log.os anders?

Volker Oppmann: Social Reading wird ja nicht nur von Sobooks umgesetzt – vernetztes Lesen und Interaktion sind wichtige Schlüsselbegriffe des digitalen Lesens. Die entscheidende Frage ist, wem dieser Wissens- und Datenschatz gehört, der hier quasi nebenbei erzeugt wird? Wir sind der festen Überzeugung, dass dieser Datenschatz keinem einzelnen Unternehmen, sondern der Gesellschaft gehören sollte. Doch das kann ein normales Wirtschaftsunternehmen nicht leisten, selbst wenn es das wollte, denn Gemeinnützigkeit kann man nicht simulieren.

Wir unterscheiden uns aber nicht nur im grundlegenden Ansatz, sondern auch in den weiteren Ausbaustufen des Projekts, da wir eben nicht nur ein endkundenseitiges Angebot bauen wollen, sondern als echte „multisided platform“ Wert schöpfen, indem wir eine direkte Interaktionen zwischen einzelnen Benutzergruppen über eine gemeinsame technische Infrastruktur ermöglichen. Also beispielsweise zwischen Lesern und Autoren, oder mit Buchhändlern und Verlagen sowie öffentlichen Institutionen, etwa Schulen, Universitäten oder Bibliotheken.

iRights.info: Sie wollen mit Log.os auch „Transparenz, Datensouveränität und Privatsphäre“ unterstützen. Führen derart absolut klingende Versprechen nicht zu überhöhten Erwartungen?

Volker Oppmann: Die Gefahr besteht durchaus, insbesondere wenn man Nutzer mit einem Ansolutheitsanspruch hat. Uns geht es insbesondere um Wahlfreiheit. Lesen Sie mal bei den Großen der Branche in den Geschäftsbedingungen, Lizenz- und Nutzungsbestimmungen nach. Sie haben heutzutage meistens nur die Wahl zwischen Zustimmung und Ablehnung – häufig stimmt man auch späteren Änderungen vorab zu. Wenn ich als Nutzer zu einem späteren Zeitpunkt diesen Bedingungen widerspreche, muss ich oft den Verlust meiner gesamten Daten hinnehmen – der Zugang zu meiner kompletten Sammlung wird versperrt.

iRights.info: Heißt das, Sie wollen Ihren Kunden eine Vielfalt an Lizenz- und Nutzungsmodellen zur Auswahl bieten?

Volker Oppmann: Unsere Kunden sollen sich zu jedem beliebigen Zeitpunkt entscheiden können, etwa in ein anderes Nutzungsmodell zu wechseln. Alles andere wäre Erpressung.

Transparenz müssen wir darüber herstellen, was wann wo mit welchen Daten passiert und weshalb. Das betrifft beispielsweise das synchronisierte Lesen zwischen verschiedenen Endgeräten. Hierfür muss mich meine Lese-Software zwangsläufig beobachten und mein Leseverhalten protokollieren – doch das alles muss transparent sein.

Für die angesprochene Datensouveränität muss der Nutzer jederzeit die volle Kontrolle über seine Daten haben. Er allein entscheidet, wer was mit seinen Daten machen darf. Das fängt an bei Angaben zu Person, Adresse, Kontoverbindung, Kreditkartendaten, und geht über die vom Nutzer selbst generierten Inhalte, wie Rezensionen, Postings, Notizen, Anmerkungen, bis hin zu den Daten aus dem Nutzerverhalten, welche die Software protokolliert. Wir müssen unseren Nutzern garantieren, dass ihre Privatsphäre geschützt bleibt, etwa indem sie das Tracking und diverse Social-Reading-Funktionen deaktivieren oder ganz entfernen können.

iRights.info: Log.os setzt also eher auf Zielgruppen, die wenig oder gar keine Nutzungsdaten preisgeben wollen. Sehen Sie diese Nutzungsdaten also nicht als geschäftsrelevante Währung an?

Volker Oppmann: Nutzer, die gerne anonym und privat lesen möchten, müssen sich bei uns genauso zu Hause fühlen können wie Nutzer, die bereitwillig jede Leseerfahrung mit der Öffentlichkeit teilen. Beide Nutzergruppen werden aus einer Vielzahl an Angeboten und Bezahlmodellen wählen können.

In welcher „Währung“ jemand für die Nutzung der Inhalte anderer zahlt, das sei jedem überlassen. Sei dies nun ein fixer Betrag je Content-Einheit, ein wie auch immer gestaffeltes Abo beziehungsweise eine Flatrate, sei es in Aufmerksamkeit – Stichwort: Werbung – oder in Form seiner Daten. Wir würden Nutzerdaten aber allenfalls in anonymisierter Form verwerten, etwa durch nutzerspezifische Werbe-Einblendungen oder durch den Verkauf aggregierter Trend-Daten an Verlage, nicht jedoch durch den Weiterverkauf persönlicher Daten.

February 10 2014

Open Science Radio erklärt Open Access

Das Open Science Radio ist ein Podcast von Matthias Fromm und Konrad Förstner, der sich schon länger mit dem freien Zugang zu wissenschaftlichem Wissen beschäftigt. Jetzt haben sich die Macher etwas grundsätzlicher mit dem Thema beschäftigt.

Herausgekommen ist eine ausführliche Sendung, die die Geschichte der Open-Access-Bewegung rekapituliert, grundlegende Ansätze und Projekte vorstellt und unterschiedliche Lizenzen und Geschäftsmodelle erläutert.

Wer einmal etwas ausführlicher ins Thema Open Access einsteigen will, dem kann man die zweistündige Folge (MP3, Feed) nur empfehlen.

Reposted byreturn13towser

January 31 2014

White Paper: Potentiale und Hürden für Creative Commons im öffentlich-rechtlichen Rundfunk

In einem sogenannten White Paper, das am Mittwoch veröffentlicht wurde, setzt sich der Berliner Wirtschaftswissenschaftler Leonhard Dobusch mit den Möglichkeiten für die Nutzung von Creative Commons Lizenzen im öffentlich-rechtlichen Rundfunk auseinander. Die Untersuchung gab der SPD-nahe Verein „D64 – Zentrum für Digitalen Fortschritt“ in Auftrag.

Dobusch lehrt und forscht an der Freien Universität Berlin als Juniorprofessor für Organisationstheorie. Im Fazit seines White Papers schreibt er: „Es gibt nicht nur gute Gründe für einen verstärkten Einsatz von Creative Commons im öffentlich-rechtlichen Rundfunk, sondern auch Bereiche, in denen die diesbezüglichen Hürden niedrig sind, etwa bei selbstproduzierten Beiträgen ohne Fremdmaterial.“

Die größten von der Allgemeinheit finanzierten Produzenten

Abbildung:  D64 CC BY 4.0

Abbildung: D64 CC BY 4.0

Ausgangspunkt und Kernidee für das online verfügbare White Paper (PDF) sei die Tatsache gewesen, schreibt Dobusch im Paper, dass die öffentlich-rechtlichen Rundfunk-Einrichtungen in Deutschland – die ARD-Anstalten, das ZDF, Deutsche Welle und Deutschlandradio – die größten von der Allgemeinheit finanzierten Produzenten urheberrechtlich geschützter Inhalte seien. Zudem hätten diese Einrichtungen den ihnen erteilten Auftrag zu erfüllen: die Beitragszahlenden zu informieren und unterhalten.

Doch leider seien die Inhalte der öffentlich-rechtlichen Sender nicht für die Allgemeinheit frei zugänglich, schreibt Dobusch in einer Meldung zu seinem White Paper, „und zwar nicht einmal in jenen Fällen, in denen es sich um reine Eigenproduktionen ohne Fremdmaterial und ohne nachgelagerte Verwertungsketten handelt. Die verstärkte Nutzung von Creative Commons könnte hier Abhilfe schaffen und so den öffentlich-rechtlichen Rundfunkanstalten auch ermöglichen, deren Bildungs- und Unterhaltungsauftrag noch besser zu erfüllen.“

CC-lizenzierte Inhalte bleiben trotz Depublizierungspflicht einfacher online

Diesem Ansatz folgend sollte die Untersuchung auch Potentiale sowie mögliche Ziele und Effekte für eine solche Creative-Commons-Nutzung näher beleuchten. Dazu heißt es im Abstract des White Papers:

Eine verstärkte Nutzung von Creative-Commons-Lizenzen im Bereich des öffentlich-rechtlichen Rundfunks würde der Verbreitung der produzierten Inhalte dienen und eine Weiternutzung in den verschiedensten Kontexten vereinfachen – etwa im Bildungsbereich. Hinzu kommt, dass offen lizenzierte Inhalte trotz der Depublizierungspflicht einfacher online verfügbar bleiben.

Darüber hinaus sollte die Untersuchung herausarbeiten, welche Hürden für eine Creative-Commons-Nutzung seitens öffentlich-rechtlicher Rundfunkanstalten bestünden, für welche Inhalte Creative Commons (CC) in Frage komme und welche Lizenzoptionen dabei gewählt werden sollten.

Fünf Handlungsempfehlungen

Der 17-seitige Bericht liefert eine Reihe von Pro-CC-Argumenten, die im Fazit in folgende fünf Handlungsempfehlungen münden:

Um den Anteil an Creative-Commons-lizenzierten Inhalten im öffentlich-rechtlichen Rundfunk zu steigern, bieten sich folgende kurzfristigen Maßnahmen an:

  • Studie zur Klassifikation von Inhalten hinsichtlich Lizenzierungstauglichkeit
  • Creative-Commons-Integration in Content-Management-Systeme
  • Informationsoffensive zu Creative Commons
  • Überarbeitung von Standardverträgen
  • Problem von verwaisten, öffentlich-rechtlichen Werken lösen

Diese Sofortmaßnahmen, heißt es im White Paper, könnten mittelfristig ergänzt werden durch Pilotprojekte mit AuftragsproduzentInnen in Bereichen, die ebenfalls für eine Creative-Commons-Nutzung in Frage kommen sowie die Einrichtung eines öffentlich-rechtlichen Creative-Commons-Portals, in dem offen lizenzierte Inhalte gebündelt und durchsuchbar angeboten werden.

Mit diesem Befund dürfte das White Paper bei so manchem engagierten Fernseh- oder Radiomacher offene Türen einlaufen. Beispielsweise der bekannte Wissenschafts-Journalist und TV-Moderator Ranga Yogeshwar, der kürzlich im Interview mit iRights.info erklärte: „Öffentlich-rechtliche Sendungen sollten frei zugänglich sein“.

January 21 2014

Open-Access-Publizieren mit dem universitätsweiten Repositorium Phaidra

Die Archivierungsplattform Phaidra wird seit 2008 an der Universität Wien verwendet, um digitale Objekte über Sprach- und Ländergrenzen online zur Verfügung zu stellen. Sandra Blumesberger beschreibt das Projekt.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Phaidra (Permanent Hosting, Archiving and Indexing of Digital Resources and Assets) wurde von der Universitätsbibliothek Wien gemeinsam mit dem Zentralen Informatikdienst der Universität entwickelt und ist derzeit an mehreren in- und ausländischen Institutionen, unter anderem am Fonds zur Förderung wissenschaftlicher Forschung (FWF) in Verwendung.

Das Programm basiert auf der Open-Source-Software Fedora, die für die Archivierung digitaler Objekte entwickelt wurde. Phaidra macht eine langfristige Sicherung wertvoller digitaler Inhalte möglich und ist seit 2008 online. Objekte in allen Formaten können – mit einem dauerhaften Identifier, Lizenzen und Klassifikationen versehen – archiviert werden.

Mit diesem Repository ist es ebenfalls möglich, sehr rasch und sicher zu publizieren. Sämtliche MitarbeiterInnen, Studierende und Personen, die einen Account der Universität Wien besitzen, haben die Möglichkeit, Objekte, versehen mit einem Zeitstempel und erläuternden Metadaten, zu archivieren und, soweit rechtlich möglich, weltweit freizugeben. Wertvolle Sammlungen, Archivmaterialien, Bücher, Bilder, Texte, Videos und Audiodokumente können sehr rasch verfügbar gemacht werden.

Weiterverwendung erlaubt

Die angegeben Lizenzen garantieren jede Weiterverwendung, die der „Owner“ – so wird jene Person genannt, die das Objekt in Phaidra hochlädt – des Objekts wünscht. Aber auch die Verwendung von offenen Standards und Schnittstellen erlaubt es, die Objekte in andere Kontexte zu stellen (mehr unter phaidraservice.univie.ac.at).

So wurden zum Beispiel im Rahmen des EU-Projekts Europeana Libraries zahlreiche Bilder des Instituts für Kunstgeschichte, Nachlassmaterialien, Bücher, Inkunabeln, Videos der Universitätsbibliothek und Materialien des Universitätsarchivs für alle zugänglich ins Internet gestellt.

Das Projekt „E-Books on Demand“ ermöglicht es, rechtefreie Büchern über das für Phaidra entwickelte Betrachtungsprogramm digital bereit zu stellen. Phaidra-User haben zusätzlich die Möglichkeit, mit dem in Phaidra angebotenen Phaidra-Importer selbst Bücher zu erstellen und über den Bookviewer anzubieten.

Phaidra ist eingebunden in die EU-Projekte OpenAIRE und OpenAIREplus. Das bedeudet, dass österreichweit alle Personen, die in einem Forschungsprojekt im Rahmen des FP7-Rahmenprogramms der EU tätig und vertraglich verpflichtet sind, ihre Ergebnisse offen zugänglich zu publizieren, Phaidra nutzen können.

Rechtefragen behindern Verfügbarkeit

Die Möglichkeit, die Objekte mehrsprachig beschreiben zu können, vermindert weitere Barrieren; ein weltweiter Austausch von wissenschaftlichen Informationen ist deshalb garantiert. Dennoch hat diese Freiheit Grenzen, nämlich dann, wenn die Rechte an einem Objekt nicht geklärt sind.

Laut den Nutzungsbedingungen von Phaidra dürfen nur Objekte archiviert werden, an denen der Owner die Rechte besitzt. Bei multimedialen Objekten, bei denen von allen Beteiligten die Rechte eingeholt werden müssten, kann dies ein langer Prozess sein.

Bei Materialien, die in der Lehre eingesetzt werden, besitzen die LehrveranstaltungsleiterInnen nicht immer sämtliche Rechte. Das bedeutet, dass diese Materialien nicht in Phaidra archiviert werden dürfen. Auch Sicherheitskopien von Objekten, deren Rechte nicht gänzlich geklärt sind, dürfen nicht in Phaidra archiviert werden. Eine Lockerung der derzeitigen Gesetze würde die Verbreitung des Open-Access-Gedankens sehr unterstützen.

Während in den Naturwissenschaften bereits einige Modelle des Open-Access-Publizierens in Verwendung sind, sind die Vorbehalte in den Geisteswissenschaften zum Teil noch sehr groß. Hier bedarf es eines Umdenkungsprozesses – die Werkzeuge wären jedenfalls schon vorhanden.

Susanne Blumesberger ist Germanistin und seit 1999 Mitarbeiterin des Projekts „biografiA. Datenbank und Lexikon österreichischer Frauen“ am Institut für Wissenschaft und Kunst an der Unversität Wien und seit 2007 zuständig für Customer Management für Phaidra, das digitale Langzeitarchivierungssystem der Universität Wien.

January 14 2014

Die Urheberin, das All-Eins und die Schultern von Riesen

Welche Rolle spielt das Urheberrecht in der Wissenschaft? Und wie wichtig ist es, dass die bisher gewonnenen Erkenntnisse, auf denen weitere Forschung aufbauen kann, frei verfügbar sind? Einige Betrachtungen von Nicole Lieger.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Das Aufbauen neuer Forschung auf vorhandenen Erkenntnissen, die Entwicklung neuer Gedanken aus bereits Geschriebenem heraus sind zweifelsohne Kernelemente der wissenschaftlichen Dynamik. Und während dieses Teilen und Weiterverwenden den Lebensnerv der Wissenschaften bildet, halten sich auch andere Kräfte, die diese Dynamik erschweren oder behindern.

Natürlich sind die Zusammenhänge hierbei vielfältig und komplex. Ich möchte nur einen Faktor herausgreifen und ein wenig näher beleuchten. Dieser Faktor ist ein auf der philosophischen Grundebene angesiedelter – nämlich bei dem Verständnis des Selbst und der Natur des Denkens. Widergespiegelt findet es sich gut in der Idee des „Urhebers“. Diesen kann man sich, in Anlehnung an das romantische Bild von Descartes, als einsamen Denker vorstellen, als Individuum, das mit einer Tabula rasa beginnt, das ganz aus sich heraus schöpft und ein „eigenes“ Werk hervorbringt. In der Art, wie Urheberrecht heute diskutiert wird, scheint so ein Bild oftmals mitzuschwingen.

Descartes: The man who tried to be an island? Rene Decartes, Portrait von Frans Hals.

Descartes: The man who tried to be an island?, Rene Decartes, Portrait von Frans Hals via Wikimedia Commons.

Ein anderer Zugang würde mit einer ganz anderen Idee von Individuum und von schöpferischem Wirken beginnen; und daher auch zu ganz anderen – rechtlichen, ökonomischen – Regelungen und Systemen führen.Hier wird der Mensch in seinem geistigen Leben und in seinem „ich“ verstanden als etwas, was erst durch Begegnung mit anderen Menschen und durch Sozialisation entsteht: Allein und unbeeinflusst von anderen wäre der Mensch sprachlos wie Kaspar Hauser.

Das geistige Innere des Menschen entsteht also in Begegnung mit anderen, und die Einflüsse, die „mich“ und „mein Denken“ hervorbringen, sind unglaublich mannigfaltig und verwoben. Und die Grenze ist nicht klar zu ziehen: was sind „die Gedanken anderer in mir“, was sind „meine Gedanken“? Als geistige Wesen gehen wir – bei dieser Betrachtungsweise – alle ineinander über.

Beispiel Sprache: Das Eigene und das Gemeinsame

Ein gutes Beispiel dafür ist Sprache. Wenn ich schreibe, und dabei meine ureigensten Gedanken ausdrücke, verwende ich die deutsche Sprache. Die ureigen meine sind, die aber Millionen Menschen vor mir und um mich geprägt und an mich weitergegeben haben. So wie nun ich sie präge und gleichzeitig weitergebe. Genauso ist es mit dem Inhalt meiner Gedanken: Ich bin ein Kind der Moderne, und der Postmoderne. Ich drücke – ganz individuell – die Gedanken aus, die rund um mich und daher in mir vorhanden sind. Wo fängt „mein Individuelles“ an, wo hört es auf? Lässt sich das feststellen? Wäre das überhaupt wichtig?

Statt zu fragen: „Ist dieser Gedanke von dir oder von mir?“ könnten wir auch vorrangig fragen: „Ist dies ein hilfreicher Gedanke? Wollen wir mit dem weitermachen?“

„Wer hat’s zuerst gesagt?“ ist vielleicht kein hilfreicher Fokus.

Jedes anregende, kreative Gespräch verliert sofort den Esprit, wenn es sich vom Gesprächsgegenstand wegbewegt hin zum Thema: „Das hab jetzt aber ich gesagt!“ – „Ja, aber das ich!“ – „Ja, aber nur, weil vorher ich das gesagt habe!“. Müßig, oder? Tatsächlich, ein Wort gibt das andere. Und selbst wenn mein Beitrag sich nicht an andere anlehnt, sondern diesen sogar direkt widerspricht: Hat sich mein Gedanke vielleicht nur im Formulieren dieses Widerspruchs gebildet und ist daher genauso dem Gemeinsamen, der Begegnung entsprungen?

Viele Einzelimpulse ergeben ein Ganzes

In diesem Bild liegt der Fokus auf dem gemeinsamen geistigen Feld, das heterogen und dynamisch ist und sich durch das Zusammenspiel vieler Einzelimpulse weiterentwickelt. Dieses Bild von menschlichem Denken entwirft etwa auch der Quantenphysiker David Bohm in seinen Texten zu Dialog. Ähnlich sind auch die Grundlagen von systemischen (Familien-)Aufstellungen, oder Grundstränge buddhistischer Philosophie, wie etwa von Thich Nhat Hanh mit dem Begriff Intersein beschrieben.

Von diesem Zugang her kommend könnte man also meinen, dass es kaum möglich ist, „meine Gedanken“ von „deinen Gedanken“ zu trennen, und dass es insgesamt eher eine traurige Zeitverschwendung ist, sich darauf zu konzentrieren.

Damit wir uns möglichst frei dem Wesentlichen zuwenden können, sollten wir daher unsere Systeme so ausrichten, dass sie nicht zu sehr von der Beantwortung der Frage „Wer hat’s zuerst gesagt?“ abhängig sind.

Ruhm, Ehre, Vertragsverlängerung

Dies hat einige sehr interessante Implikationen für die akademische Welt, wo derzeit Ruhm, Ehre und Vertragsverlängerung verdächtig stark davon abhängig sind, wer was zuerst gesagt hat.

Welche Regeln und Systeme – rechtlich, ökonomisch und so weiter – uns einfallen, welche wir aufbauen, hängt unter anderem davon ab, welches Bild von Selbst und Wirklichkeit wir als Ausgangspunkt im Hinterkopf haben. Agiere ich – bewusst oder unbewusst – mit dem Bild des einsamen Denkers und Forschers, der, ganz alleine und aus sich heraus, Gedanken und Erfindungen hervorbringt und daher deren „Urheber“ ist?

Oder sehe ich die gedankliche Welt im wesentlichen als eine verwobene, wo ein Wort das andere und eine Erfindung die nächste gibt, in einer viel subtileren Art als eine Fußnote je ausdrücken könnte? Wo wir alle unsere Gedanken wechselseitig beeinflussen und hervorbringen, wo Zeitgenossinnen und vergangene Generationen in mir und aus mir sprechen, wo mein individueller Ausdruck genau Teil eines kollektiven Diskurses und nur deswegen in dieser Form entstanden ist? In diesem Bild sind Gedanken uns allen gemein – und daher auch frei?

Nicole Lieger arbeitet an der Entwicklung neuer Formen politischen Arbeitens, die Vision, Wertschätzung, Kooperation und Freude ins Zentrum rücken und die sich die Möglichkeiten eines konstruktivistischen Weltverständnisses zunutze machen. Sie hat für Amnesty International in Brüssel gearbeitet, war Leiterin des Ludwig-Boltzmann-Instituts für Menschenrechte und lehrte jahrelang an der Universität Wien, derzeit an der Universität Innsbruck.

Reposted byFreeminder23 Freeminder23

January 09 2014

In eigener Sache: Broschüre „Online-Ratgeber – Seniorinnen und Senioren sicher im Netz” veröffentlicht

Immer mehr ältere Menschen nutzen das Internet. Die wenigsten Grundregeln sind für diese Bevölkerungsgruppe selbstverständlich, wenn es um Social Media, Urheberrecht oder Einkaufen im Netz geht. iRights.info hat im Auftrag des SPD-Parteivorstandes eine neue Broschüre entwickelt, die diese Themen leicht verständlich aufgreift. Die 30-seitige Broschüre „Online-Ratgeber – Seniorinnen und Senioren sicher im Netz” (PDF) richtet sich an alle, nicht nur an SPD-Mitglieder, die sich über grundsätzliche Fragen von Rechten, Risiken und Chancen im Internet informieren wollen.

Oftmals ist bei älteren Nutzern die Unsicherheit groß, in die nächste Falle im Netz zu tappen oder Opfer eines Betruges oder einer Rechtsverletzung zu werden. Wir setzen wichtige Informationen dagegen – keine Angstmache, wie man sie viel zu oft in den klassischen Medien findet. Unter der Frage „Um was geht es?“ heißt es folglich: um Neugier und Experimente im Internet. Auch ältere Nutzer sollen wachsam, aber ohne Angst oder zu große Vorsicht die neuen Möglichkeiten des Netzes aktiv nutzen. Dazu wollen wir mit dieser Broschüre beitragen.

Gestatten: Herr und Frau Netzbach

Durch die Broschüre und die Themen führt das fiktive Paar Herr und Frau Netzbach. Sie erklären den Lesern den digitalen Alltag. Als Mitglied eines Internetforums für Hobbyköche gerät Herr Netzbach schnell mit dem Urheberrecht in Konflikt, als er sein Lieblingsrezept ins Netz stellen will. Frau Netzbach geht es ganz ähnlich, als sie Fotos aus ihrem Fotokurs bei der örtlichen Volkshochschule in einer Ausstellung verwenden will. Es geht um alltägliche Veröffentlichungen, um das Nutzen von Videostreams, um die Frage, wie man am besten selber Videos online stellt, um Lizenzfragen und freie Inhalte, die man für Remixes oder andere Zusammenstellungen verwenden kann. Weitere Themen sind Datenschutz im Netz, soziale Medien, Online-Einkauf, das private WLAN-Netzwerk und wie man Passwörter richtig erfindet.

Die Inhalte sind so einfach und verständlich wie möglich beschrieben. Ergänzt durch Erklärkästen, Checklisten, ein Glossar mit den wichtigsten Begriffen und Lesehinweisen. Die in Großdruck gesetzten Texte stehen unter der Creative-Commons-Lizenz BY-ND. Das heißt, dass sie – bei Nennung des Autoren und ohne inhaltliche Veränderung – kostenlos weitergegeben, kopiert und wieder veröffentlicht werden dürfen.

iRights.info und Parteien

Wir vom Informationsportal iRights.info arbeiten unabhängig von Parteien und Unternehmen nach journalistischen Grundsätzen. In diesem Fall ist der SPD-Parteivorstand an uns herangetreten und hat uns gebeten, eine solche Broschüre zu entwickeln und inhaltlich zu gestalten. Darüber freuen wir uns sehr. Einflussnahme seitens der SPD gab es dabei nicht. An dieser Stelle sei ausdrücklich gesagt, dass wir – sofern diese Bedingung gegeben ist – auch mit anderen Parteien zusammenarbeiten, indem wir unser Know-How zur Verfügung stellen. Einfluss auf die sonstige Berichterstattung von iRights.info – gerade auch in Zeiten großer Koalitionen – kann man damit ebenfalls nicht gewinnen.

Die Publikation gibt es sowohl als gedruckte Broschüre als auch in digitaler Form. Die gedruckte Broschüre können SPD-Mitglieder unter spd-shop.de und alle interessierten Nichtmitglieder per E-Mail an <vertrieb@spd.de> oder per Telefon unter 030-25991-200 gegen ein geringes Entgelt auch in größeren Mengen bestellen. Die digitale Fassung haben wir hier zum kostenlosen Download (PDF) bereitgestellt. Wir wünschen eine gute und spannende Lektüre:

„Geistiges Eigentum“ – Schutz oder Hindernis? Workshop in Essen

„Heute sind immer mehr Autoren, Bibliothekare, Verlage und nicht zuletzt auch Wissenschaftler mit dem Problem konfrontiert, dass der bestehende Schutz des ‚geistigen Eigentums’ und die verschiedenen neuen Vertragsvarianten ihre digitale Textproduktion und -distribution eher behindern als schützen.“ So die These des Workshops „Nach dem geistigen Eigentum? Digitale Literatur, die Literaturwissenschaft und das Immaterialgüterrecht“, der morgen in Essen stattfindet.

stacheldraht

Foto: neelaka, CC by

Organisiert von Thomas Ernst vom Fachbereich Literatur- und Medienwissenschaft der Universität Duisburg-Essen, werden sich Akademiker und Praktiker in dem Workshop mit den Fragen beschäftigen,  die aus dem digitale Wandel resultieren: Wie lassen sich eigenständige Werke noch als solche abgrenzen, wenn zum Beispiel Texte intermediale Verbindungen eingehen, durch Hyperlinks in einen sich wandelnden Raum über sich hinausverweisen, User Generated Content integrieren oder auf ihre kontinuierliche Modifikation angelegt sind?

Wie sinnvoll ist der Schutz von Werken noch, wenn die digitale Kopie ungekannte Potenziale zur schnellen und identischen Vervielfältigung von Inhalten bereithält und jeder heutige Schutz morgen schon wieder umgangen werden kann? Inwiefern ist die Rede vom Urheber angesichts einer neuen Intensität der kollektiven Textproduktion noch zeitgemäß und die Grenze zwischen Urheber und Leser zum Beispiel in Crowdsourcing-Projekten nicht ohnehin bereits aufgelöst?

Livestream, Hashtag, Blog

iRights.info ist Medienpartner des Workshops, der am morgigen Freitag, dem 10. Januar von 13 bis 19 Uhr im Bibliothekssaal des Campus Essen stattfindet, und auch als Livestream übertragen wird  (öffnet externen Player – bei Problemen die URL im VLC-Player öffnen):

http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-28422/NdgE_Live.asx

Der Hashtag für Feedback ist #ndge; der Workshop wird vom Weblog Digitur – Literatur in digitalen Medien begleitet, das von der studentischen Webredaktion des MA-Studiengangs „Literatur und Medienpraxis“ gestaltet wird.

Programm

12:30 Ankunft und Anmeldung

Eröffnung des Workshops ‚Nach dem geistigen Eigentum?‘

13:00 Prof. Dr. Rolf Parr (Universität Duisburg-Essen):Grußwort des Studiengangleiters ‚MA Literatur und Medienpraxis‘ 13:10 Dr. Thomas Ernst (Universität Duisburg-Essen):Nach dem geistigen Eigentum? Die Literaturwissenschaft und das Immaterialgüterrecht

Praktische Potenziale und (rechtliche) Probleme des digitalen Publizierens

13:30 Dirk von Gehlen (Leiter Social Media/Innovation, Süddeutsche Zeitung; Crowdfunder):War Crowdfunding besser als Suhrkamp? ‚Eine neue Version ist verfügbar‘ – Probleme und Potenziale digitaler Buchveröffentlichungsformen 14:15 Kaffeepause 14:45 Klaus-Peter Böttger (Vorsitzender EBLIDA – European Bureau of Library, Information and Documentation Associations; Leiter der Stadtbibliothek Essen):Warum das Urheberrecht ein Problem für die ‚Onleihe‘ ist. Oder: Was macht für Bibliotheken den Unterschied zwischen einem Kauf und einer Lizenz aus?

Interdisziplinäre Lösungsansätze zu (rechtlichen) Problemen des digitalen Publizierens

15:30 Prof. Dr. Katharina de la Durantaye (Juniorprofessorin für Bürgerliches Recht, Humboldt-Universität zu Berlin):‚Geistiges Eigentum‘ vs. Immaterialgüterrecht. Rechtswissenschaftliche Perspektiven für die Literaturwissenschaft 16:15 Kaffeepause 16:45 Podiumsdiskussion zum Thema Digitale Literaturen, Geschäftsmodelle digitalen Publizierens und das Immaterialgüterrecht. Probleme und Perspektiven mit
  • Prof. Dr. Hermann Cölfen (Kustos der Germanistik an der Universität Duisburg-Essen; Gründer des Universitätsverlags Rhein-Ruhr);
  • Dorothee Graf (Fachreferentin Germanistik der Universitätsbibliothek der Universität Duisburg-Essen);
  • Matthias Spielkamp (Redaktionsleiter iRights.info – Urheberrecht in der digitalen Welt);
  • Dorothee Werner (Leiterin Unternehmensentwicklung, Grundsatz- und strategische Fragen beim Börsenverein des Deutschen Buchhandels);
  • Moderation: Dr. Thomas Ernst
18:30 Ausklang des Workshops im Unperfekthaus, Friedrich-Ebert-Straße 18,  45127 Essen

Ort

Universität Duisburg-Essen
Campus Essen
Bibliothekssaal
Universitätsstr. 9-11
45117 Essen

Zwischen den Gebäuden R09 und R11, siehe auch: Anfahrtbeschreibung.

January 07 2014

Schulbuch-o-mat: Neue Impulse für OER-Schulbücher

Das ehrgeizige Projekt Schulbuch-o-mat lenkte im August 2013 die Aufmerksamkeit auf Open Educational Resources – und steht für neue Impulse bei offenen Bildungsmedien. Zugleich löste es wegen seiner uneinheitlichen Lizenzierung Kontroversen in der Open-Source-Community aus. Die Initiatoren stellten sich der Kritik – und berücksichtigen diese für den nächsten, jüngst angekündigten Titel. 

Ein komplettes Schulbuch als freies Lernmittel oder auch Open Educational Resource (OER), das gab es bisher noch nicht in Deutschland. Diese Lücke schloss die erste Version von „Biologie 1, Klasse 7/8“, erschienen im August 2013. Es ist kostenlos als digitaler Download in einer Epub- oder PDF-Version verfügbar. Der Inhalt steht für jegliche Nutzung frei und kann weitgehend frei weiter verwendet werden.

hans_wedenig_heiko_przyhodnik 2

Hans Hellfried Wedding (links im Bild),­ Medien­produzent und Berater, und Heiko Przyhodnik, Biologie- und Sport-Lehrer, sind Gründer und Köpfe der Initiative Schulbuch-o-mat

Hinter dem Werk steht die Berliner Initiative Schulbuch-o-mat, die vom Medienproduzenten Hans Hellfried Wedenig und dem Biologie- und Sport-Lehrer Heiko Przyhodnik gegründet wurde. Ausschlaggebender Impuls dafür war laut Przyhodnik die Trägheit schulischer Bildungsmaterialien. Mit ihrer digitalen und offenen Alternative wollen sie Schülern, Eltern und Lehrern einen direkten, individuellen und kostenlosen Zugang zu Lehrmaterialien bieten. Und das sehr wohl lehrplangerecht: „Der Inhalt unseres Schulbuchs bietet hundertprozentige Deckung mit dem Berliner Lehrplan“, erzählt Hans Hellfried Wedenig.

Zur Kernidee gehört außerdem, ein freies Werk zu schaffen, das sich permanent erweitern und aktualisieren lässt. Die viel zu langen Produktionszyklen der Verlagsbranche sind in Zeiten von Wikipedia und mobilem Internetnutzung längst nicht mehr zeitgemäß.

Per Crowdfunding-Kamapagne zum Ziel

Ihr Ziel erreichten die beiden mit Hilfe einer Crowdfunding-Kampagne  auf der Plattform Startnext. Innerhalb von vier Monaten stellten insgesamt 236 Unterstützer die projektierten 10.000 Euro zur Verfügung. Diese flossen zum Teil in die konkrete Umsetzung mit Hilfe des Lübecker Autorensystem LOOP, einer Anpassung der Open-Source-Software Mediawiki. Doch weil vielen Lehrern und potentiellen Mitwirkenden die Arbeit in einem Wiki zu komplex war, entschieden Wedenig und Przyhodnik – um den versprochenen Veröffentlichungstermin zu halten – Texte aus freien amerikanischen Biologie-E-Books zu nutzen. So floss ein Teil der Crowdfunding-Gelder in die Übersetzung des US-Content.

Doch die herausgebende Foundation CK–12 veröffentlicht ihre Texte in der freien Creative-Commons-Lizenz „Non Commercial“, kurz NC. Und das bedeutet, sie dürfen nicht für kommerzielle Zwecke verwendet werden. Daher stehen die Biologie-1-Texte der 1.0-Version komplett unter der Creative-Commons-Lizenz „CC BY-NC-SA“. Die Abbildungen wiederum stehen unter der Lizenz „CC BY-SA”.

Kritik an unterschiedlichen Lizenzen

Diese Einschränkung brachte den Schul­buch-o-mat-Machern einige Kritik ein – von erklärten OER-Befürwortern. Denn aufgrund der NC-Lizenz könne der Content zum großen Teil nicht in die Wikipedia übernommen werden. Zudem sei es mit NC nicht möglich, frei verfügbare Inhalte in kommerzielle Produkte zu überführen, was den oft ehrenamtlich und auf Vorleistungen beruhenden OER-Projekten wichtige Refinanzierungswege ebnet. Mithin sei das Schulbuch-o-mat-Buch mit NC-lizensierten Texten kein sortenreines OER-Projekt und könne nicht als Vorzeigeprojekt dienen. Manche betrachteten es als gescheitert, auch weil der Projektverlauf nicht hinreichend kommuniziert worden sei.

Biologie1 Version1.1

Der Schulbuch-o-mat-Titel „Biologie 1“ in Version 1.1

Die Initiatoren nahmen die Kritik an. Zugleich rieten sie, Energie nicht nur für OER-Grundsatz-Debatten aufzuwenden, sondern aktiv an den Bearbeitungen und Erweiterungen von Lehr- und Lernunterlagen mitzuwirken: „Das würde der Gesamtbewegung und den Beteiligten in ihrem täglichen Schulleben tatsächlich helfen.“

Zudem wiesen sie darauf hin, dass die Lizenzen kapitel- oder abschnittsweise definiert und austauschbar seien. Tatsächlich erschien Ende Oktober die Version 1.1, in der die Texte des sechsten Kapitels nun unter CC BY-SA lizenziert sind – ohne das einschränkende NC.

Über 5.600 Downloads nach zweieinhalb Monaten

Parallel dazu zogen die Initiatoren auf ihrer Website öffentlich eine erste Bilanz: Zweieinhalb Monate nach der Veröffentlichung sei die Version 1.0 über 5.600-mal heruntergeladen worden, davon rund 2.000 in der iPad-Version, die ein dem Projekt wohlgesinnter Lehrer aus Düsseldorf mit seinen Schülerinnen und Schülern der Klassen sieben und höher erstellte.

Neben dem zählbaren Nutzer-Interesse weckte das OER-Buch auch die Aufmerksamkeit der Bildungsbranche. So berichteten das RBB-Fernsehen und Deutschlandradio, aber auch Fachmedien wie beispielsweise Buchreport und zahlreiche Lehrer- und Bildungsmagazine. Die Bundeszentrale für politische Bildung lud die Protagonisten zu einer Podiumsrunde bei der Frankfurter Buchmesse ein.

Aufgeschlossen bis gereizt reagierten die großen Schulbuchverlage auf die digitale Konkurrenz. Generell würden sie Schulbuch-o-mat als Wettbewerber auf dem Lehrmedien-Markt begrüßen. Doch die Aufgabe, alle Bundesländer verlässlich mit qualitativ hochwertigen, rahmenplan-konformen Titeln zu beliefern, überfordere die Open-Source-Methode, gemeinschaftlich an einem Schulbuch mitzuwirken.

Das Schulbuch als kollektiver, immerwährender Prozess

Doch genau darum geht es Wedenig und Przyhodnik: die sukzessive Weiterentwicklung des Werkes als kollektiver, immerwährender Prozess. Über praxiserfahrene Lehrkräfte hinaus integrieren sie auch Schülerinnen und Schüler, damit diese sich mit den Themen auseinandersetzen und auf ihre Art und Weise zum Buch beitragen können.

So führen sie im Herbst in Berlin sogenannte Schulbuch-Hacking-Days durch, gefördert von der Medienanstalt Berlin-Brandenburg. In eintägigen Workshops entwickeln sie zu einzelnen Buchabschnitten mit den Schülern neue Inhalte, etwa Videos, in denen Schüler sich gegenseitig bestimmte Themen erklären, die sie zuvor erarbeitet haben. Geplant ist, die neuen Inhalte innerhalb der Workshops direkt in das aktuelle Werk hinein zu veröffentlichen.

Und auch das ist für Schulbücher etwas ganz Neues.

Update: Am 5. Januar kündigte die Initiative Schulbuch-o-mat an, im Juni 2014 den nächsten Titel der Schulbuchreihe zu veröffentlichen: „Sicherung und Weiterentwicklung der Demokratie“. Er bezieht sich auf das Fach Politik/Wirtschaft für die Sekundarstufe 1 in Realschulen und Gymnasien sowie auf den Lehrplan von Nordrhein-Westfalen. Hierin sollen alle Inhalte CC BY-SA lizenziert sein, heisst es auf der Schulbuch-o-mat-Website.

HenrySteinhauPortraet2013_1700x1350 swHenry Steinhau arbeitet als freier Medien-Journalist und Autor in Berlin und gehört zur Redaktion von iRights.info. Veröffentlichungen in iRights.info, Medium Magazin, PUBLIK, Blickpunkt:Film, Annual Multimedia und weiteren. Zudem ist er tätig als Vortrags-Referent, Live-Moderator und seit mehreren Jahren Lehrbeauftragter für Journalismus-Grundlagen und Textkompetenz an Universitäten und Hochschulen.

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

January 06 2014

Felix Trumpke, wie kann Norwegen alle seine Bücher ins Netz stellen?

Die norwegische Nationalbibliothek arbeitet daran, alle im Land erschienenen Bücher im Netz lesbar zu machen. Der Max-Planck-Urheberrechtsforscher Felix Trumpke erläutert im iRights.info-Interview die rechtlichen Hintergründe und die Funktionsweise des Modells „Extended Collective Licensing”.

Hintergrund: Seit 2006 hat die norwegische Nationalbibliothek ihr Digitalisierungsprogramm schrittweise ausgeweitet. Erklärtes Ziel ist es, nicht nur gemeinfreie Werke, sondern alle bis zum Jahr 2000 in Norwegen erschienenen Bücher in den nächsten 20 bis 30 Jahren zu digitalisieren. Über die Plattform Bokhylla.no sind seit 2009 Digitalisate im Netz zugänglich – jedenfalls für Nutzer, die eine norwegische IP-Adresse haben und mit einigen Einschränkungen. Grundlage bildet ein Abkommen, das die Nationalbibliothek mit der Verwertungsgesellschaft Kopinor geschlossen hat.

iRights.info: Herr Trumpke, in Norwegen bildet das sogenannte „Extended Collective Licensing” die rechtliche Basis, um die Bestände der Nationalbibliothek zu digitalisieren. Wir kennen in Deutschland die „kollektive Rechteverwertung” als Grundmodell von Verwertungsgesellschaften wie der GEMA oder der VG Wort. Worin besteht die Erweiterung beim „Extendend Collective Licensing“ (ECL)?

Felix Trumpke: Verwertungsgesellschaften werden von ihren Mitgliedern, also den Rechteinhabern, mit der Wahrnehmung ihrer Rechte beauftragt. Gewöhnlicherweise können diese Verwertungsgesellschaften einem Nutzer nur die Rechte ihrer Mitglieder einräumen. Die Besonderheit des skandinavischen „Extended Collective Licensing” liegt nun darin, Kollektivvereinbarungen zwischen einer Verwertungsgesellschaft und einem Nutzer per Gesetz auf sogenannte „außenstehende Rechteinhaber“ erstrecken zu können. Neben Norwegen sehen ein solches Modell auch Schweden, Dänemark, Finnland und Island vor.

Das heißt, es werden nicht nur die Rechte der Mitglieder einer Verwertungsgesellschaft an den Nutzer lizenziert, sondern die Rechte aller Rechteinhaber eines bestimmten Bereichs. Voraussetzung ist, dass die Verwertungsgesellschaft repräsentativ agiert. Das heißt, dass sie bereits eine substanzielle Anzahl an Rechteinhabern vertritt.

iRights.info: Können Sie das an einem Beispiel erläutern?

Felix Trumpke: Ja, nehmen wir eine Bibliothek, die mit einer entsprechenden Verwertungsgesellschaft eine Vereinbarung über die Nutzung von – sagen wir – Schriftwerken geschlossen hat. Sie wäre aufgrund der erweiterten kollektiven Lizenzen (ECL) berechtigt, nicht nur die Werke der Rechteinhaber zu nutzen, die Mitglied der Verwertungsgesellschaft sind, sondern aller denkbaren Rechteinhaber; beispielsweise auch ausländischer Rechteinhaber.

Hierfür gelten die in der Vereinbarung niedergelegten Bedingungen. Einem „außenstehenden“ Rechteinhaber räumt so eine ECL-Vereinbarung dabei verschiedene Rechte ein: Etwa auf Gleichbehandlung mit den Mitgliedern der Verwertungsgesellschaft, auf individuelle Vergütung und manchmal auch auf Widerspruch gegenüber der Nutzung, womit er sein Werk dem Zugriff entziehen kann.

iRights.info: Wie verhält sich dieser „skandinavische Weg“ zum EU-Recht? Gibt es Konflikte, wenn Norwegen und andere Länder das „Extended Collective Licensing” umsetzen?

Felix Trumpke: Das ist ein interessanter Punkt. In der EU-Urheberrechts-Richtlinie von 2001, die bestimmte Aspekte des Urheberrechts in den Mitgliedstaaten harmonisiert hat, finden sich im Artikel 5 zahlreiche sogenannte „Ausnahmen und Beschränkungen“. Diese haben zur Folge, dass die Staaten keine weiteren „Schranken“ in das nationale Recht einführen dürfen.

Gleichzeitig ist den Regelungen der Richtlinie ein Erwägungsgrund vorangestellt, konkret der Erwägungsgrund 18. Er besagt, dass die Richtlinie „die Regelungen der betroffenen Mitgliedstaaten für die Verwaltung von Rechten, beispielsweise der erweiterten kollektiven Lizenzen“ nicht berührt.

Dies haben die skandinavischen Gesetzgeber nun so verstanden, dass sie berechtigt sind, an der ECL festzuhalten und diese sogar auszuweiten, weil es vom europäischen Recht nicht tangiert werde. Ob das so zutrifft oder nicht, mag eine andere Frage sein und würde jetzt auch an dieser Stelle zu weit führen.

Um es also kurz zu sagen: Ja, wegen Erwägungsgrund 18 der Richtlinie können sie die ECL umsetzen, ohne in Konflikt zu den europäischen Vorgaben zu treten.

iRights.info: Norwegen will auf diesem Weg praktisch große Teile des digitalisierbaren kulturellen Erbes frei zugänglich machen – könnte das ECL für so ein Vorhaben generell eine Art „Königsweg“ sein?e

Felix Trumpke: An dieser Stelle muss man etwas genauer hinschauen: Die Regelung in Skandinavien ist keine revolutionäre Erfindung. Die Länder wenden die ECL in unterschiedlichen Anwendungsbereichen seit den 1960er Jahren bereits an. Auch Schweden hat jüngst eine ähnliche ECL-Vorschrift wie Norwegen zugunsten von Bibliotheken und Museen in sein Urheberrechtsgesetz eingeführt.

Auch das Bokhylla-Projekt der norwegischen Staatsbibliothek läuft schon einige Jahre. Es handelt sich aber nicht um ein unbegrenztes und kostenloses Zuverfügungstellen des kulturellen Erbes Norwegens. Zunächst ist ja eine Vergütung ausgehandelt worden: pro Seite, die zugänglich gemacht wurde, zahlt die Bibliothek einen kleinen Betrag an die entsprechende Verwertungsgesellschaft „Kopinor“.

Hinzu kommt, dass es „nur“ Werke betrifft, die vor dem Jahre 2000 in Norwegen veröffentlicht wurden, einschließlich der übersetzten Literatur. Die Werke können auch nur am Bildschirm betrachtet werden, ein Ausdrucken oder Herunterladen ist nicht möglich. Zudem ist ein Abruf nur über eine norwegische IP-Adresse möglich – das ist aufgrund der territorialen Anwendung des nationalen Rechts notwendig.

iRights.info: In Norwegen soll sich mit dem ECL auch eine Vergütungs-Mechanik etablieren, die Rede ist von 0,04 Euro pro online aufgerufener Textseite. Gibt es bezüglich eines solchen Systems rechtliche Bedenken?

Felix Trumpke: Meines Erachtens nicht. Man darf freilich nicht vergessen, dass die Vergütung alle paar Jahre neu ausgehandelt wird. Bei solchen digitalen Nutzungen lassen sich die einzelnen Vorgänge, also wie viele Seiten zugänglich gemacht wurden, recht leicht erfassen und damit die Vergütung sehr präzise berechnen.

iRights.info: Das klingt doch alles, als hätten die Norweger mit der ECL einen guten rechtlichen Kniff gefunden, den freien Zugang für alle zu digitalem Wissen in großer Fläche zu öffnen.

Felix Trumpke: Ich wäre zunächst mit der Formulierung „freier Zugang für alle“ vorsichtig, da man damit immer gewisse Kritiker schnell auf den Plan ruft. Die ECL ermöglicht die Umsetzung großer Digitalisierungsvorhaben in sehr funktionsfähiger Weise. Sie ermöglicht aber keine umfassende kostenfreie Nutzung für alle von allem.

Doch ohne Zweifel ist sie ein ausgesprochen brauchbares Instrument in Fällen von Massennutzungen und großen Digitalisierungsprojekten. Denn im Gegensatz zu etwa den schmalen Lösungsansätzen der EU – zuletzt etwa die Richtlinie bezüglich einer zulässigen Nutzung verwaister Werke – lassen sich über die ECL umfassend alle erforderlichen Rechte aus einer Hand lizenzieren.

Aber es wird sehr oft übersehen, warum die ECL in den skandinavischen Ländern so gut funktioniert: In Skandinavien besteht ein ausgesprochen hoher Organisationsgrad der Urheber, das heißt, eine große Anzahl an Organisationen. Seit vielen Jahren sind die Rechteinhaber dort gewöhnt, bestimmte Nutzungshandlungen über Kollektivvereinbarungen zu lizenzieren, wohingegen andernorts Schranken vorgesehen sind, so auch in Deutschland.

Hinzu kommt, dass ein solches Modell die Bereitschaft der Rechteinhaber voraussetzt, sich darauf einzulassen. Es benötigt also Zeit, sich zu entwickeln.

iRights.info: Ließe sich das ECL-basierte Verfahren aus Norwegen trotz dieser Bedenken in Deutschland anwenden?

Felix Trumpke: Grundsätzlich wäre es denkbar, ein solches Modell auch hier in Deutschland einzuführen. Allerdings sind dabei zwei Punkte zu bedenken:

Zum einen der bereits erwähnte Organisationsgrad, der in Deutschland bei weitem nicht so stark ausgeprägt ist wie in Skandinavien, der aber in entscheidender Weise zum Funktionieren der ECL beiträgt. Zum anderen wurde jüngst eine Vermutungsregelung zugunsten der Verwertungsgesellschaft mit Bezug auf die Nutzung von vergriffenen Werken in Deutschland eingeführt (Paragraf 13d Urheberrechtswahrnehmungsgesetz).

Im Grunde ist das ein ähnlicher Mechanismus: Auch hier werden letztlich die Rechte der Außenseiter durch die Verwertungsgesellschaft lizenziert. Der Ansatz ist allerdings viel zu schmal, denn von der Regelung werden einzig vergriffene Werke erfasst. Insofern halte ich die Chancen für eine Umsetzung der ECL in Deutschland eher für gering.

iRights.info: Sie schreiben gerade an einer Doktorarbeit über die ECL. Was halten Sie persönlich vom „skandinavischen Weg“?

Felix Trumpke: Ich halte die ECL für eine ausgesprochen charmante Lösungsmöglichkeit, der bisher in der Wissenschaft erstaunlich wenig Beachtung geschenkt wurde. Das will ich mit meiner Arbeit darüber ändern.

Man darf aber zum einen nicht die einzelnen Problemstellungen übersehen, die mit der ECL einhergehen, zum anderen darf man nicht vergessen, aus welchem Umfeld sie stammt. Insofern halte ich die der ECL mancherorts entgegengebrachte und teilweise übertriebene Begeisterung nicht unbedingt für gerechtfertigt.

Felix Trumpke ist Doktorand am Max-Planck-Institut für Innovation und Wettbewerb (ehemals Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht) und forscht dort zum Immaterialgüter- und Wettbewerbsrecht in der Europäischen Union und im globalen Rahmen. Derzeit arbeitet er an einer Dissertation über „kollektive Rechtewahrnehmung und Erweiterte Kollektive Lizenzen“.

January 02 2014

Auch 2014 wird Open Access auf der Tagesordnung stehen

Zehn Jahre nach der Berliner ­Erklärung über den ­offenen Zugang zu wissenschaftlichem Wissen ist Open Access im politischen Raum angekommen. Ein Zweitveröffentlichungsrecht im Urheberrecht soll zukünftig die Position von Forschenden gegenüber Verlagen stärken. Doch es gibt weiter viel zu tun.

Vor zehn Jahren wurden die „Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen“ von führenden Wissenschaftsorganisationen verabschiedet. In dem visionären Statement wird das Potenzial des Internets für die Wissenschaft skizziert. Zentrales Anliegen der Erklärung: Publikationen und Forschungsdaten sollen über das Netz entgeltfrei zugänglich und offen nachnutzbar gemacht werden.

Die „Berliner Erklärung“ war 2003 eine Antwort auf einen dysfunktionalen Publikationsmarkt, in dem die finanziellen und rechtlichen Bedingungen der Informationsversorgung durch Verlage diktiert werden. Ein Zustand, der die Innovationsfähigkeit der Wissenschaft bis heute bremst. Denn Wissenschaft lebt von Kommunikation. Der Zugriff auf die Ergebnisse der Scientific Community ist eine unabdingbare Grundlage für den wissenschaftlichen Fortschritt.

Doch selbst die reichsten Hochschulen der Welt, wie die Universität Harvard, sind nicht mehr in der Lange, die ständig steigenden Kosten für wissenschaftliche Zeitschriften zu tragen. Open Access, der offene Zugang zu qualitätsgesichertem wissenschaftlichem Veröffentlichen, will diese Situation überwinden. Für jeden Interessierten soll es möglich sein, die Ergebnisse der öffentlich geförderten Forschung zu rezipieren. Darüber hinaus eröffnet Open Access der digitalen Wissenschaft neue Möglichkeiten im Umgang mit Wissen und Information.

180 Open-Access-Repositorien nur in Deutschland

Auch wenn noch immer viele wissenschaftliche Ergebnisse auf kostenpflichtigen Verlagsplattformen versteckt sind, hat sich seit der Verabschiedung der Berliner Erklärung einiges getan. Nach einer Studie der Europäischen Kommission sind bereits bis zu 50 Prozent der wissenschaftlichen Publika­tionen frei im Netz verfügbar. Alleine in Deutschland werden 180 Open-Access-Repositorien an wissenschaftlichen Instituten betrieben. Auf diesen Datenbanken werden­ Publikationen, die in einer Verlagsveröffentlichung erschienen sind, nach einer Embargoperiode von sechs oder zwölf Monaten frei zugänglich gemacht.

Darüber hinaus gibt es eine rasant wachsende Zahl von Open-Access-Zeitschriften. Der Betrieb dieser Zeitschriften wird häufig von wissenschaftlichen Einrichtungen finanziert. Daneben gewinnt das Geschäftsmodell der Publikationsgebühr an Bedeutung. Hier zahlt eine Förder­organisation oder die Institution des ­Publizierenden eine Gebühr bei der Veröffentlichung eines begutachteten Artikels an den Verlag. Dank offener Lizenzen wird nicht nur der freie Zugang, sondern auch die Nachnutzung der Artikel in digitalen Forschungsumgebungen ermöglicht.

Die Wissenschaftsverlage haben den Wunsch nach Open Access längst erkannt. So kaufte zum Beispiel die renommierte Nature Publishing Group im Februar 2013 den von Forschenden gegründeten Frontiers-Verlag. Alleine der Wissenschaftsverlag Springer betreibt mittlerweile über 400 Open-Access-Zeitschriften. Und das Open-Access-Journal PLOS ONE ist mit 23.400 Artikeln im Jahr 2012 das größte wissenschaftliche Publikationsorgan.

Mit dem Wachstum von Open Access wird auch das Geschäftsverhältnis zwischen Wissenschaft und Verlagen auf neue Beine gestellt. Anliegen der Wissenschaft ist es, den Transformationsprozess von Subskription zu Open Access aktiv zu gestalten und den sich formierenden Open-Access-Publikationsmarkt im Sinne der Wissenschaft zu realisieren.

Politik entdeckt Open Access

Der Blick auf das Jahr 2013 zeigt, dass Open Access längst ein wissenschaftspolitisches Thema ist. Die US-Regierung erließ im Februar eine Verordnung, nach der die öffentlichen Forschungseinrichtungen Open Access in ihren Statuten verpflichtend verankern müssen. Publikationen müssen bis spätestens zwölf Monate nach Erscheinen auf einem Repositorium frei zugänglich gemacht werden.

Darüber hinaus soll auch die Nachnutzung der Forschungsdaten, die Grundlage der Publikationen sind, verbessert werden. Ähnliche Entwicklungen gibt es auf europäischer Ebene. Auch im kommenden Forschungsrahmenprogramm Horizon 2020 der EU wird Open Access verpflichtend verankert werden. Alle Publikationen, die ab 2014 in Horizon 2020 entstehen, müssen frei zugänglich gemacht werden.

In Deutschland hat die Enquete-Kommission „Internet und digitale Gesellschaft“ Anfang 2013 empfohlen, Open Access verpflichtend in der Forschungsförderung zu verankern. Auch die Expertenkommission Forschung und Innovation der Bundesregierung betont in ihrem Jahresgutachten 2013 die Bedeutung von Open Access für die Innovationsfähigkeit Deutschlands. Denn der freie Fluss von Wissen und Information ist ein potenzieller Wachstumsmotor.

Vor allem urheberrechtliche Fragen

Laut einer 2013 veröffentlichten Studie zahlt sich Open Access in Deutschland auch volkswirtschaftlich aus, da zum Beispiel der Transfer der Forschungsergebnisse in die Wirtschaft verbessert wird. Vor diesem Hintergrund haben die G8-Staaten im Juni 2013 angekündigt, Open Access verstärkt fördern zu wollen. Die deutschen Wissenschaftsorganisationen arbeiten bereits seit 2008 in einer gemeinsamen Initiative an der Förderung von Open Access. 2013 hat etwa die Helmholtz-Gemeinschaft eine Open-Access-Richtlinie verankert und damit auf die genannten Empfehlungen reagiert.

Da aufgrund der jungen Geschichte des Themas Open-Access-Zeitschriften noch nicht in allen Disziplinen etabliert sind, gilt es aktuell, insbesondere die freie Zugänglichmachung von Publikationen über Open-Access-Repositorien zu fördern. Hier werden Forschende häufig mit urheberrechtlichen Fragen konfrontiert: Wann darf welche Version des Artikels auf das Repositorium gestellt werden? Um Forschenden Rechtssicherheit bei diesen Fragen zu geben, wurde 2013 nach langer Debatte ein unabdingbares Zweitveröffentlichungsrecht im Urheberrecht verankert.

Ein wichtiger Schritt, der jedoch nur wenige zufriedenstellt, da der enge Anwendungsbereich des Gesetzes an den Anforderungen der Wissenschaft vorbeigeht. So beschränkt sich die Regelung auf Publikationen, die im Rahmen der außeruniversitären und der drittmittelgeförderten Forschung entstehen. Diese Einschränkung wurde vom Bundesrat und den Wissenschaftsorganisationen als Diskriminierung von Forschenden an Hochschulen kritisiert. Die Länder haben bereits Nachbesserungen gefordert.

Die Diskussion um Open Access wird also auch 2014 auf der Tagesordnung stehen. Bis zur Realisierung der in der Berliner Erklärung beschriebenen ­Vision einer offenen Wissenschaft ist weiterhin noch viel zu tun. Packen wir es an.

Foto: Privat

Foto: Privat

Heinz Pampel arbeitet für das Open-Access-Koordinationsbüro der Helmholtz-Gemeinschaft am Deutschen Geo­Forschungszentrum GFZ. Er bloggt auf wisspub.net über Open Access und verwandte Themen der digitalen Wissenschaft.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 23 2013

Eine „Tablet-Klasse” macht noch keine moderne Schule

2013 könnte in die Geschichte eingehen als das Jahr der Vorentscheidungen: Werden Bildung, Lernen und Schule lediglich digitalisiert oder grundsätzlich ver­ändert? Es ist noch offen, in welche Richtung die Entwicklung geht.

„Shift happens“ ist unter digital-affinen Bildungsexperten seit Jahren ein beliebter Slogan. Doch genau genommen ist er falsch. Nicht eine, sondern zwei grundsätzliche Verschiebungen vollziehen sich in diesem Bereich derzeit. „Two shifts happen“, müsste es heißen. Denn neben dem digitalen Wandel bei Medien und Bildung steht auch eine Veränderung des Grundverständnisses von Lernen und Schule.

Das Wesen von Schule hat sich seit dem vorletzten Jahrhundert im Kern nicht verändert. Die Gesellschaft beziehungsweise der Staat gibt einen beständig gewachsenen Kanon von Inhalten vor, gelehrt durch Lehrer und Bücher, angetrieben und kontrolliert durch Prüfungen und Abschlüsse, gelernt durch Zuhören, Lesen, Wiederholen und Üben. Der Stoff wird möglichst didaktisch aufbereitet und in thematischer und sozialer Isolation aufgenommen.

Seit einigen Jahren gerät dieses Selbstverständnis ins Wanken, beeinflusst durch die Erhebungen der PISA-Studien, den Ausruf der Kompetenzwende, den Vergleich mit anderen Ländern oder Best-practice-Beispiele wie im Film „Treibhäuser der Schulen. Wie Schulen in Deutschland gelingen“ oder im Wettbewerb „Der Deutsche Schulpreis“. Ein neues Ideal vom schulischen Lernen orientiert sich zu großen Teilen an reformpädagogischen Überlegungen.

Der Lernende als aktives Subjekt rückt in den Mittelpunkt. Wichtiger wird das individuelle Aneignen oder Konstruieren von Wissen, das kollaborative und kreative Arbeiten. Differenzierte Lernmaterialien, zum Teil in Form von Arbeitsblättern, aber auch weniger didaktisierte Inhalte aus dem echten Leben rücken in den Vordergrund. Das Erarbeiten und Produzieren von Ergebnissen in Projekten, problembasiertes Lernen und Portfolios ergänzen das konsumierende Lernen und Prüfungen und lösen sie zum Teil ab.

Gleichzeitig halten digitale, vernetzte Geräte, Materialien, Werkzeuge und Plattformen Einzug in die Schulen – noch auf vergleichsweise niedrigem Niveau, aber mit erkennbarer Beschleunigung. Was dabei häufig übersehen wird: Die digitalen Technologien zur Unterstützung des Lehrens und Lernens werden auf ganz unterschiedliche Weise genutzt.

Weg 1: Altes Lernen mit digitalen Medien

Als eine Variante gilt das optimierte Lehren: An vielen Orten schreibt man die Geschichte der alten Schule mit digitalen Mitteln weiter. Sogenannte Lernprogramme optimieren vor allem das Üben und Auswendiglernen. Videos, Animationen und Simulationen ersetzen den Lehrvortrag. Die fortgeschrittenen Anwendungen versprechen direktes Feedback beim Lernen und eine Anpassung der Darbietung an die Fehler und Fortschritte des Lernenden (adaptive learning).

Die neuesten, in Deutschland noch sehr zurückhaltend eingesetzten Learning-Management-Systeme versprechen, Lernfortschritte jedes Schülers detailliert zu erfassen, abzubilden und an Lehrer, Schüler und Eltern zurückzuspiegeln. Individuelle Lernwege lassen sich durch Wahl aus Optionen und Anpassung gehen. Letztlich geht es aber vor allem um ein optimiertes Lehren.

Weg 2: Selbstbestimmtes Lernen mit digitalen Werkzeugen

In der zweiten Variante setzt man die digitalen Medien für ein tatsächlich individuelles, produktives, kollaboratives, selbstgesteuertes oder sogar selbstbestimmtes Lernen ein. Schüler nutzen das Web zur Informationsrecherche, verwenden Kommunikations- und Kollaborationswerkzeuge für die Zusammenarbeit mit anderen Lernenden innerhalb und außerhalb des Klassenraums, arbeiten mit Anwendungsprogrammen, um multi-mediale Präsentationen zu erstellen und veröffentlichen ihre Ergebnisse schließlich in Web-2.0-Diensten wie Blogs und Wikis.

Die real existierende Praxis liegt irgendwo dazwischen. Dabei lässt sich sehr wohl ein Grundsatz erkennen, nach dem die Schule ihre Arbeit und ihren Medieneinsatz ausrichtet. Die Form folgt der Funktion – auch beim Einsatz digitaler Medien. Anders gesagt: Ist von „Tablet-Klassen“ und „vernetzter Schule“ die Rede, sagt das nichts darüber aus, ob es sich um eine moderne Schule handelt. Die neuen Medien eignen sich hervorragend zur Fortsetzung, Optimierung und Festschreibung der alten Schule. Wenn man so will: Es gibt zwei ganz unterschiedliche Verständnisse des Lernens mit Ipad & Co.

Optimiertes Lehren oder offenes Lernen

2013 stehen wir somit an einer Weg­gabelung. Die jetzt anstehenden Entscheidungen über Hardware, Software und Einsatzszenarien setzen das Fundament und die Grenzen für die Art und Weise, wie wir Schule, Lehren und Lernen definieren und wie es grundsätzlich mit Lernen und Schule weitergeht.

Für die erste Richtung des optimierten Lehrens stehen Entwicklungen wie Lern-Management-Systeme, Drill&­Practice-Apps (zum Beispiel für das Sprachenlernen), Erklärvideos wie von der Khan Academy, Scoyo oder sofatutor, die Vereinheitlichung von Hardware in geschlossenen Ökosystemen (derzeit vor allem iPad-Klassen), statische E-Books zum Beispiel auf digitale-schulbuecher.de oder Online-Kurse, die auf Wissenspräsentation und Multiple-Choice-Quiz basieren (MOOCs).

Auf der anderen Seite stehen offene Ansätze wie die Nutzung frei verfügbarer Informationen im Web, der generischen Plattformen und Werkzeuge für Zusammenarbeit; Wissensverarbeitung und -veröffentlichung; die Erstellung und Nutzung von Open Educational Resources (frei verwendbare, editierbare Inhalte) und der Bring-Your-Own-Device-Ansatz (BYOD), bei dem Lernende unterschiedliche, meist auch private Geräte mit in die Schule bringen.

In der Praxis wird sich eine Kombination durchsetzen. Aber mit welcher Ausrichtung, unter welchen Vorzeichen, mit welchen Grundannahmen und Zielsetzungen? Verfestigen die neuen Medien die alte Schule? Oder kann der digitale Wandel denjenigen in der Bildung beeinflussen? In welche Richtung wir gehen werden, ist derzeit noch offen. Die Entscheidungen treffen wir heute.

Die jetzt anstehenden Entscheidungen über Hardware, Software und Einsatz­szenarien setzen das Fundament und die Grenzen für die Art und Weise, wie wir Schule, Lehren und Lernen definieren und wie es grundsätzlich mit Lernen und Schule weitergeht.

foto_joeran-muuss-mehrholzJöran Muuß-Merholz ist Diplom-Pädagoge und betreibt mit einem kleinen Team die Agentur J&K – Jöran und Konsorten. Er ist als Autor, Programmkoordinator und Redakteur zum Thema Open Education Resources tätig, unter anderem für Wikimedia Deutschland und die Bundeszentrale für politische Bildung. Foto: Ralf Appelt


Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

December 20 2013

E-Learning-Magazin: „Open Access und OER sind bei der zukünftigen Regierung angekommen“

Vor kurzem erschien die elfte Ausgabe des „Hamburger E-Learning-Magazins“. Als Schwerpunkt-Thema wählte die Redaktion die „Open Educational Resources“ (OER), also freie Bildungsmedien. Auf über 30 Seiten geht es dabei unter anderem um Begriffsdefinitionen und Ökosysteme für OER, anhand zahlreicher Projekte beleuchtet das Magazin die Praxis und den Status quo bei den freien Bildungsmedien. In eigener Sache: Zu den urheberrechtlichen Aspekten hinsichtlich OER steuerte iRights.info einen Artikel bei, der die OER-Studie von Medienrechtsanwalt Till Kreutzer in den wesentlichen Punkten zusammenfasst.

Mit aktuellem Bezug zum Koalitionsvertrag der neuen Regierung schreibt die E-Learning-Beauftragte der Universität Hamburg, Angela Petz, in ihrem Vorwort:

 „Im Koalitionsvertrag der Großen Koalition steht: ‘Schulbücher und Lehrmaterial auch an Hochschulen sollen, soweit möglich, frei zugänglich sein, die Verwendung freier Lizenzen und Formate ausgebaut werden.‘ Open Access und OER sind bei der zukünftigen Regierung angekommen.  … Die EU-Kommission ist mit dem Aktionsplan ‘Die Bildung öffnen‘ schon einen Schritt weiter, auch mit der deutlichen Aussage, dass ‘sicherzustellen ist, dass alle aus öffentlichen Haushalten finanzierten Lehrmittel für jeden zugänglich sind.‘“

Herausgeber des kostenlosen Magazins ist das Zentrale E-Learning-Büro der Universität Hamburg, es erscheint seit Dezember 2008 halbjährlich, jeweils als PDF-Datei. Hier der Direktlink zur aktuellen Ausgabe #11 mit OER-Schwerpunkt (PDF).

December 03 2013

Zugang gestalten! – Die Konferenz zum Nachsehen

Am 28. und 29. November 2013 fand im Jüdischen Museum Berlin die Konferenz „Zugang gestalten! – Mehr Verantwortung für das kulturelle Erbe” statt. Sie behandelte die Frage, welche Aufgaben Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können.

Veranstaltet wurde sie gemeinsam vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland.

Hier die Aufzeichnungen der Vorträge, Inputs und Diskussionen. Zwischentöne der Konferenz hat Mathias Schindler im Liveblog bei Wikimedia (Tag 1, Tag 2) gesammelt.

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 9px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: black; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#cd2373; } .vimeoBadge #vimeo_badge_logo { margin-top:8px; width: 57px; height: 20px; } .vimeoBadge .credit { font: normal 8px Helvetica, verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 30px 10px 30px; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { margin-top:8px; font: bold 12px Helvetica, verdana,sans-serif; overflow:hidden; width: auto; height: 55px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

December 02 2013

Koalitionsvertrag bringt „Digitale Agenda” und Vorratsdaten, Netzsperren, Elektronische Semesterapparate

Union und SPD stellen ihren Koalitionsvertrag samt „digitaler Agenda” vor, EuGH-Generalanwalt Villalón hält Sperrpflichten für Internetprovider für zulässig, der Bundesgerichtshof entscheidet über Kopien in elektronischen Semesterapparaten. Außerdem im Wochenrückblick: Persönlichkeitsrecht bei Youtube, Haftung von Wikimedia, Ausweis-Scans und Zugang zu Behördenentscheidungen.

Digitale Agenda im Koalitionsvertrag

Am Mittwoch haben CDU, CSU und SPD ihren Koalitionsvertrag vorgestellt. Dieser enthält auch einen Abschnitt „Digitale Agenda für Deutschland”. Die große Koalition erklärt außerdem Vorhaben zu Themen wie „Digitale Sicherheit und Datenschutz” und „Konsequenzen aus der NSA-Affäre”. Unter anderem ist vorgesehen, die Vorratsdatenspeicherung (wieder) einzuführen, was harsche Kritik erntete.
Der Koalitionsvertrag im Volltext (siehe dort insb. ab Seite 138).
CR-Online mit einem Kurzüberblick.

EU-Generalanwalt: Provider könnten zu Netzsperren verpflichtet werden

Provider können per richterlicher Anordnung zu Netzsperren verpflichtet werden. Diese Ansicht äußerte EuGH-Generalanwalt Pedro Cruz Villalón am Dienstag im Verfahren UPC/Constantin und Wega. Über den österreichischen Interpetprovider UPC konnte man die Seiten von kino.to aufrufen. Dagegen gingen die Constantin Film Verleih GmbH und Wega Filmproduktionsgesellschaft GmbH vor. Die Klage ging bis zum Obersten Gerichtshof von Österreich, der sich an den Europäischen Gerichtshof wandte. Der Generalanwalt äußerte nun in seinen Schlussanträgen, ein Webseitenbetreiber nutze die Dienste des Internetanbieters, weswegen dieser Vermittler von Urheberrechtsverletzungen sein könne. Das rechtfertige eine Sperrverfügung. Allerdings müssten „konkrete Sperrmaßnahmen bezeichne[t] und ein angemessenes Gleichgewicht zwischen den sich gegenüberstehenden, grundrechtlich geschützten Interessen” sichergestellt werden.
Zur Pressemitteilung über die Schlussanträge.
Mehr Infos bei Golem.

BGH legt Bildungsschranke etwas weiter aus

Höchstens 12 Prozent und nicht mehr als 100 Seiten sind als „kleine Teile” von Werken gemäß Paragraf 52a Urheberrechtsgesetz anzusehen. Das hat der Bundesgerichtshof am Donnerstag entschieden. § 52a UrhG erlaubt die öffentliche Zugänglichmachung kleiner Werkteile zugunsten von Unterricht und Forschung. Die Fernuniversität Hagen hatte ihren Studenten PDFs auf einer internen Lernplattform zur Verfügung gestellt. Entgegen der Vorinstanz erkannte der BGH nun die Möglichkeit des Ausdruckens und Abspeicherns der Texte als von der Schranke gedeckt an.
Mehr bei Telemedicus.

OLG Hamm: Identifizierende Berichterstattung über Straftat auf Youtube zulässig

Youtube muss Videos mit identifizierender Berichterstattung über einen Verkehrsunfall mit fahrlässiger Tötung nicht löschen. Das hat das Oberlandesgericht Hamm Ende September entschieden, wie Freitag bekannt wurde. Der mit diplomatischer Immunität in Russland als Lehrer arbeitende Kläger verursachte in Moskau einen Verkehrsunfall, bei dem zwei russische Studenten starben. In Russland wurde die Tat nicht verfolgt, in Deutschland wurde er unter anderem zu Freiheitsstrafe mit Bewährung verurteilt. Zu der Tat gab es mehrere Videos auf YouTube, die ein Foto, den damaligen Namen und eine frühere Adresse des Klägers nennen. Der Kläger verlangte Löschung. Die bildliche Darstellung betreffe den Kläger allerdings lediglich in seiner Sozialsphäre, so das Oberlandesgericht. Eine Güter- und Interessenabwägung führe letztlich zu einem Überwiegen des öffentlichen Informationsinteresses.
Ausführlich bei Juris.

Oberlandesgericht Stuttgart: Wikimedia haftet für Verdachtsberichterstattung

Wikimedia kann als Störer für Verdachtsberichterstattung haften. Das hat das Oberlandesgericht Stuttgart Anfang Oktober entschieden, wie letzte Woche bekannt wurde. Ein Wikipedia-Artikel berichtete über einen TV-Unternehmer. Unter Berufung auf einen Zeitungsartikel befand sich dort die Aussage, der Unternehmer habe Sex mit Kindern verharmlost. Diese Informationen untersagte das Oberlandesgericht. Das Persönlichkeitsrecht des Mannes überwiege hier das Informationsbedürfnis der Öffentlichkeit. Ein hinreichender Aktualitätsbezug bestehe nicht, weil Wikipedia auf ständige Aktualisierungen durch die Nutzer angewiesen sei. „Proaktive” Prüfungspflichten träfen Wikimedia allerdings nicht.
Die Meldung bei Heise.

Gericht: Scannen und Speichern von Personalausweisen rechtswidrig

Das Einscannen und Speichern von Personalausweisen ist unzulässig. Das hat das Verwaltungsgericht Hannover am Donnerstag entschieden. Es bestätigte damit eine entsprechende Verfügung des Landesbeauftragten für den Datenschutz Niedersachsen. Dieser ging gegen eine Logistikdienstleisterin vor, die auf ihrem Betriebsgelände ständig mehrere tausend Kraftfahrzeuge lagerte. Insbesondere Speditionsfahrer holten täglich vielfach Fahrzeuge ab. Um den Speditionsvorgang zu überwachen, scannte das Unternehmen die Personalausweise der Abholer ein und speicherte die Scans. Der Personalausweis sei aber lediglich ein Identifizierungsmittel zur Vorlage – ein zu weitgehendes Erfassen der Daten dürfe nicht stattfinden, so das Verwaltungsgericht.
Zur Pressemitteilung des VG Hannover.

Menschenrechtsgerichtshof zum Recht auf Zugang zu Behördenentscheidungen

Österreich hat das Recht auf freie Meinungsäußerung der NGO „Österreichische Vereinigung zur Erhaltung, Stärkung und Schaffung eines wirtschaftlich gesunden land- und forstwirtschaftlichen Grundbesitzes” verletzt. Das hat der EGMR am Donnerstag entschieden. Die NGO begehrte erfolglos Zugang zu (anonymisierten) Entscheidungen der Tiroler Landes-Grundverkehrskommission. Sie bringt sich unter anderem mit Stellungnahmen in den Gesetzgebungsprozess ein. Dafür benötigte sie entsprechende Dokumente, die ihr lediglich in Tirol vorenthalten wurden. Der österreichische Verfassungsgerichtshof hatte zunächst entschieden, Artikel 10 der Europäischen Menschenrechtskovention enthalte keine Verpflichtung, den Zugang zu Informationen zu gewährleisten. Genau dem trat der EGMR nun entgegen: Die Zugangsverweigerung sei unverhältnismäßig gewesen.
Die Hintergründe bei HP Lehofer.

 

Lizenz dieses Artikels: CC BY-NC-SA.

November 29 2013

Donnerstag und Freitag ab 10.15 Uhr im Livestream: Zugang gestalten! #ke13

Die Konferenz „Zugang gestalten!“ im Jüdischen Museum Berlin beschäftigt sich damit, welche Aufgaben die Museen, Archive und Bibliotheken mit öffentlichen Mitteln erfüllen sollen und wie sie dieser Verantwortung auch in der digitalen Welt gerecht werden können. Hier im Stream.

Das Programm bei „Zugang gestalten!” am Freitag:

10:15

Kulturpolitische Positionsbestimmung: Wie sollen Museen, Archive und Bibliotheken auf die Digitalisierung reagieren?

Kurze Statements von:

  • Pavel Richter
    Vorstand von Wikimedia Deutschland e.V.
  • Prof. Dr. Michael Naumann
    Direktor der Barenboim-Said-Akademie, vormals Kulturstaatsminister, Chefredakteur und Herausgeber der „Zeit“
  • Ranga Yogeshwar
    Wissenschaftsjournalist und Autor

11:00

Podiumsdiskussion

  • Mit Beteiligung von Prof. Monika Grütters, MdB, Stiftungsvorstand, Literatur- und Kunsthistorikerin
    Moderation: Julia Eikmann, Freie Hörfunkjournalistin

12:30 Mittagspause

13:30

Innovative Projekte und Entwicklungen, Teil 2: Zugang gescheitert

  • Jüdische Exilzeitungen
    Dr. Sylvia Asmus, Leiterin des Deutschen Exilarchivs 1933–1945 der Deutschen Nationalbibliothek

14:00

  • Depub.org
    Dr. Christoph Classen, Zentrum für zeithistorische Forschung Potsdam

14:30 Kaffeepause

15:00

Rechtliche Rahmenbedingungen und ihre Weiterentwicklung

    Impulsreferat

  • Dr. Cedric Manara, Copyright counsel, Google

15:30

    Kurze Statements

  • Prof. Dr. Thomas Dreier, Leiter des Instituts für Informations- und Wirtschaftsrecht und des Zentrums für angewandte Rechtswissenschaft am Karlsruher Institut für Technologie
  • Dr. Till Kreutzer
    Rechtsanwalt bei iRights.Law, Partner iRights.Lab
  • Dr. Tilo Gerlach
    Geschäftsführer der Gesellschaft zur Verwertung von Leistungsschutzrechten
  • Prof. Dr. Katharina de la Durantaye
    Juniorprofessorin für Bürgerliches Recht an der Humboldt-Universität zu Berlin

16:30–18:00

    Diskussion

  • Moderation: Dr. Paul Klimpel, Leiter der Konferenz

Stand vom 22.11.2013 – Änderungen möglich!

Erste Videos der Konferenz am Donnerstag – weitere folgen:

/* You can modify these CSS styles */ .vimeoBadge { margin: 0; padding: 0; font: normal 11px verdana,sans-serif; } .vimeoBadge img { border: 0; } .vimeoBadge a, .vimeoBadge a:link, .vimeoBadge a:visited, .vimeoBadge a:active { color: #3A75C4; text-decoration: none; cursor: pointer; } .vimeoBadge a:hover { color:#00CCFF; } .vimeoBadge #vimeo_badge_logo { margin-top:10px; width: 57px; height: 16px; } .vimeoBadge .credit { font: normal 11px verdana,sans-serif; } .vimeoBadge .clip { padding:0; float:left; margin:0 10px 10px 0; line-height:0; } .vimeoBadge.vertical .clip { float: none; } .vimeoBadge .caption { font: normal 11px verdana,sans-serif; overflow:hidden; width: auto; height: 30px; } .vimeoBadge .clear { display: block; clear: both; visibility: hidden; } .vimeoBadge .s160 { width: 160px; } .vimeoBadge .s80 { width: 80px; } .vimeoBadge .s100 { width: 100px; } .vimeoBadge .s200 { width: 200px; }

„Zugang gestalten!” wird veranstaltet vom Jüdischen Museum Berlin, der Stiftung Preußischer Kulturbesitz, dem Internet & Gesellschaft Collaboratory, der Deutschen Digitalen Bibliothek, dem iRightsLab Kultur, der Open Knowledge Foundation Deutschland und Wikimedia Deutschland. Sponsoren sind EMC und Google.

Mehr Infos zu den Referenten, Themen und Dokumentation:
zugang-gestalten.de

Börsenverein: Offen verstecker Streit um Open Access

Ein heftiger Streit über den Umgang von Wissenschaftsverlagen mit Open Access bewegt derzeit den Börsenverein des deutschen Buchhandels. Die als Positionspapier formulierte Anregung, mit der Wissenschafts-Community neue Wege beim freien Zugang zu gehen, sorgt für Widerspruch.

Auslöser der Kontroverse ist ein Positionspapier (PDF), das der Verleger-Ausschusses des Börsenvereins vor gut einer Woche per Pressemitteilung veröffentlichte. Deklariert als „Meinung“, plädieren darin die Verfasser für einen „Neuanfang“ bezüglich der Rolle der Verlage beim „Zugang zu wissenschaftlichen Informationen“. Viele Verlage seien bereits in der Realität angekommen, würden Open Access als Publikationsmodell nutzen, heißt es in dem Papier, das zugleich fünf Herausforderungen an die Branche formuliert, etwa betreffend Qualitätssicherung und Referenzierbarkeit, Open Access in den Geisteswissenschaften und sinnvoller Finanzierungsmodelle.

Von diesen Formulierungen wie auch von der Veröffentlichung des Papiers selbst – es erschien anlässlich des zehnten Jahres der Berliner Erklärung zu Open Access  – zeigten sich einzelne Börsenvereinsmitglieder überrascht bis überrumpelt. Sie erklärten die Position als nicht abgestimmte Einzelmeinung, monierten eigenmächtiges Vorgehen. Das berichtete die FAZ am vergangenen Freitag (allerdings nur in der Druckausgabe). Mehr noch: Der Hamburger Verleger Manfred Meiner forderte wegen des vermeintlich isolierten Vorgehens des Verleger-Ausschuss-Vorsitzenden Matthias Ulmer öffentlich dessen Rücktritt.

Putschversuch und drohende Spaltung?

Dies veranlasste die FAZ dazu, von einem Putschversuch und drohender Spaltung des Börsenvereins zu schreiben. Seitdem sind der Börsenverein und seine Publikationsplattform Börsenblatt darum bemüht, den Streit auf der formalen Ebene zu lösen und die Diskussion intensiver inhaltlich zu führen. In mehreren Beiträgen und Kommentaren auf der Börsenblatt-Website  meldeten sich Beteiligte und Mitglieder zu Wort. So vermutet beispielsweise Meiner, dass der Verleger-Ausschuss dafür eintrete, Open Access solle künftig ohne Alternative bleiben. Dies wäre eindeutig eine „Kehrtwende in der Sache“, so Meiner.

Von einer solchen Verordnung zu Open Access oder auch Gleichschaltung sei überhaupt nicht die Rede, entgegnet dem der Geschäftsführer des De-Gruyter-Verlages, Sven Fund, in einem Interview mit dem Börsenblatt:

„Für mich ist die entscheidende Frage, welche Grundhaltung Verleger einnehmen: bestandswahrend oder kundenorientiert. Denn es ist die Nachfrage der Kunden – also beispielsweise der Bibliotheken –, die Open-Access-Publikationen wünschen.“

Seiner Auffassung nach sei Open Access auch keineswegs von der Verlagsgröße abhängig:

„Auch kleinere Verlage entscheiden sich für diesen Weg, weil sie sehen, wie sich die Marktbedingungen verändern. Auch sie fragen sich, wie man am besten mit der Wissenschaftler-Community und den Wissenschaftsorganisationen zusammenarbeitet. Open Access ist weltweit eine Realität der Wissenschaftskommunikation, je nach Disziplin wichtiger oder weniger wichtig. Von ihrem Verband können die Verleger Offenheit für Kundenbedürfnisse und die Innovationsfähigkeit ihrer Branche erwarten. Genau das hat der Verlegerausschuss in seiner ,Opinion‘ zum Ausdruck gebracht.“

Doch auch diese Stellungnahme des De-Gruyter-Chefs blieb nicht ohne Widerspruch. Kommentatoren werfen Fund ein aggressives Vorgehen in der Wissenschafts-Community vor. Er versorge sich durch Verlagszukäufe mit Erstveröffentlichungslizenzen zu Projekten, die maßgeblich durch Forschungsgelder finanziert seien – zum Nachsehen kleiner Verlage. Gleichwohl sind wieder andere Kommentatoren der Überzeugung, auch kleine Verlage müssten Open Access praktizieren, weil sie sonst mehr und mehr von der Wissenschaftsgemeinde ignoriert würden

Meinungsbildungsprozess in Verband und Öffentlichkeit führen

Mit einem weiteren Versuch, diese Wogen zu glätten, meldete sich vor drei Tagen der erst kürzlich ins Amt gewählte Vorsteher des Börsenvereins, Heinrich Riethmüller, per Pressemitteilung zu Wort. Dort verteidigt er zwar das Papier des Verleger-Ausschusses als eine „der Zukunft zugewandte Positionierung“. Doch er will die Veröffentlichung offenbar nicht als eine Art Dekret verstanden wissen, sondern als Anregung zur Diskussion über neue Wege, die Verlage gehen sollten:

 „Der Verband muss bei der Formulierung dieses neuen Weges den unterschiedlichen Wissenschaftsfakultäten mit ihren spezifischen Interessen Rechnung tragen. Diesem Anspruch sind wir beim Thema Open Access bisher nicht vollständig gerecht geworden. Jetzt kommt es darauf an, dass wir den Meinungsbildungsprozess in großer Offenheit und Sachlichkeit im Verband und der Öffentlichkeit weiter führen“, so Riethmüller.

Allerdings: öffentlich findet die Diskussion bisher nur auf der Website des Börsenvereins beziehungsweise des Börsenblatts statt. Anfragen von iRights.info an die Protagonisten des Streits blieben bisher alle unbeantwortet. Die Pressesprecherin des Börsenvereins, Claudia Paul, teilte uns mit, dass sich der Börsenverein zu Open Access in einem internen Diskussionsprozess befinde und es deshalb dazu öffentlich nichts zu sagen gebe.

November 28 2013

Die Aufzeichnerin: Marion Stokes nahm 35 Jahre Nachrichten auf Videokassetten auf

Die US-Amerikanerin Marion Stokes nahm 35 Jahre lang die Nachrichtensendungen mehrerer Kanäle auf Video auf: rund um die Uhr, ohne Unterbrechung, ohne Unterlass. So entstand ein einzigartiges Archiv, gespeichert auf insgesamt 140.000 VHS-Kassetten. Wann und wie der Fundus öffentlich zugänglich sein wird, ist aber noch offen. Er liegt nun in den Händen des Internet Archive. Für Medienhistoriker könnte das unglaubliche Vermächtnis von Stokes ein Glücksfall sein.

Illustration: US Navy, PD

Illustration: US Navy, PD

Roger McDonald ist seit 2000 zuständig für die Sammlung und Bereitstellung nationaler Fernsehsendungen beim Internet Archive. Dass man seinem Team private Nachlässe von Speichermedien anbietet, kommt immer wieder vor. Meist handelt es sich um 200 bis 300 Kassetten. Bei der emsigen Privatarchivarin Marion Stokes aber stapelten sich insgesamt 140.000 VHS-Kassetten, verteilt auf mehrere Räume unterschiedlicher Wohnungen.

Das Internet Archive ist eine gemeinnützige Organisation in San Francisco, die es sich zur Aufgabe gemacht hat, ein ebenso umfassendes wie offenes und online zugängliches Medienarchiv anzulegen. Neben Momentaufnahmen von Webseiten und Usenet-Beiträgen speichert es auch Filme, Fernsehsendungen und Tonaufnahmen (einschließlich von Live-Konzerten), sowie Bücher und Software.

Familienmitglieder und Assistenten halfen mit

Das US-Magazin Fast Company berichtet, dass Stokes 1977 damit begann, Fernsehnachrichtensendungen der fünf US-amerikanischen Hauptsender MSNBC, Fox, CNN, CNBC und CSPAN sowie mehrere Regionalsender aufzunehmen, rund um die Uhr, Tag für Tag, Jahr für Jahr. Dafür hatte sie bis zu acht Videorekorder gleichzeitig in Betrieb, gefüttert mit Kassetten von 240 Minuten Lauflänge. Um nichts zu verpassen, schlief sie nie länger als sechs Stunden, ließ schon mal das Essen in Restaurants kürzer ausfallen, damit sie rechtzeitig für den Bandwechsel zu Hause war, und spannte auch Familienmitglieder ein. Später beschäftigte sie einen Assistenten, der ihr half, das Aufnahme-Equipment zu bedienen, es zu warten und die Bänder zu wechseln.

Das ging 35 Jahre. 2012 starb Marion Stokes im Alter von 83 Jahren an den Folgen einer Lungenkrankheit. Bis zu ihrem Tod ließ Stokes die Maschinen laufen und aufnehmen. Für Außenstehende ging es bei ihr vollkommen chaotisch zu: Überall surrten Apparate, flackerten stumm geschaltete Bildschirme. Gleichwohl sei sie durchaus bei der Sache gewesen, erzählt Sohn Michael Metelits den Reportern. Sie konnte zwei Sendungen gleichzeitig anschauen und bekam dennoch die Inhalte mit.

Ihm zufolge war seine Mutter der festen Überzeugung, dass die Aufzeichnungen am Ende für irgendwas gut seien. Irgendjemand würde einen Weg finden, sie zu indizieren, zu archivieren und aufzubewahren – um sie nutzbar zu machen. Wenn sie gefragt wurde, was sie da eigentlich treibe, habe sie nur gesagt: „Ich archiviere, sonst nichts.“

Allein der Transport kostet 12.000 Dollar

Als Roger McDonald vom Internet Archive von Stokes‘ Archiv hörte, war er sofort fasziniert, auch wenn es anfangs nicht ganz sicher war, ob das Internet Archive logistisch in der Lage sein würde, das 140.000 Bänder umfassende Vermächtnis der Marion Stokes zu übernehmen, zu digitalisieren und zu indizieren. Es ist ein Mammutprojekt: Allein der Transport der Kassetten zu einem klimaregulierten Lagerraum kostet 12.000 US-Dollar. Wie viele Stunden und Kosten für das systematische Erfassen der Aufnahmen erfordert, vermag niemand abzuschätzen.

Solch eine gewaltige, zudem offenbar lückenlose Sammlung von Nachrichten-Fernsehsendungen ist abseits der TV-Archive wohl einmalig – ihr wahrer Wert ist jedoch schwer zu bemessen. Den einen mag es um Zeitgeschehen und mediale Zeugnisse gehen, den anderem um Nostalgie oder Amüsement, wieder anderen um die Art der Nachrichtenpräsentation und journalistische Arbeitsweisen im Wandel von Zeit und Produktionsmitteln.

Ein doppelter Glücksfall

Es muss ja nicht gleich eine mit medienwissenschaftlicher Systematik erstellte Analyse beim Blick auf Stokes’ Aufzeichnungen herauskommen: Ein von impulsivem Erkenntnisdrang getriebener Blick auf die Nachrichtenvermittlung von gestern gestattet ganz gewiss Erkenntnisse für das Verständnis der Nachrichtenrezeption von heute und der Wertigkeit des Nachrichtenjournalismus von morgen.

So gesehen ist das Vermächtnis der Marion Stokes ein doppelter Glücksfall: Nicht nur, dass ihre bewundernswerte Stoik der internationalen Medienwissenschaft einen vermutlich kaum ermesslichen Fundus bescherte. In den Händen des Internet Archive könnte er zu einer offenen und frei nutzbaren Quelle werden. Bleibt zu hoffen, dass es nicht zu langwierigen, teuren oder gar unüberwindlichen lizenz- und urheberrechtlichen Querelen kommt. Und wenn, dann möge der amerikanische Pragmatismus obsiegen.

Denkt man an hiesige Rechtsstreits um die Mediatheken der öffentlich-rechtlichen Sender, an „Depublikation“ und gesperrte Online-Videos, mag man sich gar nicht vorstellen, wo hier die 140.000 Kassetten landen würden. Vermutlich in der nicht klimagesteuerten Asservatenkammer eines Gerichts, das erst einmal beschlagnahmt und dann irgendwann berät.

Als Marion Stokes’ Sohn Michael Metelites beim Internet Archive in San Francisco das erste Mal sah, dass jemand mit dem Nachlass seiner Mutter wirklich was anfangen konnte, sei das, heißt es im Fast Company-Artikel, für ihn ein sehr bewegender Moment gewesen.

November 26 2013

Lizzy Jongma: Das digitale Publikum ist für Museen wichtig

Lizzy Jongma ist Datenmanagerin am Rijksmuseum in Amsterdam. Sie rät Kultureinrichtungen zur Öffnung digitalisierter Bestände auch für kommerzielle Nutzung, weist der Mediathek Europeana eine wichtige Rolle zu, auch für Open Data, und setzt auf langfristige Effekte, die das digitale Publikum den Museen und Sammlungen bringt.

Anlässlich der Konferenz „Zugang gestalten“* befragt iRights.info die Expertin für die Online-Präsentation von kulturellem Erbe zu den Herausforderungen der Digitalisierung.

iRights.info: Das staatliche Rijksmuseum hat Teile seiner Bestände digitalisiert und zur freien, auch kommerziellen Nutzung bereitgestellt. Welche Hürden mussten dafür genommen werden?

Lizzy JongmaLizzy Jongma: Die erste große Herausforderung betraf uns selbst: Wir mussten uns von unseren gewohnten Denkweisen verabschieden und auch von unseren Geschäftsmodellen, die auf dem Bilderverkauf beruhten. Die zweite Herausforderung waren all die rechtlichen Fragen, die wir zu berücksichtigen hatten. Das heißt, wir mussten buchstäblich alle Gesetze lesen, die für Museen maßgeblich sind, und wir mussten unseren kompletten Bestand durchgehen. Wir können ja nur das copyright-freie Material benutzen. Zurzeit haben wir zahlreiche Debatten mit Entleihern. Sie haben zwar keine rechtliche Handhabe, doch einige wollen keine Kunstwerke mehr ausleihen, wenn wir von diesen hochaufgelöste Bilder online stellen.

iRights.info: Wie reagieren die Politiker, die für Museen zuständig sind?

Lizzy Jongma: Mit den Politikern ist es schwierig. Einerseits loben sie uns für die Öffnung unserer Bestände ins Digitale und preisen unser Vorgehen gerne an. Andererseits ändern sie die Urheberrechtsgesetze nicht. Bei Kunstwerken geht es ohnehin schon sehr streng zu, was die Prüfung der Rechtslage betrifft. Für uns bedeutet die jetzige Situation, dass wir zwar die großen Kunstwerke des goldenen Zeitalters zeigen können, doch unsere Sammlungen des 20. Jahrhunderts bleiben fürs Digitale praktisch gesperrt und damit unsichtbar. Ich befürchte, zukünftige Generationen erfahren niemals etwas über die moderne Kunst des 20. Jahrhunderts, weil sie im Internet nichts dazu finden werden.

iRights.info: Mit der Beteiligung an der digitalen Mediathek Europeana sind Sie auf europäischer Ebene aktiv – wie beurteilen Sie dieses Projekt?

Lizzy Jongma: Europeana hat uns beim Implementieren der öffentlichen Lizenzen (CC Zero) und bei vielen rechtlichen Diskussionen enorm geholfen. Wir wollten unsere Bestände öffnen und sie unterstützten uns bei der Wahl der Lizenzen. Sie berieten uns auch bezüglich der Wahrung unserer Rechte. Zudem nutzt Europeana zahlreiche Bilder von uns für ihre Facebook- und Pinterest-Auftritte und das sorgt für sehr viele Besuche auf unsere Website. Insofern ist die Europeana ein wichtiger Partner für das Rijksmuseum.

iRights.info: Hat die Europeana das Potenzial, noch mehr für Open Access zu leisten?

Lizzy Jongma: Ja, die Europeana hat großes Potenzial, Open Access voranzubringen. Die europäischen Kultureinrichtungen sollten sich ihr mehr zuwenden, denn sie hat großartige Pläne. Die Botschaft der Europeana ist, dass die alten Geschäftsmodelle des Bilderverkaufs im digitalen Zeitalter nicht mehr funktionieren und wir uns öffnen müssen, um von zukünftigen Generationen gesehen zu werden. Doch diese Botschaft muss noch tiefer ins Bewusstsein der Kulturinstitutionen eindringen.

iRights.info: Erfährt die Europeana europaweit genügend Aufmerksamkeit und Unterstützung?

Lizzy Jongma: So betrachtet muss ich sagen: nein. Allerdings kümmern sie sich dort auch um zu viele Projekte gleichzeitig.

iRights.info: In Deutschland erklärten vor kurzem fünf bedeutende Kultureinrichtungen, ihre Sammlungen für Open Access zu öffnen – allerdings erlauben sie kommerzielle Nutzung nur gegen Entgelt. Auf diese Weise wollen sie ihre Aufwände für die Digitalisierung refinanzieren. Was halten Sie davon?

Lizzy Jongma: Damit schließt man sich von Anbietern wie Wikipedia, Facebook, Pinterest, Twitter und so weiter aus. Wir hingegen wollen, dass man unsere Sammlungen auch auf diesen kommerziellen Plattformen sieht und benutzt. Dafür mussten wir auf unser alleiniges Recht zur kommerziellen Nutzung verzichten. So büßen wir zwar Umsatz ein, weil wir die Bilder nicht mehr verkaufen. Doch Einbußen hatten wir zuvor auch schon, durch Piraterie. Wenn man beispielsweise nach Johannes Vermeers’ „Dienstmagd mit Milchkrug“ (Het Melkmeisje) googelt, stößt man auf tausende Webshops, die das Werk auf Leinwand oder in anderer Form anbieten. Doch für uns zählen die langfristigen Effekte. Gerade weil unsere Sammlungen offen zugänglich sind, kommen die Leute von überall auf der Welt, um unser Museum zu besuchen. Und weil wir die digitalisierten Werke frei anbieten, melden sich viele, die uns fördern und bei der Digitalisierung finanziell unterstützen wollen.

iRights.info: Was sind aus Ihrer Sicht die drei dringlichsten nächsten Schritte, um den Zugang zu den digitalen Archiven der Gedächtnisorganisationen zu verbessern und zu erweitern?

Lizzy Jongma: Wir brauchen mehr solche Entwicklungen wie im Rijksmuseum. So können andere Einrichtungen sehen, dass man durch die Freigabe digitaler Sammlungen relevant ist und gewinnen kann. Zudem ist mehr Aufklärung darüber erforderlich, wie wichtig das digitale Publikum für Museen ist. Es gilt, Sammlungen nicht hinter komplizierten Suchwerkzeugen zu verstecken und keine niedrig aufgelösten Bilder auf die Website zu stellen. Die jeweiligen Kultureinrichtungen müssen technisch kompetenter werden, etwa bezüglich der Darstellungsqualitäten digitaler Bilder und der beschreibenden Meta-Informationen über ihre Sammlungen. Auch sollte sich die Zusammenarbeit zwischen Institutionen und Politik verbessern. Wir alle können so viel voneinander lernen, etwa von erfolgreichen Praxisbeispielen. Nicht zuletzt ist mehr Geld für das Digitalisieren notwendig, wobei dieses wiederum Hand in Hand mit den zuvor genannten Entwicklungen gehen muss.

iRights.info: Angenommen, es gibt 2015 und 2020 weitere „Zugang gestalten“-Konferenzen, wo werden wir europaweit Ihrer Meinung nach stehen?

Lizzy Jongma: Das ist sehr schwer zu sagen. In drei Jahren wird die digitale Welt wohl komplett anders aussehen als heute. Es ist zu hoffen, dass noch mehr Einrichtungen offenen und freien Zugang bieten und dass wir dann noch viel mehr über die Qualität der digitalen Sammlungen reden. Denn momentan sind wir zwar alle dabei, unsere Bestände zu öffnen, doch wir denken zu wenig über die Qualität und die Brauchbarkeit der offen zugänglichen Daten nach. Ein großer Teil der verfügbaren Werke ist technisch und visuell unzulänglich und enthält kaum verwertbare Beschreibungsdaten. Darüber hinaus interessiere ich mich sehr für semantische Verknüpfungen. Denn bisher ist das Freigeben eine sehr isolierte Angelegenheit: Man öffnet seine Sammlung und das war’s. Viel interessanter finde ich die zusätzlichen Informationen und die Beziehungen, die sich in den digitalen Räumen herstellen lassen. Ich hoffe also, dass wir schon bald unsere Sammlungen noch besser miteinander vernetzen.

* Die Konferenz „Zugang gestalten. Mehr Verantwortung für das kulturelle Erbe“  findet am 28. und 29. November in Berlin statt. iRights.Lab gehört zu den Veranstaltern. Als eine der zahlreichen Referenten geht Lizzy Jongma näher auf die Open Data-Strategie und die offene Datenbank-Schnittstelle (API) ein, die sie – neben vielen weiteren Projekten und der Website – für das Rijksmuseum in Amsterdam betreut.

November 19 2013

Faire Entscheidung dank Fair Use

Google verletzt nicht die Rechte von Autoren und Verlagen, indem es deren Bücher einscannt und auszugsweise zugänglich macht. Das hat am Donnerstag ein New Yorker Gericht unter Berufung auf die amerikanische Fair Use Doktrin entschieden. Ein Erfolg für die Informationsfreiheit, der jedoch die Durchsetzbarkeit von Urheberrechten bei neuen Verwertungsmodellen in Frage stellt. 

Viele Internetnutzer kennen und lieben Google Books. Dort können sie eine gigantische Datenbank von mittlerweile über 20 Millionen Büchern nach Stichworten durchsuchen, und neben den Angaben zu Buchtitel, Verlag, Autor usw. auch Auszüge aus den gefundenen Werken („Snippets“) lesen. Der Service wird rege genutzt, doch nur wenige, die in dem digitalen Archiv stöbern, wissen, dass das Google Book Project (GBP) Gegenstand eines erbitterten Gerichtsverfahrens ist, das sich bereits über acht Jahre zieht.

Im Jahr 2005 gingen eine Reihe einzelner Autoren und die „Authors Gilde“ in den USA gegen Google vor, weil sie fanden, dass die Nutzung von Büchern im Rahmen des GBP ihre Urheberrechte verletze. Google habe Millionen von Büchern eingescannt, digitale Kopien an Bibliotheken weitergegeben, Bücherinformationen auf seiner Webseite gezeigt, und Textabschnitte zugänglich gemacht. All das sei ohne die Zustimmung der Rechteinhaber erfolgt. Und Google sei auch nicht bereit, Autoren und Verlage für diese Nutzung zu bezahlen.

Zähe Verhandlungen seit 2005

Drei Jahre nach Prozessbeginn schlossen die Parteien einen Vergleich, der unter anderem einen zentralen Rechte-Wahrnehmungsmechanismus vorsah. Damit wollten sie Vergütungsansprüche für Rechteinhaber schaffen, ohne dass Google für jedes einzelne Werk Nutzungsrechte erwerben oder sichern müsste. Da es sich um eine so genannte Sammelklage handelte, hätte sich der vorgeschlagene Vergleich grundsätzlich auch auf Werke ausgewirkt, deren Rechteinhaber mit der Überlassung an Google nicht einverstanden gewesen wären. Solche Rechteinhaber hätten ihre Bücher allerdings im Einzelfall vom Vergleich ausschließen können („Opt-Out“). Trotz dieser Möglichkeit des Opt-Outs war der Vergleich auf vehemente Kritik gestoßen, unter anderem von Seiten europäischer Rechteinhaber, die behaupteten, dass ihre Interessen  nicht angemessen berücksichtigt würden.

Tatsächlich brachte der Vergleich einige rechtliche Probleme mit sich. Insbesondere war fraglich, ob die Sammelklage – und damit der Vergleich – die betroffenen Personenkreise hinreichend eindeutig identifizierte (sogenannte „Class Certification“). Dies bestätigte schließlich der zuständige Richter am Federal District Court for the Southern District of New York nach Vorlage einer modifizierten Vergleichsversion von Ende 2009. Die Entscheidung wurde indes Anfang Juli 2013 vom Berufungsgericht auf Googles Einspruch hin kassiert; dem District Court wurde nun aufgegeben, zunächst zu prüfen, ob Googles Gebrauch der Bücher nicht bereits nach der amerikanischen Fair Use Doktrin gerechtfertigt sei, in welchem Fall das Problem der Class Certification und letztlich die Sammelklage sich ohnehin erledigt hätten.

Das Urteil des District Court: Google haftet nicht für Urheberrechtsverletzung

Vor diesem Hintergrund musste der District Court nun eingehend prüfen, ob die angeblichen Urheberrechtsverletzungen durch die Prinzipien des Fair Use gerechtfertigt sind. Tatsächlich berührt das GBP mehrere zum Urheberrecht gehörende Rechte, namentlich die Rechte zur Vervielfältigung, zur Verbreitung und zur öffentlichen Darstellung („Public Display“). Fair Use stellt eine sogenannte “affirmative defense” dar: Wenn eine Handlung, die die genannten Rechte eigentlich verletzt, als Fair Use angesehen wird, gilt sie als rechtmäßig, und die Inhaber der Rechte an den betroffenen Werken können weder Unterlassung noch einen finanziellen Ausgleich verlangen.

Generell ist Fair Use eine im US-amerikanischen Urheberrechtsgesetz verankerte, offen ausgestaltete Ausnahmeregelung, deren Anwendbarkeit vom Einzelfall abhängt. Ob eine Handlung Fair Use ist, wird mittels einer Abwägung von vier Faktoren beurteilt. Maßstäbe für die Bewertung der Nutzung sind: der Zweck und die Art der Nutzung – wobei es maßgeblich darauf ankommt, ob diese „transformative“ (also umgestaltend) ist -, die Art des geschützten Werkes, das Ausmaß der Nutzung im Vergleich zu dem gesamten Werk, und die Auswirkung der Nutzung auf potenzielle Märkte und Verwertungsmöglichkeiten oder auf den kommerziellen Wert des Werkes.

Zunächst schilderte der District Court ausführlich die Vorteile des GBP für Wissenschaftler, Bibliotheken, Menschen mit Lesebehinderungen und für die Allgemeinheit. Die vier Fair Use-Faktoren würden alle in eine für Google günstige Richtung weisen: Die Nutzung sei „highly transformative“, weil die Indexierung von Bücher und Texten diese für Leser und Wissenschaftler auffindbar gemacht habe. Zudem seien die Bücher durch die Digitalisierung zu elektronisch nutzbaren und nützlichen Quellen für Textanalyse oder Data Mining geworden. Darüber hinaus könne das Anzeigen von Snippets das Lesen des vollständigen Buches nicht ersetzen.

Kommerzielle Motive nicht maßgeblich

Die Tatsache, dass Google profitgetrieben sei, sei im Ergebnis nicht maßgeblich. Fair Use setze eine nicht-kommerzielle Nutzung nicht zwingend voraus. Jedenfalls habe Google die digitalen Scans nicht verkauft, und auf den Google Books-Seiten sei keine Werbung geschaltet. Die Nutzung sei also bloß indirekt kommerziell. Google habe zwar gesamte Bücher eingescannt und verwertet, aber auch dies schließe Fair Use nicht von vornherein aus. Schließlich habe das GBP keine negativen Auswirkungen auf das Verwertungspotenzial geschützter Werke, da bestehende Märkte für Bücher nicht beeinträchtigt würden. Vielmehr habe Google den Verkauf von Büchern sogar gefördert, weil eventuelle Käufer zuweilen erst durch Google Books davon erfahren würden, dass bestimmte Werke überhaupt existieren.

Google hafte auch nicht für die Überlassung von digitalen Kopien an Bibliotheken. Die Bücher seien ohnehin im Besitz der Bibliotheken, und Google habe den Bibliotheken die Scans lediglich zur Verfügung gestellt, damit diese sie zu Zwecken verwenden könnten, die ihrerseits Fair Use darstellten – also zum Beispiel zur elektronischen Indexierung ihrer Bestände. Im Ergebnis hat das Gericht nach Anwendung aller Fair Use-Maßstäbe zu Gunsten von Google entschieden und die Nutzung im Rahmen des GBP ohne Einschränkung als Fair Use anerkannt.

Wie ein roter Faden ziehen sich durch das gesamte Urteil Verweise auf die Vorteile des GBP für die Wissenschaft und die Informationsgesellschaft insgesamt. Der Zweck des Urheberrechts, wie er bereits in der Verfassung der Vereinigten Staaten verankert ist, sei die Förderung des kreativen Schaffens, wovon die Allgemeinheit schließlich profitieren solle. Das Gericht hat das GBP als technologisches Instrument betrachtet, das genau diesem Zweck diene, und daher nicht durch Verbotsrechte gehemmt werden sollte.

Für Google hätte das Verfahren nicht besser ausgehen können. Seit Anfang des Rechtsstreits hatte das Unternehmen mit Nachdruck versucht, gemeinsam mit Rechteinhabern ein Vergütungsmodell zu erarbeiten, wohlwissend, dass die Fair Use-Verteidigung allein möglicherweise nicht ausreichen würde. Nach Scheitern der Vergleichsverhandlungen und mit dem nun ergangenen Urteil hat Google kaum noch Gründe, Autoren für die Nutzung ihrer Werke zu kompensieren.

Technologieentwickler schaffen innovative Nutzungsarten für Werke und damit neue Verwertungsmöglichkeiten. Die Botschaft des District Courts ist klar: Von dem neuen Geldtopf profitieren zunächst diejenigen technologisch kompetenten Unternehmen, die solche Nutzungsarten entwickeln und auf den Markt bringen. Im Fair Use-Jargon sind zum Beispiel Nutzungen wie die Anzeige von Snippets oder verkleinerten Versionen von Bildern (Thumbnails) in den Suchergebnissen einer Suchmaschine hochgradig umgestaltend und deshalb legitim.

Gesetzgeberische Lösung und internationale Kooperation sind erwünscht

Vor diesem Hintergrund ist der Frust der Rechteinhaber nachvollziehbar. Schließlich genießen sie kraft Gesetzes Rechte an den Werken, die Gegenstand all dieser neuen Nutzungsarten sind. In einer Pressemitteilung hat die Autorengilde bereits angekündigt, in Berufung gehen zu wollen. Viel mehr können Autoren und Verlage augenblicklich nicht tun, selbst wenn sie sich in Teilen der Erde befinden, wo es einen Rechtsbegriff wie Fair Use überhaupt nicht gibt.

An den Vorteilen des GBP für Forscher und Leser kann nicht gezweifelt werden. Dessen Potenzial ist aber noch viel größer: Technisch betrachtet kann Google mit einem Knopfdruck diesen ganzen Wissensschatz nicht nur auszugsweise, sondern sogar im Volltext für alle Internetnutzer zugänglich machen. Dies würde allerdings den Rahmen des Fair Use sprengen, weshalb die Vision einer globalen Online-Bibliothek weiterhin utopisch scheint.

Der Weg bis zur Verwirklichung des Gesamtpotenzials der Bücherdigitalisierung ist noch lang. Massengerichtsverfahren und privatrechtliche Vereinbarungen scheinen der falsche Weg zu sein. Vielmehr sollte es eine gesetzgeberische Lösung geben, in der auch den Ansprüchen der Rechteinhaber Rechnung getragen wird. In Anbetracht der grenzübergreifenden Auswirkungen einer solchen Lösung, und hinsichtlich der erwünschten Beteiligung von möglichst zahlreichen Autoren am Projekt, werden dabei eine internationale Zusammenarbeit und wahrscheinlich auch völkerrechtliche Lösungsansätze unentbehrlich sein.

Zohar Efroni ist in New York zugelassener Rechtsanwalt und forscht zu Immaterialgütern und Internetrecht. Er ist Lehrbeauftragter an der juristischen Fakultät der Humboldt Universität in Berlin und an der Dualen Hochschule Baden Württemberg in Stuttgart.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl