Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

January 24 2014

EuGH zur Umgehung von Kopierschutz

Eine neue Entscheidung des EuGH (Urteil vom 23.01.2014, Az.: C?355/12) zur Umgehung von Kopierschutzmaßnahmen hat zum Teil zu einer erstaunlichen Berichterstattung geführt. Heise-Online titelt beispielsweise “Kopierschutz darf geknackt werden“. Das ist angesichts des Inhalts der Entscheidung des EuGH eine durchaus gewagte These.

Der EuGH definiert den Begriff “wirksame technische Maßnahme” zum Schutz von urheberrechtlichen Werken zunächst relativ weit. Eine solche technische Maßnahme liegt nach Ansicht des EuGH auch dann vor, wenn sie nicht an das Werk unmittelbar anknüpft, sondern auch dann, wenn hardwareseitig verhindert wird, dass bestimmte Werke – in diesem Fall Computerspiele – installiert bzw. abgespielt werden können.

Weil das natürlich dazu führt, dass der Anbieter proprietärer Lösungen wie im konkreten Fall Nintendo damit auch beliebig Wettbewerber ausschließen kann, hat der EuGH diesen weiten Ansatz anschließend wieder eingeschränkt. Die Gerichte müssen prüfen, ob nicht andere Vorkehrungen zum Kopierschutz zu geringeren Beeinträchtigungen Dritter (also der Wettbewerber) führen würden. Außerdem müssen die Gerichte prüfen, ob die beanstandeten Werkzeuge tatsächlich primär der Umgehung des Kopierschutzes dienen. Die nationalen Gerichte können dabei insbesondere berücksichtigen, wie oft solche Vorrichtungen zur Verletzung des Urheberrechts verwendet werden bzw. wie oft sie zu Zwecken benutzt werden, die keine Urheberrechte verletzen.

Im Falle von Nintendo stellt sich konkret die Frage, ob die Umgehung des Schutzmechanismus vorwiegend dazu dient, die Benutzung raubkopierter Nintendospiele zu ermöglichen oder vielmehr dazu, andere Anbieter von Spielen oder Software von der Nintendo-Plattform auszuschließen.

Der EuGH hat also keineswegs entschieden, dass Kopierschutz künftig geknackt werden darf, sondern nur, dass das nationale Gericht bei der Auslegung darauf zu achten hat, ob eine Umgehungstechnik wirklich vorwiegend dazu dient, einen urheberrechtlichen Schutzmechanismus zu knacken und auch überwiegend zu diesem Zweck benutzt wird.

Oder anders formuliert: Kopierschutzmaßnahmen müssen primär dem Schutz von Urheberrechten dienen und dürfen nicht vorwiegend den Ausschluss von Wettbewerbern oder eine Marktabschottung bezwecken.

October 10 2013

W3C-Direktor Berners-Lee verteidigt Kopierschutz für Webstandard HTML5

Soll HTML als Standard des offenen Web Kopierschutz unterstützen? Schon seit einiger Zeit wird darüber nicht nur in den Kreisen des Web-Gremiums W3C erbittert diskutiert. Genau genommen geht es um „Encrypted Media Extensions” – Schnittstellen, über die kopiergeschützte Inhalte auch direkt im Browser abspielbar werden sollen. Netflix, Microsoft und Google haben dazu einen Entwurf vorgelegt.

Nun hat sich Web-Erfinder und W3C-Direktor Tim Berners-Lee erneut zu Wort gemeldet und das Vorhaben gegen Kritik („Hollyweb”) verteidigt. Nach den Designprinzipien von HTML hätten die Nutzer zwar Vorrang – es sei aber besser, wenn die Diskussion über DRM im W3C statt außerhalb stattfinde. Denn verhindern werde man Kopierschutz für Video-Inhalte mit einer Verweigerung nicht, so Berners-Lee. Man könne aber die Folgen für’s offene Web mildern:

if content protection of some kind has to be used for videos, it is better for it to be discussed in the open at W3C, better for everyone to use an interoperable open standard as much as possible, and better for it to be framed in a browser which can be open source, and available on a general purpose computer rather than a special purpose box.

Die Kritik war Anfang Oktober wieder lauter geworden, als das W3C in einer neuen Charta schließlich festschrieb, dass HTML-Unterstützung für geschützte Inhalte zu seinem Aufgabenfeld gehört. Die Electronic Frontier Foundation sprach von einem „gefährlichen Schritt” und einer Machtverschiebung vom Nutzer zum Inhalteanbieter:

We’re deeply disappointed. (…) That breaks a—perhaps until now unspoken—assurance about who has the final say in your Web experience, and indeed who has ultimate control over your computing device.

Deutlich wird allerdings, dass die Entscheidung auch für Berners-Lee nicht nur eine über die Rolle des W3C ist, sondern strategisch begründet wird: Ohne Beteiligung des W3C würde der Kampf um Kopierschutz von vornherein auf fremdem Terrain stattfinden, entsprechend schlechter wären die Ausgangsbedingungen.

Im gleichen Posting ruft Berners-Lee nun zu mehr Beteiligung am Prozess auf. Doch im Gegenzug muss sich die HTML5-Arbeitsgruppe jetzt an der Quadratur des Kreises versuchen: Offen und geschlossen, WWW und DRM soll sie in Einklang bringen.

September 25 2013

Was Archive, Museen und Bibliotheken von Gamern lernen können – und umgekehrt

Spielefans auf der ganzen Welt haben freiwillig und außerhalb der traditionellen Gedächtnisorganisationen eigene Ansätze entwickelt, um Games zu bewahren. Für Museen, Archiven und Bibliotheken wird dieses Wissen jetzt relevant. Doch braucht auch die Spielecommunity die Zusammenarbeit mit Institutionen, um Games als digitales Kulturgut zu bewahren.

Games sind die ersten digital geborenen Kulturgüter, die massenhaft und global produziert wurden. Wissen und Praktiken, die sich in der Games-Kultur herausgebildet haben, sind auch darüber hinaus für die Bewahrung digitaler Kulturgüter relevant. Als komplexe digitale Artefakte stellen Computerspiele höchste Anforderungen an Archivare, sodass ich die These aufstelle: Wenn es uns gelingt, Computerspiele zu bewahren, können wir alles Digitale bewahren, da alle digitalen Werke die gleiche technische Grundlage besitzen.

Digitale Werke wie Games sind von der Kombination aus Betriebssystem und Hardware in hohem Maße abhängig. Ohne deren Hilfe wären wir nicht in der Lage, den Nullen und Einsen im Bitstrom einen Sinn zu geben. Weil diese Nullen und Einsen nur eine begrenzte Lebensdauer haben, ist es eine der wichtigsten Aufgaben, sie unabhängig von der ursprünglichen physischen Systemplattform zu bewahren. Dies leisten im Kern Emulatoren, indem sie die ursprüngliche physische Hardware auf anderen Systemen imitieren und durch Virtualisierung auch dann noch anwendbar halten, wenn kein funktionsfähiger Computer eines bestimmten Systems mehr existiert.

Die Strategie der Migration – der Umarbeitung der Software auf ein neues System – ist im Bereich komplexer digitaler Artefakte nicht praktikabel. Zwar dient auch Migration dazu, ein Werk vom Ursprungssystem unabhängig zu machen, indem es so verändert wird, dass es auf aktuellen Systemen zugänglich ist. Allerdings ist diese Methode lediglich bei technisch einfachen Inhalten wie Texten oder Grafiken praktikabel, da der Migrationsaufwand mit zunehmender Komplexität der Werke steigt. Auch muss die Migration stets neu durchgeführt werden, wenn sich die aktuelle Systemplattform ändert. Da bei der Emulation jedoch das Werk selbst unverändert bleibt und die ständige Anpassung der Werke an neue Plattformen wegfällt, bietet sie unbestreitbare Vorteile für die Langzeitbewahrung. Die Komplexität der Computerspiele als interaktive, zeit-, bild- und tonkritische Anwendungen macht ihre Bewahrung zur Nagelprobe für das Gelingen digitaler Bewahrung.

Die Anfänge der digitalen Bewahrung

Es ist keine Besonderheit der Games-Kultur, dass die erste Initiative zur Bewahrung von Kulturgütern von den Fans ausging: So wie die Cinémathèque in Paris als eines der ersten Archive für die noch junge Filmkultur 1935 von Filmenthusiasten um Henri Langlois gegründet wurde, waren es auch die Fans früher Computerspiele, die den kulturellen Wert der Spiele erkannten und erste Ansätze entwickelten, um diese Kultur zu bewahren.

Gaming-Fans waren allerdings die ersten Liebhaber, die sich an diese Aufgabe unter den Bedingungen des Internets machten. Mehr noch: Sie gehörten zu den ersten Internet-Communitys überhaupt, die das World Wide Web Mitte der 1990er Jahre mit ihrem Hobby besetzten und damit begannen, die Geschichte ihres geliebten Kulturguts kollaborativ aufzuschreiben. Als Anfangspunkt dieser Bewegung lässt sich der 7. Dezember 1992 festhalten: Mit alt.games.video.classic wurde die erste Newsgroup gegründet, die sich dem Austausch von Nachrichten und Diskussionen ausschließlich über klassische Videospiele widmete.

Diese erste Phase lässt sich mit einer mündlichen Geschichtsüberlieferung vergleichen: Vieles wurde eher dem Hörensagen nach festgehalten – Dinge, die man auf anderen Seiten gelesen hatte, wurden zusammenkopiert oder verlinkt. Genauigkeit wurde zwar angestrebt, systematisch und wissenschaftlich fundiert waren die Aktivitäten aber nicht. Dennoch: Parallel zu dieser ersten Geschichtsschreibung entstanden bereits umfangreiche Archive und Metadatensammlungen, die ebenfalls von Fans zusammengetragen wurden. Dazu gehören etwa die Projekte Home of the Underdogs und mobygames.com.

Bewahrung im Wettlauf mit der Technik

Bedingt durch die schnelle technische Entwicklung der Abspielplattformen sind Spiele schon nach kurzer Zeit obsolet und nur noch mit Glück gebraucht zu bekommen. Insofern waren die Fans der alten Spiele darauf angewiesen, eigene Bewahrungsansätze zu realisieren. Zwei Aspekte dieses Prozesses verdienen es, hervorgehoben zu werden:

Erstens handelte es sich bei diesen Fan-Communitys von Anfang an um globale Communitys. Dies nicht nur in Bezug auf die technische Kommunikationsgrundlage Internet, die keine nationalen Grenzen kannte. Die globale Ausdehnung der Fangemeinschaft war dem globalen Charakter der Games selbst geschuldet, die von Anfang an für einen möglichst weltweiten Markt produziert und verkauft wurden. Wie sich dieser Unterschied auf die zukünftigen organisatorischen Strukturen der Computerspielebewahrung auswirken wird, muss sich noch zeigen, sind doch Bewahrungsinitiativen traditionell oft in einen nationalen Kontext eingebunden.

Zweitens war es die Community der Gamer selbst, die als Erste praktikable Lösungen entwickelt hat, um diese zu bewahren. Über das Internet bildeten sich offene, kollaborative, globale und üblicherweise nicht-kommerzielle Projekte, die heute auch von etablierten Gedächtnisorganisationen zur Kenntnis genommen werden. Für die Community lag es aufgrund der Komplexität der digitalen Spiele nahe, die Spiele nicht einzeln auf neue Plattformen zu adaptieren, sondern die obsoleten Plattformen selbst in Form von Emulatoren zu bewahren. Die Retro-Gamer waren insofern die ersten Anwender, die das bereits bekannte Modell Emulator nicht als Programmierumgebung für neue Hardware einsetzten, sondern als Werkzeug der Bewahrung.

Emulatoren bilden alte Plattformen auf neueren nach. Hier zu sehen ein Gameboy-Emulator auf einem Taschenrechner der Firma Texas Instruments.

Seitdem sind Millionen von Stunden an hochspezialisiertem Wissen in die Entwicklung der Emulatoren eingeflossen, die unter institutionellen Rahmenbedingungen womöglich hunderte Millionen gekostet hätten. Eines der ältesten und bis heute wichtigsten Emulatorenprojekte ist M.A.M.E., der Multiple Arcade Machine Emulator. Seinen Ursprung hat er in der Emulation historischer Spieleautomaten. Seit der Gründung 1996 sind mindestens 7304 Spieleautomaten (ROM sets) und 3910 einzelne Games für den Emulator adaptiert worden.

M.A.M.E wird auch heute noch weiterentwickelt, doch die letzten Zahlen über emulierte Automatenhardware stammen aus dem Jahr 2008. Auf das Projekt setzen weitere Entwicklungen auf, darunter MESS (Multi Emulator Super System), das seit 1998 entwickelt wird und 632 unterschiedliche Systeme emuliert, von denen das älteste aus dem Jahr 1948 stammt. M.A.M.E. war von Anfang an ein offenes, nicht-kommerzielles Projekt, das ausschließlich von der Community getragen wurde.

Probleme der digitalen Bewahrung: bitrot und Kopierschutz

Unabhängig von der jeweils eingeschlagenen Bewahrungsstrategie ist die Frage relevant, wie lange ein Medium Informationen speichern kann. Der je nach Speichermedium einsetzende Datenverlust wird bitrot genannt. Für das Computerspielemuseum bedeutet dies einen regelmäßigen Verlust an Bits – speziell bei den magnetischen Datenträgern wie Compact Cassetten, Floppy-Discs oder Disketten, auf denen viele der mehr als 20.000 Spiele seiner Sammlung gespeichert sind.

Eine Stichprobe bei Spielen für den C64-Computer ergab, dass bereits ca. zehn Prozent aller Spiele aufgrund nachlassender magnetischer Ladung so weit verrottet sind, dass sie nicht mehr gespielt werden können. Um digitale Sammlungen vor dem Verschwinden zu retten, müssen die Werke von ihren originalen auf stabilere Datenträger überführt werden. Erst mit dem virtuellen Abbild des Werkes, dem Datenträger-Image, kann das Werk von einem Emulator verarbeitet werden.

Da Computerspiele wie viele andere digitale Werke jedoch mit Kopierschutz (DRM) ausgestattet sind, der genau diesen Transfer verhindern soll, sind wir bei diesem Prozess mit weiteren technischen und rechtlichen Herausforderungen konfrontiert. Rein technisch stehen uns zwei alternative Strategien zur Verfügung:

Erstens können die DRM-Maßnahmen gewaltsam außer Funktion gesetzt werden, gemeinhin auch als Cracken bezeichnet. Da dabei der Programmcode des Werkes verändert wird, ist diese Methode – unabhängig von der rechtlichen Problematik – keine befriedigende Option.

Zweitens kann der Kopierschutzmechanismus intakt gelassen werden und wird einfach mitkopiert. In Anbetracht hunderter verschiedener DRM-Mechanismen stellt dieser Ansatz eine immense technische Herausforderung dar, die nur von wenigen Werkzeugen wenigstens teilweise beherrscht wird, etwa dem Kryoflux Controller.

Rechtliche Hürden bei Games

Unabhängig von der Transfermethode sind rechtliche Fragen zu bedenken: Zwar gestattet uns das Urheberrecht in Deutschland, eine Sicherungskopie anzufertigen, doch dürfen wir technische Schutzmaßnahmen dabei nicht umgehen. Das Gesetz bietet nur den Ausweg, die Rechteinhaber um Erlaubnis zu fragen. Im Bereich der Computerspiele bleibt das größtenteils nur eine theoretische Option. Wir haben es mit einem großen Anteil an verwaisten Werken zu tun, bei denen es entweder nicht möglich ist, den Rechteinhaber herauszufinden, oder die Rechteinhaber selbst gar nicht wissen, welche Rechte sie tatsächlich besitzen. Zentrale Register, über die man Auskunft einholen könnte, haben sich im jungen Games-Markt noch nicht gebildet. Viele Firmen sind nach kurzer Lebensdauer wieder vom Markt verschwunden, die von ihnen gehaltenen Rechte wurden aufgesplittet und weiterverkauft.

Erschwerend kommt hinzu, dass Games ihrer komplexen Natur gemäß aus Werkteilen unterschiedlicher Rechteherkunft bestehen. Es ist üblich, dass man es bei einem Spiel mit einer Vielzahl an Rechteinhabern zu tun hat. Die zweite Möglichkeit, zu warten, bis das Urheberrecht abgelaufen ist, ist bei der gegenwärtigen Frist von 70 Jahren keine Lösung, da sich nach diesem Zeitraum kein funktionierendes Werk mehr auf einem alten Datenträger befinden würde.

Probleme und Grenzen der Emulatorenstrategie

Jedes Werk, auch das digitale, benötigt Schnittstellen, über das es von Menschen wahrgenommen und im Fall von interaktiven Werken gesteuert werden kann. Diese Ein- und Ausgabeschnittstellen sind kein Bestandteil des Codes an sich, sondern sind seine Peripherie. Ein klassischer Videospieleautomat wie etwa Tempest (Atari 1980) besitzt einen Trackball als Eingabe- und einen Vektormonitor als Ausgabeschnittstelle. Führt man den originalen Programmcode über einen Emulator auf einem aktuellen Desktoprechner aus, fehlen beide historische Schnittstellen. Da beide jedoch wesentlich zum originalen Spielerlebnis beitragen, muss diese „historische Aufführungspraxis“ bedacht werden. Eine vom Computerspielemuseum praktizierte Lösung für historische Videospieleautomaten besteht darin, einen aktuellen Computer mitsamt Emulator in die alten Gehäuse mit den originalen Schnittstellen einzubauen, sodass das Look-and-feel des ursprünglichen Werkes weitgehend beibehalten wird.

tempest

Das Arcade-Spiel „Tempest” im Original. Foto: Rob DiCaterino, CC BY.

Ein weiteres Problem besteht in der Notwendigkeit, die Emulatoren selbst immer wieder an die aktuellen Plattformen anzupassen. Immer, wenn ein neues Betriebssystem oder eine neue Hardwarearchitektur etabliert wird, müssen auch die Emulatoren auf diese angepasst werden, was aufwändige Neuprogrammierungen notwendig machen kann. Bisher haben die Programmierer von Emulatoren freiwillig und ohne Budget solche Portierungen – etwa von DOS auf Windows 95, von Windows 95 auf Windows XP – vorgenommen. Sie haben eine mehr oder weniger persönliche Beziehung zu den Spielen und Originalplattformen, jedoch können wir nicht davon ausgehen, dass die immer wieder notwendig werdenden Anpassungen auch mittel- bis langfristig auf diese Weise geleistet werden können.

Abhilfe könnten virtuelle Maschinen bringen, die speziell zu Bewahrungszwecken geschaffen werden. Bereits im Jahr 2000 hat Jeff Rothenberg eine solche Schnittstelle für Emulatoren vorgeschlagen (PDF). Sie würde die notwendigen Anpassungsprozesse auf ein Minimum reduzieren. Seine Idee einer Emulation Virtual Machine (EVM) führt eine Zwischenebene ein: eine Schnittstelle, die als virtuelle Maschine zwischen dem aktuellen Betriebssystem und den Emulatoren implementiert wird und auf die die Emulatoren einmalig portiert werden müssen.

Der Vorteil besteht darin, dass bei einem Wechsel der aktuellen Kombination aus Hardware und Betriebssystem lediglich die virtuelle Maschine an das neue System angepasst werden muss, nicht der jeweilige Emulator. Da wir es mittlerweile mit dutzenden von obsoleten Hardwareplattformen und mindestens ebenso vielen verschiedenen Emulatoren zu tun haben, ist der Nutzen leicht erkennbar. Ohne sie müssten alle Emulatoren einzeln angepasst werden, sobald das aktuelle Computersystem wechselt. Allerdings stellt die Programmierung einer solchen virtuellen Maschine technisch eine so große Herausforderung dar, dass mit einsatzfähigen Lösungen zumindest zeitnah nicht zu rechnen ist.

Gaming-Community und traditionelle Gedächtnisorganisationen

Während die Gamer-Community von Anfang an auf Emulation statt auf Migration setzte, erwies sich die Migration für traditionelle Gedächtnisorganisationen zunächst als eine praktikable Methode. Doch wurden einerseits die zu bewahrenden Artefakte immer komplexer, andererseits wuchs mit jedem abermaligen Migrationsschritt die Bereitschaft, sich alternativen Methoden wie der Emulation zu öffnen.

Das EU-Forschungsprojekt KEEP (Keeping Emulation Environments Portable) steht für diesen Wendepunkt, zusammen mit einer Reihe weiterer Initiativen – wie dem EU-Projekt PLANETS und der Open Planets Foundation, auf nationaler Ebene mit dem baden-württembergischen Langzeitarchivierungsprojekt bwFLA. Alle diese Initiativen und Projekte greifen Werkzeuge und Ansätze auf, die in der Retro-Gamer-Community entstanden sind, und passen sie institutionellen Bedürfnissen an. Etwa beim Emulation Framework, das im Rahmen von KEEP entstanden ist. Es bietet die Möglichkeit, existierende Emulatoren mit bestehenden digitalen Sammlungen zu verbinden. Der Archivar muss sich hier nicht mehr mit den verschiedenen Einstellmöglichkeiten der unterschiedlichen Emulatoren auseinandersetzen, sondern findet die einheitliche Benutzeroberfläche eines Archivsystems vor.

Im Ergebnis all dieser Tendenzen erleben wir, wie sich die Verantwortung, das digitale Spieleerbe zu bewahren, von den Fans hin zum institutionellen Sektor verlagert. Auch wenn damit ein höherer materieller Ressourceneinsatz einhergeht, ist es ein notwendiger und folgerichtiger Schritt. Die Motivation der bisherigen Emulatoren-Programmierer und ihr emotionaler Bezug zu den Spielen und Plattformen werden zukünftigen Generation wohl fehlen. Einzelne Personen können nicht ersetzen, was Institutionen für die Bewahrung des Spieleerbes leisten können. Es ist dennoch bemerkenswert, wie viele Ressourcen bereits in Werkzeuge geflossen sind, die jetzt übergeben, weitergenutzt und -entwickelt werden, ohne dass dafür öffentliche Mittel geflossen sind.

Das Gaming-Museum der Zukunft

Um großangelegte Archivsysteme auf Emulatorenbasis technisch zu realisieren, sind heute alle benötigten Komponenten verfügbar. Kombiniert man diese mit den ebenfalls existierenden Streamingtechnologien, ergibt sich daraus ein Bild, wie zukünftige Archive eingerichtet sein können, die den Zugang zu ihren Sammlungen über das Internet organisieren. In diesem Zusammenhang sind Emulatoren nicht nur notwendiger Bestandteil einer Bewahrungsstrategie, sondern eröffnen auch breite Möglichkeiten des Zugangs.

Sicher trifft das hier Gesagte vor allem auf diejenigen digitalen Werke zu, die auf physikalischen Datenträgern vorliegen. Heute tritt der internetbasierte Zugang zu digitalen Werken als Service zunehmend an die Stelle des auf Speicherkarten, DVDs oder anderen Datenträgern angebotenen Werkexemplars. Hier sind Spiele ebenfalls Vorreiter der Entwicklung, die auch ihre Bewahrung vor neue Herausforderungen stellt. Für diese Spiele müssen nicht nur lokale Systeme, sondern ganze Serverstrukturen inklusive ihrer Online-Bezahlsysteme mit Hilfe von Emulatoren bewahrt werden. Prinzipiell ist das kein anderer Ansatz, doch kann etwa die soziale Interaktion – die für viele dieser Services wesentlich ist – nicht mit Hilfe von Emulation abgebildet werden. Hier wird man die digitale Bewahrung mit den traditionellen Mitteln und Fähigkeiten der Archivare ergänzen und Dokumentationen parallel zur Codebasis des Werkes erstellen müssen.

Akuter Handlungsbedarf besteht vor allem im juristischen Bereich. Solange die Rechtslage keinen praktikablen Transfer der Werke auf stabilere Datenträger zulässt, wird es nicht möglich sein, die Bewahrungsaktivitäten der Community auf eine tragfähige institutionelle Basis zu stellen. In Anbetracht der sich aufgrund von bitrot auflösenden Spielesammlungen ist schnelles Handeln gefordert. Ein möglicher Weg könnte eine neue Regelung im Urheberrecht sein, die es Archiven erlaubt, Kopierschutzmechanismen zu umgehen. In den USA wurde dies mit einer Ergänzung des Digital Millennium Copyright Act bereits 2003 vollzogen.

Mehr Einsatz für Games als Kulturgut nötig

Ein Bewusstsein des Gesetzgebers, dass Games ebenso wie Bücher, Musikstücke und Filme digitale Werke darstellen und zum kulturellen Erbe gehören, ist jedoch noch kaum ausgeprägt. Dies zeigte sich auch bei der europäischen Richtlinie zu verwaisten Werken, die eine Möglichkeit geboten hätte, eine entsprechende Regelung zu verankern. Hier bleibt nur, langwierige Erklärungs- und Überzeugungsarbeit zu leisten. Europäische Einrichtungen haben erst kürzlich mit EFGAMP, der European Federation of Game Archives, Museums and Preservation Projects, einen eigenen Verband gegründet. Neben Lobbyarbeit und der Verbreitung von Wissen soll er auch Bewahrungs- und Beschreibungsstandards etablieren. Im Initiatorenkreis sind Organisationen aus der Gaming-Community ebenso vertreten wie klassische Gedächtniseinrichtungen, etwa die Dänische Nationalbibliothek und das Nationale Medienmuseum Englands.

Mit dieser Herangehensweise lassen sich die Qualitäten und Möglichkeiten beider Bereiche kombinieren. Neben den in der Retro-Gamer-Community entwickelten Werkzeugen können Nutzer zum Beispiel bei der Beschreibung von Werken wichtige Aufgaben übernehmen. In keinem anderen kulturellen Bereich sind die Möglichkeiten, große Metadatensammlungen mit Hilfe der Nutzer zu erzeugen, so erfolgreich erprobt worden wie bei Computerspielen. Mit den Jahren sind große und umfangreiche Sammlungen entstanden, die permanent von den Nutzern erweitert werden, ohne dass große Mittel zur Verfügung standen. Ein gutes Beispiel ist mobygames.com, dessen Inhalte ausschließlich von Nutzern erstellt wurden und das im Juli 2013 über detaillierte Beschreibungen von 73 844 Spielen auf über 138 verschiedenen Plattformen verfügt. Der Computerspiele-Leihservice Gamefly erkannte den Wert solcher Sammlungen und kaufte die Plattform 2010 auf.

All das zeigt, welche Chancen in der Kooperation und dem Zusammenwachsen der Retro-Gamer-Community mit den traditionellen Gedächtnisorganisationen liegen – auch für die Bewahrung digitaler Kulturgüter jenseits des Spielebereichs. Die neuen Möglichkeiten, den Zugang dauerhaft und niederschwellig zu organisieren, übertreffen die Schwierigkeiten, denen wir hier gegenüberstehen, bei weitem.

Dieser Artikel ist zuerst im Buch „Was bleibt? Nachhaltigkeit der Kultur in der digitalen Welt” erschienen. Der von Paul Klimpel und Jürgen Keiper herausgegebene Band ist heute bei iRights.Media als Print, E-Book sowie frei im Netz erschienen.

Zur Person

A_LangeAndreasAndreas Lange ist Direktor des Computer­spiele­museums in Berlin, das er seit 1996 aufgebaut hat. Er war Projektleiter des Computer­spiele­museums für das europäische Forschungsprojekt KEEP und ist Sprecher der AG Emulation des Langzeitarchivierungs-Netzwerks Nestor und Sprecher von EFGAMP. Sein Studium der Religions- und Theaterwissenschaft schloss er mit der Abschlussarbeit „Die Geschichten der Computerspiele betrachtet unter mythentheoretischen Gesichtspunkten“ ab. Foto: Joerg Metzner.

September 08 2013

August 23 2013

Livre numérique : l'offre disponible en France - Aldus - depuis 2006

Livre numérique : l’offre disponible en France - Aldus - depuis 2006
http://aldus2006.typepad.fr/mon_weblog/2013/08/livre-numérique-loffre-disponible-en-france.html

Avant la rentrée de septembre, c’est le moment de faire un petit point sur l’offre numérique disponible en France. Ces statistiques ont été établies à partir du site LesLibraires.fr au 20 août 2013, avec un total recencé de 90871 titres. C’est bien entendu le secteur de la littérature générale qui est le plus représenté avec plus de la moitié de l’offre. Plus de la moitié également au format ePub. Côté prix, 54% de l’offre en deça des 10€ ; côté #DRM près des 2/3 de l’offre complète reste verrouillée. Pour ces deux derniers aspects, on est encore malheureusement très loin des attentes des consommateurs.

#ebook

June 28 2013

June 13 2013

Kopierschutz: Forscher wollen E-Books individualisieren

Screenshot: SiDiM-Evaluationsbogen

Screenshot: SiDiM-Evaluationsbogen

Die Innovation in der Buchbranche kennt keine Grenzen, jedenfalls beim Erfinden von Kopierschutz-Technologien. Forscher des Fraunhofer-Instituts und der TU Darmstadt haben einen neuen, psychologischen Kopierschutz für E-Books ersonnen: Nicht die Datei, die Inhalte selbst sollen in homöopathischen Dosen verändert und damit individualisiert werden – in einem Exemplar eines Buchs würde es zum Beispiel „unsichtbar” heißen, in einem weiteren „nicht sichtbar”.

So zumindest die wohl ernsthafte Idee des Projekts SiDiM, das unter anderen vom Forschungsministerium und dem Börsenverein unterstützt wird. Johannes Haupt bei lesen.net:

SiDiM ist als Entwicklung zunächst einmal kein Kurzwechsel in Sachen “hartes DRM”. Der Börsenverein beziehungsweise dessen Wirtschaftstochter MVB predigt schon seit Jahren den Verzicht auf harten Kopierschutz. Das Akezptanz-Problem liegt nicht bei Verband oder Händlern, sondern bei den Verlagen und (glaubt man Verlagsmenschen: vor allem) bei den Autoren, die teilweise ausdrücklich auf einem harten Kopierschutz bestehen sollen. Ob man diese Gruppe mit einer semantischen Veränderung ihrer Texte gewogen stimmen kann, muss doch sehr bezweifelt werden.

Stefan Holzhauer kommentiert bei Phantanews:

Meine Mei­nung: geht über­haupt nicht! Man kann al­ler­dings an die­sem »Was­ser­zei­chen« wie­der ein­mal er­ken­nen, wel­chen Re­spekt die Pu­bli­kums­ver­lage vor dem Werk der Au­to­ren und der Leis­tung der Lek­to­ren ha­ben: gar keinen.

Ob das Projekt tatsächlich umgesetzt wird, ist aber offen; im Moment läuft erst einmal eine brancheninterne Umfrage.

May 31 2013

Leser sind eingeschlossen in E-Book-Ökosystemen

Wenn es Amazon oder Apple wollten, könnten E-Books zwischen Plattformen wie Kindle und iBooks austauschbar sein. Doch die Firmen verhindern das und schaden damit der europäischen Buchkultur. Zu diesen Ergebnissen kommt eine Studie der Europäischen und Internationalen Buchhändlervereinigung. iRights.info sprach mit den Autoren.

blaesi_rothlauf_3

Christoph Bläsi (l.) und Franz Rothlauf: „Der Nutzer sollte darauf achten, möglichst offene Endgeräte zu kaufen, und nicht solche, die für eine bestimmte Plattform geschlossen sind.“ Foto: Matthias Spielkamp

iRights.info: Herr Bläsi, Herr Rothlauf, Sie haben im Auftrag der Europäischen und Internationalen Buchhändlervereinigung (EIBF) in einer Studie untersucht, wie es um die Interoperabilität bei E-Books bestellt ist. Was ist mit Interoperabilität gemeint?

Christoph Bläsi: Vollständige Interoperabilität wäre erreicht, wenn man eine Buchdatei von einer Plattform, also etwa Amazons Kindle, nehmen könnte und mit allen Funktionalitäten in einem anderen System, zum Beispiel Apples iBooks, damit weiterarbeiten könnte. Mit Funktionalitäten ist alles gemeint, was sich um diese Datei herum rankt, zum Beispiel Metadaten, Kommentare, „social reading“-Spuren, Anmerkungen, Heraushebungen.

iRights.info: Und im Moment sind die E-Book-Formate nicht kompatibel?

Christoph Bläsi: Jedenfalls nicht vollständig. Man kann zum Beispiel auf einem iPhone von Apple eine Kindle-App haben, mit der man Amazon-Bücher kaufen und lesen kann. Aber diese Bücher sind dann woanders als die Bücher, die man bei Apple gekauft hat. Man kann sie nicht miteinander in Verbindung bringen, nicht in einer Liste sehen und so weiter.

iRights.info: Welche Formate gibt es derzeit und wie passen sie zusammen?

Christoph Bläsi: Es gibt einen Vorschlag für ein Standardformat, das heißt Epub3. Dann gibt es das Format KF8 von Amazon, und zwei Formate von Apple. Die sind zueinander nicht kompatibel. Eines der Apple-Formate ist mit Epub3 relativ gut kompatibel, und innerhalb der Apple-Welt kann man Epub3-Formate auch lesen. Man kann aber trotzdem nicht sagen, dass Apple ein offenes System ist; die Firma schützt ihre Dinge dann anders.

iRights.info: Warum machen die Hersteller das überhaupt – Formate anbieten, die miteinander nicht kompatibel sind –, statt einfach ein Standardformat zu nutzen?

Christoph Bläsi: Das hat mit dem Geschäftsmodell der Unternehmen zu tun. Denen geht es darum, voneinander abgeschlossene so genannte Ökosysteme für Inhalte aufzubauen. Das sind um ein E-Book oder ein bestimmtes Produkt herum aufgebaute Welten, in denen sich der Nutzer bewegt. Und sie sind aus Sicht des Unternehmens am sinnvollsten so aufgebaut, dass der Nutzer auf dieser Plattform bleibt, dort einkauft, dort Nutzungsspuren hinterlässt. Nicht kompatible Datenformate sind ein effektives Instrument, solche Ökosysteme aufzubauen.

iRights.info: Wäre denn Epub3 in seiner Funktionalität mit den anderen Formaten gleichwertig?

Christoph Bläsi: Das ist ein wichtiger Punkt, denn Apple und Amazon könnten ja behaupten, Interoperabilität ist nicht möglich, weil ihre eigenen Formate Funktionen erlauben, die mit Epub3 nicht möglich sind. Zum Beispiel Ausschnitte zu vergrößern oder eine Vorlesefunktionen. Wir haben herausgefunden, dass das nicht der Fall ist. Das ist ein ganz essentieller Teil unserer Studie. Alles, was man sich für so genannte „enhanced E-Books“, also E-Books mit erweiterten Funktionen, wünschen kann, ist mit Epub3 möglich. Es ist sogar so, dass Epub3 Eigenschaften möglich macht, die sonst mit keinem anderen Format möglich sind. Die Verbände von Verlagen und Buchhändlern hätten hier also die Möglichkeit, Amazon und Apple argumentativ den Rückweg zu versperren.

iRights.info: In Ihrer Studie sind Sie auch zu dem Schluss gekommen, dass der Mangel an Interoperabilität eine Gefahr darstellt für die Vielfalt der Buchkultur in Europa. Wie kommen Sie zu dem Ergebnis?

Christoph Bläsi: Die Menge aller angebotenen Bücher ist bei den verschiedenen Shops in den verschiedenen Welten nicht identisch. Die haben zwar eine große Überschneidung – die Bestseller gibt es überall –, aber wenn ich mich einmal für eine Plattform entschieden habe, und ich will ein Buch kaufen, das nicht gerade ein Bestseller ist, kann es sein, dass es diesen Titel in dem Ökosystem, in dem ich mich bewege, nicht gibt, sondern nur in einem anderen. Da ich die Bücher von dort aber nicht lesen kann, ist mir zwar nicht endgültig der Zugang zu diesem Buch verwehrt, aber mir ist eine extreme Hürde errichtet worden.

iRights.info: Sie haben in der Studie auch festgestellt, dass Interoperabilität aber möglich wäre.

Franz Rothlauf: Ja, auf der Formatebene ist das relativ leicht, denn die Formate lassen sich leicht ineinander umwandeln. Aber eine der Haupterkenntnisse der Studie war, dass dies für echte Interoperabilität nicht ausreicht. Interoperabilität in dem Sinne, dass der Nutzer Wahlfreiheit hat, welche Bücher er mit welchen Lesegeräten lesen möchte, die erreichen Sie nur dann, wenn die vorher beschriebenen Ökosysteme kompatibel sind.

iRights.info: Warum ist das so schwierig?

Franz Rothlauf: Weil es eben oft dem Geschäftsmodell der Unternehmen widerspricht. Die sind daran interessiert, den Nutzer an diese eine Plattform zu binden. Und es gibt noch eine Schwierigkeit: Wenn Sie ein Buch bei Anbieter A gekauft haben, dann kommt das mit bestimmten Rechten und Restriktionen, die durch eine digitale Rechteverwaltung gesichert sind. Zum Beispiel dürfen Sie das Buch nur zwanzig Mal anschauen. Wenn Sie dieses Buch in ein anderes Ökosystem B übertragen, muss der Anbieter dieses Ökosystems dann eigentlich diese Rechte und Restriktionen garantieren, die Ihnen von B auferlegt oder gewährt wurden. Sie müssen also die Rechte, die Sie an dem Buch haben, übertragen können vom einen zum anderen. Das ist zwar technisch möglich, aber ich muss es als Anbieter auch wollen.

iRights.info: Wer könnte Ihrer Ansicht nach auf welche Weise dafür sorgen, dass Interoperabilität Wirklichkeit wird?

Franz Rothlauf: Der Nutzer sollte darauf achten, möglichst offene Endgeräte zu kaufen, und nicht solche, die für eine bestimmte Plattform geschlossen sind. Das gilt vor allem auch für Anschaffungen durch öffentliche Einrichtungen, Regierungen zum Beispiel. Den großen Playern auf dem Markt, also hauptsächlich Amazon und Apple, würden wir nahelegen, dass sie ihre Systeme öffnen.

Und als letztes würden wir auch den kleinen Buchläden empfehlen, die Herausforderung E-Book anzunehmen. Dass sie aktiv auf E-Books zugehen und ihren Kunden das auch ermöglichen. Denn wir beobachten, dass der Buchhändler um die Ecke zwar sehr gerne Bücher mag, aber mit den ganzen technischen Details, die es erfordert, um E-Books auf dem Markt anzubieten, überfordert ist. Wir glauben deshalb, dass das nur im Zusammenschluss mit anderen Händlern oder Verbänden möglich sein wird.

Christoph Bläsi: Das ist natürlich ein klein wenig eine Wunschvorstellung, der wir da anhängen. Denn die Latte hängt schon sehr hoch – was die Ökosysteme jetzt schon an Funktionen bieten, das ist gigantisch. Da geht es nicht nur darum, die Kräfte zu bündeln und gegensätzliche Interessen zu überwinden. Sondern man muss auch einen Weg finden, wie man das finanziert. Denn wenn man über die Technologie spricht, dann geht es um viel Geld. Und derjenige, der dahinter steht, wäre ja kein Unternehmen, sondern ein Zusammenschluss von Unternehmen, bei dem einige der Mitglieder dann selber Interessen haben – eine schwierige Sache.

Dr. Christoph Bläsi ist Professor am Institut für Buchwissenschaft der Johannes Gutenberg-Universität Mainz, Dr. Franz Rothlauf ist Professor für Wirtschaftsinformatik und BWL der Johannes Gutenberg-Universität Mainz.

March 22 2013

Four short links: 22 March 2013

  1. Defend the Open Web: Keep DRM Out of W3C Standards (EFF) — W3C is there to create comprehensible, publicly-implementable standards that will guarantee interoperability, not to facilitate an explosion of new mutually-incompatible software and of sites and services that can only be accessed by particular devices or applications. See also Ian Hickson on the subject. (via BoingBoing)
  2. Inside the South Korean Cyber Attack (Ars Technica) — about thirty minutes after the broadcasters’ networks went down, the network of Korea Gas Corporation also suffered a roughly two-hour outage, as all 10 of its routed networks apparently went offline. Three of Shinhan Bank’s networks dropped offline as well [...] Given the relative simplicity of the code (despite its Roman military references), the malware could have been written by anyone.
  3. BotNet Racking Up Ad Impressionsobserved the Chameleon botnet targeting a cluster of at least 202 websites. 14 billion ad impressions are served across these 202 websites per month. The botnet accounts for at least 9 billion of these ad impressions. At least 7 million distinct ad-exchange cookies are associated with the botnet per month. Advertisers are currently paying $0.69 CPM on average to serve display ad impressions to the botnet.
  4. Legal Manual for Cyberwar (Washington Post) — the main reason I care so much about security is that the US is in the middle of a CyberCommie scare. Politicians and bureaucrats so fear red teams under the bed that they’re clamouring for legal and contra methods to retaliate, and then blindly use those methods on domestic disobedience and even good citizenship. The parallels with the 50s and McCarthy are becoming painfully clear: we’re in for another witch-hunting time when we ruin good people (and bad) because a new type of inter-state hostility has created paranoia and distrust of the unknown. “Are you now, or have you ever been, a member of the nmap team?”

March 13 2013

Four short links: 13 March 2013

  1. What Tim Berners-Lee Doesn’t Know About HTML DRM (Guardian) — Cory Doctorow lays it out straight. HTML DRM is a bad idea, no two ways. The future of the Web is the future of the world, because everything we do today involves the net and everything we’ll do tomorrow will require it. Now it proposes to sell out that trust, on the grounds that Big Content will lock up its “content” in Flash if it doesn’t get a veto over Web-innovation. [...] The W3C has a duty to send the DRM-peddlers packing, just as the US courts did in the case of digital TV.
  2. Visualizing the Topical Structure of the Medical Sciences: A Self-Organizing Map Approach (PLOSone) — a high-resolution visualization of the medical knowledge domain using the self-organizing map (SOM) method, based on a corpus of over two million publications.
  3. What Teens Get About The Internet That Parents Don’t (The Atlantic) — the Internet has been a lifeline for self-directed learning and connection to peers. In our research, we found that parents more often than not have a negative view of the role of the Internet in learning, but young people almost always have a positive one. (via Clive Thompson)
  4. Portable C64 — beautiful piece of C64 hardware hacking to embed a screen and battery in it. (via Hackaday)

January 21 2013

Kathrin Passig: „Wichtige Gründe für den Besitz sind weggefallen“

Egal ob Film, Musik oder Text – Cloud-Dienste revolutionieren die Werknutzung. Wird der Online-Zugang zu einem Musikalbum wichtiger als der Besitz?

Weiterlesen

August 10 2012

Publishing News: Amazon continues its trek toward total retail domination

Here are a few stories that caught my attention in the publishing space this week.

Amazon targets students with print textbook rentals

In headline news this week, Amazon expanded its digital textbook rental program to include analog books. Students can now rent physical paper textbooks, complete with prior students’ scribbles, for less than buying a used book (in many cases). Sean Ludwig at VentureBeat reports that most textbooks rent for $30 to $60 and are rented for the typical 130-day semester.

According to Amazon’s FAQ on the program, shipping in both directions is pretty easy to get for free: rentals are eligible for free Super Saver Shipping on orders over $25 and are also eligible for Prime free Two-Day shipping for Prime subscribers. Students can also sign up for the Amazon Student program and get six months of free Prime Two-Day shipping, then get a Prime membership at a discounted rate of $39 per year (the “adult” version of Prime is $79 per year). Amazon will conveniently autosubscribe student members to adult memberships upon graduation. Sounds a lot like those “free” credit cards that came with swag during my college days, designed to suck you in from the get-go.

Which brings me to Martin Sosnoff’s look over at Forbes at Amazon’s path to becoming the “Wal-Mart of the Internet.” Sosnoff writes:

“The Amazon story is about scale and momentum in general merchandise sales, here and abroad. I don’t care how many Kindles they deliver or their burgeoning downloads in books, music, video games and streaming of films. All this activity is designed to suck you into buying TV sets, washing machines, even disposable diapers and bottled water by the case.”

Or as O’Reilly publisher and GM tweeted in relation to Sosnoff’s post, “Books are nothing more than roadkill on Amazon’s highway to total retail domination.” So as publishers are frantically trying to find innovative ways to compete against Amazon, Amazon is just using publishing, in all its variations, as a means to an end.

Which brings me to Jim Tanous’ post at The Mac Observer, looking at ebook DRM: one possible positive outcome of this one-sided publishing battle against Amazon is the potential eradication of DRM. As Mathew Ingram pointed out last December at GigaOm, publishers “handed Amazon and Apple the stick of digital-rights management, which the two companies are now using to beat them.” And publishers are starting to come around to understand that DRM isn’t just locking content away from pirates (which it doesn’t do anyway), but that it’s locking content in to closed platforms, ala Amazon Kindle.

After looking at the new StoryBundle platform that give readers a bundle of books for whatever price they want to pay, all DRM-free, Tanous writes: “I was struck by how the DRM-free nature of the books mirrors a growing trend by publishers and independent authors to make their products easily available on multiple platforms and escape the stranglehold they fear Amazon holds on the market.”

Tanous looks at the overall trend, including fantasy publisher Tor’s removal of DRM from its catalog earlier this year and publishers like O’Reilly and Double Dragon that don’t use DRM. He notes that removing DRM removes the constraints on “customer mobility between providers and platforms” and that publishers’ recognition of this and subsequent changes to distribution and sales models, such as StoryBundle’s model, “will not only be good for consumers but for the overall health of the eBook market as well.”

Opportunities in “creative destruction”

Alistair Burtenshaw, director of the London Book Fair, recently attended the Leadership Strategies for Book Publishing program at Yale. This week, he shared some insights from the week-long experience in a post at BookBrunch. He writes that attendees from around the world found themselves in the same publishing boat:

“Whether the percentage of ebook sales in our markets is currently in single or double digits, we all understood that we are in a new ‘ecosystem’ of parallel supply chains, new market entrants, new platforms and new channels to consumer: a period of ‘creative destruction’ that presents unparalleled challenges and opportunities for all publishers.”

Burtenshaw identified four key themes that emerged throughout the week regarding changes required in thinking, skillsets, business models, and markets. Of “New Thinking,” he writes:

“The fast pace of constant change requires us to be nimble, open to new ways of working, able to decide which changes to respond to and how and which opportunities to pass on, at least initially. Questions such as ‘do we want to lead or to follow’ have profound implications for our businesses — in some instances the benefits of leading, of innovating first may be offset by the risks of creating new forms of content that markets are not yet ready for.”

You can read more of Burtenshaw’s insights here — definitely this week’s recommended read.

Big data is the future of big publishing

The importance of data to the future of publishing was highlighted in coverage of the recent launch of publishing analytics company Hiptype. For a bit of background, Laura Hazard Owen recently reported on the launch and describes how the platform works:

“Once Hiptype’s plugin is added to an ebook, it provides insights like reader demographics, reading behavior (where people start or stop reading; what they skip), conversion patterns (who buys an ebook after reading a free sample); and sharing and highlighting behavior (which passages readers highlight or take notes on).”

Hiptype then provides data visualizations for publishers and, Owen notes, will “also [help] publishers run Facebook campaigns and target readers with personalized recommendations.”

Sarah Kessler at Fast Company talked to company co-founders James Levy and Sohail Prasad, and alleviated fears that big data will drive books down the path of “bad reality TV and link-bait reporting”: she writes that the company vision “is less about getting authors to craft the ending to their books based on page turns than it is about marketing books better.”

Company co-founder Levy also talked with O’Reilly publisher and GM Joe Wikert this week in a TOC podcast. In a post here on Radar, Wikert highlights several points from their discussion, noting that data-driven publishing “goes beyond simple sales stats and review information to understanding how the product is used; where readers spend the most time; and even though we don’t like to think about it, how far they get before they abandon a book.” He also shares some statistics from Hiptype:

  • Where sharing happens — The majority of content sharing with friends takes place in either the first 10 pages or the last 10 pages of the book.
  • Why the first 50 pages matter — Almost a third of readers won’t return to the book by page 50. 85% of readers who get to page 50 are likely to read the next 50 pages. Think about that the next time you release an ebook sample with only 10 or 12 pages.
  • Low conversion of samples — Not only are there loads of unread samples sitting on most devices, but only 4% of all samples downloaded are ever read at all.

You can watch the entire Levy interview with Wikert in the following video:

Photo: College Books by wohnai, on Flickr

Related:

June 29 2012

Top Stories: June 25-29, 2012

Here's a look at the top stories published across O'Reilly sites this week.

William Gibson got some of it right
"Neuromancer," written 28 years ago, predicted a technological wonderland we're still waiting for. But its corporate dystopia is already here.


Why learn C?
"Head First C" co-author David Griffith discusses C's continued popularity and why C and Arduino work well together.


"Lightweight" DRM isn't the answer
In this open letter to the IDPF's Executive Director, Bill McCoy, O'Reilly GM & Publisher Joe Wikert explains why a DRM-free approach is far better than any "lightweight" DRM option.


Ten years of Foo Camp
We curate topic areas and interesting people, but Foo Camp is designed to be an idea collider. It's an intentional serendipity engine that works the seams in between.

Predictive data analytics is saving lives and taxpayer dollars in New York City
A predictive data analytics team in the Mayor's Office of New York City is finding patterns in regulatory data that can then be applied to law, health and better allocation of taxpayer resources.


OSCON 2012 — Join the world's open source pioneers, builders, and innovators July 16-20 in Portland, Oregon. Learn about open development, challenge your assumptions, and fire up your brain. Save 20% on registration with the code RADAR.

June 27 2012

"Lightweight" DRM isn't the answer

To: Bill McCoy, IDPF Executive Director
From: Joe Wikert, GM & Publisher, O'Reilly Media, Inc.
Subject: "Lightweight" DRM Isn't the Answer

The world doesn't need another DRM platform, regardless of whether it's called "lightweight." DRM is annoying for customers and provides a false sense of security for publishers. As author Charlie Stross wisely stated, publishing's "pig-headed insistence on DRM on ebooks is handing Amazon a stick with which to beat them harder."

I realize your proposed solution is intended to become an industry standard and prevent the type of lock-in Stross describes. Let's face facts though. Amazon doesn't use the EPUB format and their current market dominance means they're the least likely player to advocate an open, interoperable solution like this. And since Amazon owns approximately 60-70% of the ebook market, your proposed standard would only apply to the remaining 30-40%.

Why would anyone want to develop yet another DRM option for, at best, 30-40% of the market?

More importantly, why do you want to give the publishing industry another distraction and reinforce that false sense of security when we're finally seeing movement towards a DRM-free world?

We've been very open about the success of our DRM-free approach at O'Reilly Media. One simple guiding principle led us to being DRM-free: We trust our customers. We get plenty of compliments from those customers throughout the year and it's clear our trust has created goodwill with them. After spending years touting the benefits of being DRM-free it's encouraging to see others adopting the same approach, including Tor, a Big Six imprint. O'Reilly has long maintained that the costs of DRM — even lightweight DRM — far outweigh any potential benefits. Our position has not changed since Tim wrote "Piracy is Progressive Taxation, and Other Thoughts on the Evolution of Online Distribution" back in 2002.

If the IDPF really wants to make an impact on this issue I suggest you forget about creating another form of DRM and instead spend time educating publishers and retailers on the virtues of going DRM-free. Besides the obvious benefits to customers this could also lead to the end of Amazon's big stick that Charlie Stross says we're all getting hit with.

Once we've completely eradicated DRM perhaps the IDPF could offer their own mobi-to-EPUB conversion and sideloading tools for consumers to further level the ebook playing field. That would be a much better use of IDPF resources than any DRM project could ever be.

Related:

May 04 2012

Join us in celebrating International Day Against DRM

Day Against DRMOne of our core beliefs at O'Reilly is that digital rights management (DRM) is a bad idea. We have a very simple theory: Trust your customers to do the right thing and you'll earn their business. That's why when you buy ebooks from oreilly.com, or through one of our retail partners, you'll never be handcuffed by the restrictions of DRM.

This isn't anything new at O'Reilly. It's how we've sold our ebooks from day one. Plenty of publishers were skeptical of our approach but we're thrilled to see more and more of them adopting it. In just the past few weeks Macmillan subsidiary Tor as well as independent publisher Sourcebooks announced new DRM-free product plans.

We agree with Charlie Stross' point that publishers who insist on using DRM have handed "Amazon a stick with which to beat them harder." That's why we're excited to help celebrate International Day Against DRM with a special discount on all our ebooks and videos. For today only (5/4/12), use the code DRMFREE to save 50% on our entire catalog.

Matt Lee, campaign manager at Defective by Design and one of the organizers of Day Against DRM, explains why DRM is detrimental to ebooks:

"DRM is a growing problem in the area of ebooks, where people have had their books restricted so they can't freely loan, re-sell or donate them, read them without being tracked, or move them to a new device without re-purchasing all of them. They've even had their ebooks deleted by companies without their permission."

We appreciate your help in making Day Against DRM a success. If you agree with our DRM-free philosophy we hope you'll take the time to tell other publishers and retailers to abandon DRM as well. A DRM-free world is one where retailers will find it much harder to create a monopolistic position that locks you into their device or format. We long for the day when the book publishing industry takes the same important step the music world did by abandoning DRM.

Related:

April 27 2012

Publishing News: Tor sets content free

Here are a few stories that caught my eye in the publishing space this week.

Tor breaks the stick

Tor-Forge-Logo.JPGJoe Wikert, O'Reilly GM and publisher, asked this week, "What if DRM goes away?" As kismet would have it, publisher Tom Doherty Associates, which publishes popular science fiction/fantasy imprint Tor under Macmillan, stepped up to drop DRM and find out. An announcement post on Tor.com stated that by July, the company's "entire list of e-books will be available DRM-free." President and publisher Tom Doherty said for the announcement:

"Our authors and readers have been asking for this for a long time. They're a technically sophisticated bunch, and DRM is a constant annoyance to them. It prevents them from using legitimately purchased e-books in perfectly legal ways, like moving them from one kind of e-reader to another."

Author Cory Doctorow said the move "might be the watershed for ebook DRM, the turning point that marks the moment at which all ebooks end up DRM-free. It's a good day." Author Charlie Stross took a look at the big picture and what this might mean not only for the future of publishers, but for book retailers, supply chains and ebook reading technology. In part, he said the oligopoly may be in jeopardy:

"Longer term, removing the requirement for DRM will lower the barrier to entry in ebook retail, allowing smaller retailers (such as Powells) to compete effectively with the current major incumbents. This will encourage diversity in the retail sector, force the current incumbents to interoperate with other supply sources (or face an exodus of consumers), and undermine the tendency towards oligopoly. This will, in the long term, undermine the leverage the large vendors currently have in negotiating discount terms with publishers while improving the state of midlist sales."

Jeremy Trevathan, publisher at Tor UK's parent Pan Macmillan, told The Guardian that Macmillan has "no thought of extending [the drop of DRM] beyond science fiction and fantasy publishing. But it's in the air. We've not talked about this to other publishers, but I can't imagine they haven't been thinking about this, too."

The future of publishing has a busy schedule.
Stay up to date with Tools of Change for Publishing events, publications, research and resources. Visit us at oreilly.com/toc.

Harvard offers up big data and open access research

Harvard University recently made a couple of notable moves to open up access to its data and research. Last week, Harvard's faculty and advisory council sent a memo to faculty members regarding periodical subscriptions. The memo opened: "We write to communicate an untenable situation facing the Harvard Library. Many large journal publishers have made the scholarly communication environment fiscally unsustainable and academically restrictive."

Ian Sample at The Guardian reported:

"According to the Harvard memo, journal subscriptions are now so high that to continue them 'would seriously erode collection efforts in many other areas, already compromised.' The memo asks faculty members to encourage their professional organisations to take control of scholarly publishing, and to consider submitting their work to open access journals and resigning from editorial boards of journals that are not open access."

This week, The New York Times (NYT) reported that "Harvard is making public the information on more than 12 million books, videos, audio recordings, images, manuscripts, maps, and more things inside its 73 libraries." Access to this volume of metadata is likely to fuel innovation for developers. The NYT report stated:

"At a one-day test run with 15 hackers working with information on 600,000 items, [David Weinberger, co-director of Harvard's Library Lab] said, people created things like visual timelines of when ideas became broadly published, maps showing locations of different items, and a 'virtual stack' of related volumes garnered from various locations."

The post noted the "metadata will be available for bulk download both from Harvard and from the Digital Public Library of America, which is an effort to create a national public library online."

News scoops for sale or rent

There also was a dustup in the news space this week. It began with Felix Salmon's post at Reuters suggesting the New York Times could rake in revenue by selling advance access to its feature stories to hedge funds. (This was all brought on by the newspaper's feature piece on a Wal-Mart bribe inquiry on a Saturday and the market response the following Monday.)

Salmon argued:

"The main potential problem I see here is that if such an arrangement were in place, corporate whistleblowers might be risking prosecution as insider traders. But I'm sure the lawyers could work that one out. The church-lady types would I'm sure faint with horror. But if hedge funds are willing to pay the NYT large sums of money to be able to get a glimpse of stories before they're made fully public, what fiduciary could simply turn such hedge funds away?"

GigaOm's Mathew Ingram posted a response from a journalism ethics standpoint:

"One of the things that bothers me about this idea is that I think there is still some kind of public-service or public-policy value in journalism, and especially the news — I don't think it is just another commodity that should be designed to make as much money as possible. And if the New York Times were to take stories that are arguably of social significance and provide them to hedge funds in advance, I think that would make it a very different type of entity than it is now. What if it was a story about a dangerous drug or national security?"

Salmon posted a follow-up argument, in part responding to Ingram:

"The journalism-ethics angle to this hasn't really been fleshed out, though. Mathew Ingram, for instance, says that if news is being put out in the public service, then it shouldn't be 'just another commodity'; if the NYT were to go down this road, then 'that would make it a very different type of entity than it is now.' It's all very vague and hand-wavey."

All three posts in this back-and-forth exchange (here, here and here) as well as the debate on Twitter that Ingram storified here are well worth the read.

Related:

What if ebook DRM goes away tomorrow?

This post originally appeared on Joe Wikert's Publishing 2020 Blog ("What if DRM Goes Away?"). This version has been lightly edited.

TOC Latin America was held last Friday in the beautiful city of Buenos Aires. Kat Meyer, my O'Reilly colleague, and Holger Volland did a terrific job producing the event. As is so often the case with great conferences, part of the value is spending time with speakers and other attendees in between sessions and at dinner gatherings.

Last Thursday night, I was fortunate enough to have dinner with Kat, Holger and a number of other TOC Latin America speakers. We discussed a number of interesting topics, but my favorite one was asking each person this question: What happens if DRM goes away tomorrow?

The DOJ suit against Apple and five of the Big Six has led to a lot of speculation. One of the most interesting scenarios raised is that if the government is intent on limiting the capabilities of the agency model, publishers need to figure out what other tools they can use to combat the growing dominance of Amazon.

Charlie Stross is right: DRM is a club publishers gave to Amazon and then insisted that Amazon beat them over their heads with it. So, what if we woke up tomorrow and DRM for books disappeared, just like it has (for the most part) with music?

I was unable to reach a consensus at that dinner, but here's what I think would happen: Initially, not much. After all, Amazon has a lot of momentum. If current U.S. estimates are accurate, Amazon controls about 60-65% of the ebook market and B&N is second with about 25-28%. That only leaves 7-13% for everyone else. And if you've been buying ebooks from Amazon up to now, you're not likely to immediately switch to buying from B&N just because they both offer books without DRM. On the surface, Amazon's and B&N's ebooks use incompatible formats — mobi for the former and EPUB for the latter. But that's where it gets interesting.

Converting from mobi to EPUB (or vice versa) is pretty simple with a free tool like Calibre. I've played around with it a bit, converting some of the DRM-free ebooks we sell on oreilly.com. I didn't do those conversions to get our books in other formats. After all, when you buy a book from oreilly.com you're buying access to all the popular formats (mobi, EPUB and PDF, as well as others), not just the one format a device-maker wants to lock you into. I did the conversions because I wanted to see what's involved in the process.

If you've ever used Microsoft Word to save or convert a DOC file to PDF you'll find it's just as easy to go from mobi to EPUB in Calibre, for example. But just because the tool is available, does that mean if DRM goes away we'd suddenly see a lot of Kindle owners buying EPUBs from B&N and converting them to mobi with Calibre? I doubt it. Those Kindle owners are used to a seamless buying experience from Amazon, so unless there's a compelling reason to do so, they're not likely to switch ebook retailers. And that leads me to the most important point ...

Creating the best buying and reading experience is one way any ebook retailer can steal market share from the competition. Amazon has a pretty darned good one, that's for sure, but there's plenty of room for improvement. I'm not convinced any ebook retailer has pushed the envelope on innovation and exciting new features in their devices or reader apps. In fact, these enhancements seem to move at a glacial pace. So, what if B&N (or anyone else, for that matter) suddenly invested heavily in reader app functionality that puts them well ahead of the competition? And what if some of those features were so unique and innovative that they couldn't be copied by others? I'd much rather see a competitive marketplace based on this approach than the one we currently have, where the retailer with the deepest pockets wins.

Innovation is better than predatory pricing. What a concept. The iPod revolutionized music, an industry that was highly fragmented and looking for a way forward in the pre-iPod days. The iPhone turned the cellular market on its head. Think about how significantly different the original iPod and iPhone were when compared to the clumsy MP3 players and flip phones that preceded them. I believe today's crop of ebook readers and apps are, in many ways, as clumsy and simplistic as those MP3 players and flip phones. In other words, we haven't experienced a radical transformative moment in the ebook devices and app world yet.

Of course, all of this innovation I'm dreaming of could happen today. We don't need to wait for a DRM-free world. Or do we? Amazon has no incentive to innovate like this. They already have a majority market share, and it's only going to get larger when the DOJ dust settles.

This is more of a rallying cry for B&N, Kobo and every other device and ebook retailer. If DRM goes away tomorrow, nothing much changes unless these other players force it to. But why wait till DRM disappears? It might not happen for a long time. Meanwhile, the opportunity to innovate and create a path to market share gain exists today. I hope one or more of the minority market share players wakes up and takes action.

The future of publishing has a busy schedule.
Stay up to date with Tools of Change for Publishing events, publications, research and resources. Visit us at oreilly.com/toc.

Related:

April 20 2012

Publishing News: Dropping DRM may be too little, too late

Here are a few stories that caught my eye in the publishing space this week.

Giving up the DRM

ChainsLocks.pngIn the aftermath of the DOJ lawsuit, much has been written about what publishers need to do next if they're going to survive in the face of Amazon's increasingly powerful position, and the issue of dropping DRM is a recurring theme. Mathew Ingram at GigaOm argues that publishers first need to realize they're partially responsible for the locked-in position in which they're finding themselves and then realize they hold the key to breaking free: drop DRM. Ingram says that not only is it unlikely that DRM is fulfilling its intended purpose of preventing piracy, but that it's having an unintended consequence of hindering sales:

"What these chains and locks do, more than anything else, is to make the simple act of buying and reading a digital book horrendously complicated. Does that make more people want to buy and read e-books? It's hard to see how. In a very real sense, those locks are hobbling the industry."

Author Charlie Strauss also addresses the issue of DRM in a post about how and why Amazon has been able to establish itself so well in the marketplace. Strauss goes into a lot of interesting background and in-depth detail (his post is a must-read for this week), but he succinctly sums up Amazon's strategy: "Amazon seems to be trying to simultaneously establish a wholesale monopsony and a retail monopoly in the ebook sector." And, he explains, publishers' death grip on DRM played right into Amazon's best possible scenario: "By foolishly insisting on DRM, and then selling to Amazon on a wholesale basis, the publishers handed Amazon a monopoly on their customers — and thereby empowered a predatory monopsony."

Adrian Kingsley-Hughes over at ZDNet writes that "frightened publishers" will certainly bring an end to DRM in a desperate attempt to survive, but that it's "too little, too late" and that it won't make a dent in Amazon's position — or Apple's, for that matter:

"[Amazon and Apple] are far too popular (and, by the majority of customers, well loved) for the removal of DRM to make a difference ... On the whole, consumers don't care about DRM, and removing DRM from e-books won't open up the market in the way that publishers hope it will. What Amazon and Apple have done with Kindle and iBooks respectively was not invent e-books, but refine how the content was consumed."

Kingsley-Hughes argues that the only way for publishers to have a shot now is to band together: "Unless the publishers can come up with their own one-stop shop for e-books, make this as easy to use as Amazon or Apple's offering, get this outlet onto devices that people use, and then come up with compelling reasons why people should choose to use it over other outlets (the hard part), nothing will change."

That may be true, but I have to agree with Ingram's argument that "at least [dropping DRM] would give publishers a chance to be more flexible and adaptable, instead of trying to prop up their failing business model with price-fixing."

The future of publishing has a busy schedule.
Stay up to date with Tools of Change for Publishing events, publications, research and resources. Visit us at oreilly.com/toc.

A textbook case to settle first doctrine questions

The U.S. Supreme Court has agreed to weigh in on a first sale doctrine case, Kirtsaeng d/b/a Bluechristine99 v. John Wiley & Sons Inc., involving textbooks that were purchased in Thailand and resold in the U.S. A post at The Wall Street Journal (WSJ) describes the case:

"At issue are lower court rulings that found an entrepreneurial college student liable for copyright infringement for reselling foreign-edition textbooks on eBay. Supap Kirtsaeng asked friends and family in Thailand to buy copies of the textbooks, where they were cheaper. He says he resold them in the U.S. and used the profits to help pay for his U.S. education.

Textbook publisher John Wiley & Sons Inc. sued Kirtsaeng and won a $600,000 copyright infringement judgment against him."

The question before the Supreme Court boils down to whether or not the first sale doctrine applies to goods produced outside the U.S. As a post at Bloomberg BNA notes, "the goods in the Kirtsaeng case were not originally made in the United States." Implications of the decision will likely affect most categories of resale goods, including books, music, and software, but according to the WSJ post, retailers warn that the decision "could threaten companies that resell foreign-made goods and lead to higher prices for consumers. Retailers noted that many products they sell are first produced and procured from abroad."

The issues in this case reach back to unresolved questions from a Supreme Court case in 2010 involving Costco Wholesale Corp. that ended in a 4-4 tie — Bloomberg BNA has extensive background detail on both cases here. Reports indicate the Supreme Court will hear arguments in the fall.

Apple will seek validation in court

gavel.pngOn the heels of sending "possible commitments" to settle the antitrust lawsuit with the European Commission, Apple decided that versus the U.S. Department of Justice (DOJ), it wants its day in court. Reuters reports:

"'Our basic view is that we would like the case to be decided on the merits,' Apple lawyer, Daniel Floyd, told U.S. District Judge Denise Cote. 'We believe that this is not an appropriate case against us and we would like to validate that.'"

Sara Forden at The Washington Post writes that Apple's best defense may hinge on whether or not it was present during the publisher meetings in Manhattan where the alleged collusion is said to have taken place. Forden reports: "The maker of the iPad will need to show it negotiated pricing arrangements separately with each of the five publishers named in the Justice Department’s lawsuit, avoiding group gatherings such as those in The Chef's Wine Cellar at Picholine described in the government's complaint, antitrust lawyers said." An antitrust specialist also told Forden that Apple could "argue it was providing an alternative to the near monopoly Amazon won with low margins and deep discounts."

The next hearing is scheduled for June 22.

In other antitrust lawsuit news, litigation border hopped again, this time into Canada. According to a report at The Globe and Mail, the Vancouver firm Camp Fiorante Matthews Mogerman filed a class-action lawsuit in B.C. Supreme Court against Apple, Hachette Book Group Inc., HarperCollins Publishers Inc., Holtzbrinck Publishers LLC, conducting business as Macmillan Publishers Inc., Penguin Group, Simon & Schuster, and their Canadian subsidiaries. The lawsuit alleges a"'conspiracy' to lessen competition and 'fix, maintain, increase or control the prices of e-books," according to the report. Reidar Mogerman, the lawyer who filed the lawsuit, told The Globe and Mail, "The U.S. case isn't going to cover Canadian consumers. So it's the same underlying facts, it's the same consumer protection agenda, but it is for different consumers in a different country."

For a comprehensive roundup of post-DOJ-lawsuit coverage, check out Porter Anderson's (@porter_anderson) latest Writing on the Ether column. For an overview of the publishing chaos in general, including industry issues with the DOJ lawsuit, Google and libraries, check out this story from The Atlantic.

Photo (top): chained by Colin-47, on Flickr

Photo (bottom): English: Gavel, on Wikimedia Commons

Related:


Reposted bydatenwolf datenwolf

April 17 2012

The anchor on ebook prices is gone. Now we'll see where they float

The publishing space remains abuzz in the aftermath of the Department of Justice (DOJ) lawsuit filing last week against Apple and publishers Hachette, HarperCollins, Macmillan, Simon & Schuster and Penguin. Much remains to be seen on how the suit will play out with Apple, Macmillan and Penguin (as the others have settled), and how the Big Six will now respond in relation to Amazon.

For a wider view and some insight into what needs to happen next for publishers to survive the tumult, I reached out to Don Linn, president at Firebrand Associates. Our interview follows.

What is the big-picture view of the DOJ lawsuit?

Don_Linn_Headshot.jpgDon Linn: The combination of the lawsuit, circumstantial evidence that's been revealed, and settlements by several of the parties, is a very big event. The point I think has been missed in much of the discussion is the perception that the agency model — and the alleged collusion that had led to it — affected consumers negatively via higher prices. The price umbrella agency effectively created benefitted only the alleged co-conspirators. That's something that never makes anti-trust enforcers happy.

The circumstantial evidence certainly suggests the DOJ had grounds for pursuing an action. "Double deleting" emails is pretty damning, among other things. The fact that three parties have settled, while legally having no effect on the others, clearly weakens the case of the remaining defendants, at least in public, that something happened. We will look back on this as an important date; the date that ebook prices once again were allowed to float. And things seldom float upward.

I'm not an attorney, but I believe that Macmillan, Penguin and Apple have a very difficult legal battle ahead. One I doubt they can win.

Does this strengthen Amazon's position in the marketplace?

Don Linn: Amazon's already dominant position has been further strengthened as their ability to set low prices locked into the Kindle ecosystem should only grow their share of the market. Whether this is a good thing for publishers over time remains to be seen, but most readers will cheer short-term price declines and Amazon's superior customer experience.

Cory Doctorow and others have argued that the DOJ has missed the point with this suit, saying that the DRM lock-in is the bigger anti-competitive threat. Over time this may prove to be true. However, when consumers benefit, regulators can claim a victory.

What do publishers need to do now?

Don Linn: Clearly, the most important thing for those who have settled is to get into — and stay in — compliance with the agreement. Additional legal battles are in no one's interest, which is why I was surprised that two publishers chose to fight.

Separately, the Big Six and others have to determine whether low prices are their enemy and by extension whether Amazon's low pricing is sustainable for them. The choices are pretty stark: either withhold content from Amazon until acceptable terms can be agreed upon, or further adapt business models to adjust to lower pricing. I would expect to see major pushback from the Big Six on Amazon, and some may take IPG's approach of trying to hold out.

Whether that strategy can be successful is questionable, but it may be the only viable approach if they don't believe lower prices can work. If the publishers yield to Amazon, consumers should hope they could — as Mike Cane has argued — extract something in return ... perhaps Amazon's willingness to adopt EPUB as a way to loosen the lock-in.

What do you think readers will get out of this?

Don Linn: As I mentioned before, consumers get the immediate benefit of lower prices, though there are those who argue that Amazon, once it controls the market, will ultimately raise prices for their locked-in consumers. The DOJ may have inadvertently created a less competitive marketplace with this action, though I feel sure they will be back if Amazon or any other party misbehaves to the detriment of consumers.

This interview was edited for clarity.

The future of publishing has a busy schedule.
Stay up to date with Tools of Change for Publishing events, publications, research and resources. Visit us at oreilly.com/toc.

Related:


Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl