Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 25 2014

February 10 2014

50 Disney-Filme, die aus kulturellem Gemeingut schöpfen

Bei Forbes hat dessen Kolumnist Derek Khanna eine Liste von 50 Disney-Filmproduktionen veröffentlicht, die auf gemeinfreie Werke zurückgreifen. Was Disney damit an Einnahmen erwirtschaftet hat, hat er ebenfalls zusammengetragen.

Was auf den ersten Blick vielleicht etwas nach Yet-another-Listicle aussieht, führt die bemerkenswerte Logik des Unternehmens Disney deutlich vor Augen: Zwar greift man seit jeher auf überlieferte Geschichten, Figuren und Werke zurück, hat aber stets zu verhindern gewusst, dass eigene Schöpfungen einmal gemeinfrei werden könnten. Mit Recht trägt die letzte Urheberrechtsverlängerung der USA auch den Spitznamen „Micky Mouse Protection Act“, gehörte Disney doch zu dessen treibenden Kräften.

Ein Auszug der (alphabetisch) ersten zehn Filme:

1. Adventures of Huck Finn (1993) based on Mark Twain’s book (1885)
Revenue = $24.1 million (revenue figures listed where available – based on wikipedia data).

2. Tom and Huck (1995) based on The Adventures of Tom Sawyer by Mark Twain (1876)
Revenue = $23.9 million

3. Aladdin (1992) from a folk tale in One Thousand and One Nights (1706)
Revenue = $504 million

4. Alice in Wonderland (1951) based on Lewis Carroll’s book (1865)
5. Alice in Wonderland (2010) based on Lewis Carroll’s book (1865)
Revenue = $1.02 billion

6. Around the World in 80 Days (2004) based on Jules Verne’s book (1873)
Revenue = $72.2 million

7. Atlantis (2001) from the Legend of Atlantis (Socratic Dialogues “Timaeus” & “Critias” by Plato ~360 BC.)

8. Beauty and the Beast (1991) by G-S Barbot de Villeneuve’s book (1775)
Revenue = $425 million

9. Bug’s Life (1998) from Aesop’s Fables
Revenue = $363.4 million

10. Cinderella (1950) from Charles Perrault’s folk tale (Grimm’s Fairy Tails) (1697)
Revenue = $85 million

Mit seiner Liste macht Khanna ein Argument anschaulich, das er schon in einem Politikpapier (PDF) des konservativen „Republican Study Committee“ (RSC) vertrat. (Das Papier wurde vor allem deshalb bekannt, weil es dem RSC kurz nach Veröffentlichung scheinbar so unangenehm wurde, dass man es zurückzog und Khanna entließ.)

Überlange Schutzfristen, so jedenfalls seine Aussage, schaden der Gesellschaft, weil sie Innovation verhindern und das Gegenteil von dem bewirken, was die US-Gründungsväter mit einem zeitlich begrenzten Schutz bezweckten. Ein Argument, dass etwa Lewis Hyde in seinem Buch „Common As Air“ schon ausführlich entfaltet hat.

Disney: „Eine der größten Diebstähle der Geschichte“

Politik müsse aber nicht an einem einzigen, sondern an zehn Disneys interessiert sein, schreibt Khanna. Doch dass eines Tages jemand auf Disney-Schöpfungen zurückgreifen könnte, wie es Disney seinerzeit mit den Geschichten von Lewis Caroll, Grimms Märchen oder Jules Verne tat, sei kaum noch vorstellbar. Mit der jetzt bereits von einigen geforderten nächsten Verlängerung der Schutzfristen – 2020 würde „Steamboat Willie“ sonst in die Gemeinfreiheit entlassen – werde es nahezu unmöglich.

Khannas Fazit folgerichtig:

If in the vernacular of the content industry, taking other people’s work without paying for it is always stealing, then the Disney Corporation is responsible for one of the greatest thefts in world history.

Korrekturen und Ergänzungen zu seiner Sammlung nimmt Khanna via Twitter und Medium entgegen.

Wie auch Disney-Produktionen sich selbst stets aufs Neue zitieren und wiederholen, zeigt übrigens sehr anschaulich der Zusammenschnitt „Ressemblance entre Disney“:

February 04 2014

EU-Parlament winkt neue Regeln für Verwertungsgesellschaften und Musiklizenzen durch

Neue Musik- und Streamingdienste sollen in Europa leichter an den Start gehen können, Verwertungsgesellschaften zu mehr Transparenz und Wettbewerb verpflichtet werden: Heute hat die Richtlinie zur kollektiven Rechtewahrnehmung das Europaparlament passiert.

Das EU-Parlament hat auf seiner Sitzung vom 4. Februar 2014 neue Regeln für Verwertungsgesellschaften verabschiedet und den zugehörigen Bericht der Abgeordneten Marielle Gallo (EVP) mit großer Mehrheit angenommen. 640 Abgeordnete stimmten dafür, 18 dagegen.

Damit hat das EU-Parlament formell bestätigt, worauf sich Kommission, Rat und Parlament im November informell geeinigt hatten – einen Kompromisstext zur neuen Richtlinie über kollektive Rechtewahrnehmung, die sich zwei Ziele auf die Fahnen geschrieben hat:

  • Für neue Musikdienste im Netz soll es schneller und einfacher möglich sein, Online-Rechte möglichst europaweit zu erwerben,
  • Verwertungsgesellschaften sollen sich strengeren Regeln unterwerfen müssen und Urheber frei wählen können, wo sie welche Rechte einbringen und vertreten lassen.

Die Regelung hört auf den amtlichen Namen „Richtlinie über die kollektive Wahrnehmung von Urheber- und verwandten Schutzrechten und die Vergabe von Mehrgebietslizenzen für die Online-Nutzung von Rechten an Musikwerken im Binnenmarkt“ und führt EU-weite, verbindliche Vorgaben für Verwertungsgesellschaften ein. Sie muss noch vom Ministerrat formell abgenickt werden. Die EU-Länder müssen dann innerhalb von zwei Jahren ihre Gesetze anpassen.

„Mehrgebietslizenzen“ für Musikdienste

Mit den neuen Regelungen hofft die EU-Kommission, den nationalen Flickenteppich bei Lizenzen zu überwinden, dem sich neue Musikdienste im Web ausgesetzt sehen. Sie müssen Rechte in allen Staaten separat erwerben und dafür mit einer Vielzahl von Verwertungsgesellschaften Verträge aushandeln. Durch mehr Wettbewerb sollen die Verwertungsgesellschaften nun dazu angehalten werden, sogenannte Mehrgebietslizenzen zu vergeben – was sie erst dann dürfen, wenn sie die EU-Standards erfüllen. Direkte „EU-Lizenzen“ einführen kann die Richtlinie nicht.

Grundsätzlich sind solche länderübergreifenden Lizenzen schon heute möglich, sie sind aber selten und langwierig. Die Kommission setzt darauf, dass mit den neuen Regelungen Rechtebündel entstehen, bei denen zum Beispiel die italienische Verwertungsgesellschaft das Repertoire aus Frankreich mitlizenziert oder die beiden Gesellschaften sich zusammenschließen. Verweigert sich eine Verwertungsgesellschaft den Mehrgebietslizenzen, können Urheber ihr die Onlinerechte entziehen und anderswo einbringen. Die beste Verwertungsgesellschaft gewinnt – so zumindest die Idee.

Urheber gegenüber Verwertungsgesellschaften gestärkt

Die neuen, nicht nur für Musik-Verwertungsgesellschaften geltenden Vorgaben – mehr Transparenz über ihre Mittel, stärkere Aufsicht und Mitbestimmung der Urheber – sollen dazu anhalten, die von den Mitgliedern eingebrachten Rechte möglichst weitgehend zu lizenzieren. Die EU will die Handlungsmacht der Urheber gegenüber den Verwertungsgesellschaften stärken, um mehr Wettbewerb für die Wahrnehmung von Urheberrechten zu erzeugen.

Der grundlegende Ansatz der Richtlinie hat im Parlament weite Zustimmung gefunden — vom Piraten Christian Engström (Fraktion Grüne/EFA) bis zur konservativen Berichterstatterin und früheren ACTA-Befürworterin Marielle Gallo. Unterschiedliche Meinungen gab es bei der Frage, wie schnell Tantiemen an Urheber ausgeschüttet werden müssen. Das Parlament setzte hier eine kürzere Frist von 9 Monaten nach Erlösjahr durch. Wer als Verwertungsgesellschaft zählt, war ein weiterer Streitpunkt.

Nichtkommerzielle CC-Lizenzen und Verwertungsgesellschaft erlaubt

Auch bei freien Lizenzen bringt die Richtlinie Neues: Urheber sollen das Recht erhalten, Lizenzen für nicht-kommerzielle Nutzungen zu vergeben, andere Rechte aber weiterhin an Verwertungsgesellschaften übertragen zu dürfen. Manche Verwertungsgesellschaften erlauben es bereits, nicht-kommerzielle Creative-Commons-Lizenzen zu nutzen. In Deutschland sperrte sich die GEMA bislang weitgehend dagegen.

In der jetzt vom Parlament beschlossenen Änderung heißt es in Artikel 5, Abs. 2a:

Rechteinhaber haben das Recht, Lizenzen für die nichtgewerbliche Nutzung von Rechten, Rechtekategorien, Rechten an bestimmten Arten von Werken und sonstigen Schutzgegenständen ihrer Wahl zu vergeben. Verwertungsgesellschaften klären ihre Mitglieder über dieses Recht und die dafür geltenden Voraussetzungen auf.

Neue Richtlinie, neues Glück

Die neue Richtlinie ist nicht der erste Anlauf aus Europa, neue Vorgaben für Verwertungsgesellschaften zu schaffen. Wie sich das Modell eines nationalen Monopols für Verwertungsgesellschaften mit den wettbewerbsrechtlichen und politischen Vorgaben verträgt, beschäftigt Kommission und Gerichtshof schon seit Jahrzehnten, zuletzt etwa im CISAC-Urteil. Eine Empfehlung der Kommission von 2005 verfolgte nahezu gleiche Ziele wie die jetzige Richtlinie, war aber rechtlich nicht bindend.

Bislang führten die Regulierungsversuche nach Einschätzung mancher Beobachter allerdings eher dazu, die Rechtelandschaft weiter zu fragmentieren, statt die Lizenzierung zu erleichtern. Einen „Zustand des Chaos“ attestieren etwa die Informationsrechtler Lucie Guibault and Stef van Gompel der EU-Situation bei der kollektiven Rechtewahrnehmung. Ob die Wette der Kommission auf die Kräfte des Binnenmarkts diesmal aufgeht, steht keineswegs fest.

January 15 2014

Big Data in der Medizin

In Blutwerten, DNA-Profilen und Fallstudien könnten sich medizinisch nutzbare Erkenntnisse verbergen – wenn man sie im großen Stil erfasst und analysiert. Allerdings wirft „Big Data“ in der Medizin auch Fragen auf – von der Rolle der Ärzte bis zum Datenschutz.

Ein Forscherteam am Institute of Technology der University of Ontario überraschte die 2010 Fachwelt mit einer Beobachtung. Anders als man das intuitiv vermuten würde, stabilisieren sich bei Frühgeborenen zunächst die Vitalfunktionen, bevor es zu einer schweren Infektion kommt.

Möglich machte diese Erkenntnis eine Software, die pro Sekunde 1.260 Datensätze von Patienten erfasst – von der Atmung bis zum Sauerstoffgehalt im Blut. Erst die Zusammenführung und Analyse der gewaltigen Mengen an Körperdaten brachte die zuvor unbekannten Krankheitssymptome zu Tage. „Sie können es nicht mit dem bloßen Auge sehen, aber der Computer kann es“, erklärt Forschungsleiterin Carolyn McGregor. Ärzte können anhand der Daten nun früher gegen drohende Infektionen vorzugehen.

McGregors Untersuchung ist ein beliebtes Beispiel für den Einzug der „Big Data“-Forschung in die Medizin. Gemeint sind damit Verfahren, bei denen große Datenmengen aus vielfältigen Quellen erfasst, verteilt, gespeichert, durchsucht, analysiert, miteinander in Beziehung gesetztund visualisiert werden.

Im Gesundheitswesen sollen sie helfen, Krankheiten früher und besser zu erkennen, zu therapieren oder gar zu vermeiden – so zumindest die Vision von Wissenschaftlern und Unternehmen. Der Internetforscher Viktor Mayer-Schönberger (Universität Oxford) ist sich bereits sicher, Big Data helfe in Zukunft „ganz unmittelbar Menschenleben zu retten“. Doch wie genau macht Big Data das?

Zusammenhänge erstmal beobachten

IT-Technik ist in der Medizin nichts Neues. Charakteristisch für Big-Data-Analysen ist allerdings, dass sie den üblichen wissenschaftliche Arbeitsweg umdrehen können. Klassischerweise stellen Forscher eine Hypothese über ursächliche Zusammenhänge auf und überprüfen sie mit statistischen Verfahren. Doch die gezielte Datensammlung ist aufwendig und kostspielig. Also gehen die Forscher normalerweise nur einer begrenzten Zahl von Hypothesen nach, und beschränken die Zahl der Parameter. Sie fragen etwa, ob die Wirkstoffe X, Y, Z – wie theoretisch vorhergesagt – einen Einfluss auf die jeweilige Krankheit  haben.

Big Data-Verfahren ermöglichen dagegen den umgekehrten Weg – von den Daten zur Hypothese. Sie setzen beim immer größer werdenden Datenschatz an, der beispielsweise in Millionen von elektronischen Krankenakten oder Umweltregistern steckt. Big-Data-Ansätze folgen der Devise: Je größer und vielfältiger die Datenmenge ist, und je schneller sie anfällt, desto besser. Ermöglicht wurde diese Entwicklung erst durch neue, kostengünstige Techniken zur Datensicherung und -auswertung.

Die Forscher untersuchen die Daten mit Hilfe von Algorithmen automatisiert nach Zusammenhängen. Im besten Fall entdecken sie so Korrelationen, nach denen sie gar nicht gefragt hatten – wie im Fall der neu entdeckten Infektionssymptome bei Frühgeborenen. „Der medizinische Forscher muss nicht selbst Hypothesen bilden und diese dann in den Daten testen, sondern bekommt aus den Daten belegbare Hypothesen präsentiert und kann sie inhaltlich bewerten“, erklärt Stefan Rüping, Experte für Data Mining und Big Data Analytics am Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS). „Der neue Ansatz besteht also darin, die Phantasie des Forschers beim Finden neuer Fragestellungen durch Datenintelligenz zu ergänzen.“

Die Hoffnungen in dieses Data Mining sind groß. Datenanalysen im großen Stil könnten beispielweise preisgeben, wie bestimmte Gene und Blutwerte mit Krankheiten wie Alzheimer, Krebs oder Schizophrenie zusammenhängen.

Handeln, ohne zu wissen, warum?

Allerdings liefern die Big-Data-Analysen keine Erklärung für die Zusammenhänge, die sie zu Tage fördern. Umstritten bleibt die Frage, inwieweit Mediziner sie zur Grundlage ihres Handels machen sollten, bevor die Ergebnisse auch kausal begründbar sind.

Mit Blick auf die Segnungen von Big Data verweist der Internetforscher Mayer-Schönberger beispielhaft auf die Grippe-Vorhersage der Suchmaschinen-Firma Google („Google Flu Trends“). Das Unternehmen fand rückblickend Zusammenhänge zwischen dem Verlauf von Grippewellen und den Internetsuchen in den betroffenen Gebieten. Daraus entwickelte das Unternehmen Algorithmen, die neue Grippewellen teilweise erstaunlich genau und vor allem weit schneller vorhersagen als übliche Prognoseverfahren.

Mayer-Schönberger zufolge können Gesundheitsämter die Google-Prognose schon heute nutzen, etwa um bestimmte Regionen rechtzeitig mit Impfstoff zu versorgen. Dazu müssten sie nicht einmal wissen, welcher kausale Zusammenhang zwischen den Suchabfragen und der Grippe besteht. „Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können“, so Mayer-Schönberger im Interview mit iRights.info. Eben diesen Paradigmenwechsel in der Forschung hält er für eine Revolution.

Zwar beziehen Länder wie die Vereinigten Arabischen Emiraten Google Flu Trends bereits in ihr Frühwarnsystem für Epidemien ein. Allerdings wurden zuletzt Zweifel an dem Verfahren laut, das vielerorts stellvertretend für die Big-Data-Segnungen in der Medizin steht. So schätzte die Analyse-Software die Zahl der Grippe-Infizierten in den USA im Januar 2013 als etwa doppelt zu hoch ein,  wie das Wissenschaftsmagazin „Nature“ berichtet.

Forscher vermuten, dass die Medienberichterstattung zur Grippe sich auf das Suchverhalten der Internetnutzer ausgewirkt und so die Prognose verzerrt. Google Flu Trends könnte die Ergebnisse sogar selbst beeinflussen, wenn etwa Medien über Googles Grippewarnungen berichten, was wiederum mehr Menschen dazu verleitet, die Krankheitssymptome zu googlen.

Grundlagenforschung bleibt wichtig

Grundsätzlich mahnt der Wissenschaftstheoretiker Klaus Mainzer (TU München) mit Blick auf Big-Data-Erkenntnisse in der Medizin: „Erst eine gründliche Grundlagenforschung erklärt die kausalen Zusammenhänge und garantiert damit nachhaltige Diagnosen und Therapien.“ Speziell bei den Big-Data-Algorithmen bestehe die Gefahr, dass man nur noch auf ihre Schnelligkeit setze. „Es wäre fatal, wenn aus schneller Profitgier die Bedeutung der Grundlagenforschung unter die Räder käme.“ Auch der Literaturwissenschaftler Manfred Schneider warnt davor, den Erkenntnisgewinn von rein statistischen Zusammenhängen zu überschätzen. „Auch die Korrelation des Bierkonsums in Europa mit der Häufigkeit von Verkehrsunfällen in Bangladesh an Wochenenden ergäbe einen Befund.“

Ängste vor rein datenbasierten Fehldiagnosen und -therapien hält Stefan Rüping vom IAIS indes für unbegründet. Die Vorschriften seien sehr strikt. Neues medizinisches Wissen müsse immer noch einmal unabhängig in kontrollierten Studien verifiziert werden. „Die relevante Frage ist allerdings nicht, ob eine neue Diagnosemethode oder Therapie fehlerfrei ist – das ist in der Medizin üblicherweise nicht der Fall – sondern ob sie klar besser ist als die beste bekannte Standardbehandlung.“ Darüber hinaus sei ein rein statistisches Vorgehen ohne inhaltliches Verständnis in der Datenanalyse immer eine schlechte Idee. „Die Entwicklung neuerer, besserer Datenanalyseverfahren ist in vielen Fällen eher eine Evolution statt eine Revolution.“

Der gläserne Patient

Neben der Entdeckung von Zusammenhängen verspricht Big Data in der Medizin eine maßgeschneiderte Behandlung. Indem konkrete Fälle mit großen Datenmengen – etwa über Krankheitsverläufe – abgeglichen werden, sollen bessere Diagnosen und Medikationen möglich sein. Beispielsweise nutzt das Memorial Sloan-Kettering Cancer Center in New York den IBM-Supercomputer „Watson“ zur Entwicklung einer Software, die personalisierte Krebs-Therapien vorschlägt. Dazu verarbeitet Watson zum Beispiel 1,5 Millionen Patientenakten und 600.000 Forschungsberichte und  Fachartikel. Auch am Hasso-Plattner-Institut in Potsdam suchen Forscher nach Methoden, das weltweite medizinische Wissen „am Krankenbett“ verfügbar zu machen.

Der Wissenschaftstheorethiker Mainzer ist sich bereits sicher: „Ohne den Einsatz hochentwickelter Algorithmen wird die Medizin in Zukunft nicht mehr auskommen.“ Das medizinische Wissen wachse täglich in unvorstellbarer Weise. Allein über Diabetes gebe es circa 400.000 Fachartikel. „Selbst ein Spezialist kann diese Artikel in einem kurzen Leben nicht bewältigen“, so Mainzer. „Hier bedarf es intelligenter Software, die über semantisches Verständnis verfügt und die jeweils relevanten Informationen für eine Diagnose und Therapie herausfiltert.“

Prinzipiell hält es Mainzer für möglich, den Menschen im Sinne einer personalisierten Medizin eines Tages in allen Details zu erfassen. „Der gläserne Patient, der bis auf die molekulare Ebene individuell durchleuchtet wird, ist aus Sicht der Rechnertechnologie möglich.“ Bei Krankheitsverläufen wie Krebs wäre ein dauerndes Screening auch notwendig, da Krebstumore und Krebszellen sich genetisch dauernd verändern und die Therapien angepasst werden müssten. Allerdings werde es Zeit und sehr viel Geld kosten, alle ungeheuer komplexen Details des menschlichen Organismus bis auf Molekularebene zu erforschen.

Sind Maschinen die besseren Ärzte?

Schon heute werfen computergestützte Diagnosen und Therapievorschläge die Frage nach der künftigen Rolle der Ärzte auf. Der US-Investor Vinod Khosla provoziert den Berufsstand mit seiner These, Computer beziehungsweise „Dr. Algorithmus“ würden künftig 80 Prozent der bisherigen Tätigkeit eines Arztes überflüssig machen.

Der Wissenschaftstheoretiker Mainzer warnt dagegen davor, sich allzu sehr auf scheinbar „objektive“ Daten und Verfahren zu verlassen. „Warum haben Ärzte eine Wissenschaft wie die Medizin studiert, wenn sie am Ende nur noch Daten ablesen und zusammenstellen?“ so Mainzer. „Die Einordnung und das Verständnis der Daten erfordert die medizinische Urteilskraft des Arztes.“ Hierzu gehörten auch psychologisches und soziales Verständnis für die Situation eines Patienten, das nicht in Algorithmen abbildbar sei.

Stefan Rüping vom IAIS sieht statt einer Konkurrenz von Mensch und Maschine eher eine Koexistenz. „Dem Arzt werden automatisch deutlich mehr relevante Informationen zur Verfügung stehen, auf denen er seine Entscheidung stützen kann – die er aber selbstverständlich weiterhin selbst trifft.“

Probleme bei der Datenbereitstellung

Noch liegt die Erfüllung vieler Big-Data-Träume in weiter Ferne. Eine erste Hürde besteht in der Qualität und der technischen Bereitstellung der Daten. Beispielsweise liegen die theoretisch nutzbaren Datenmengen oftmals dezentral und in uneinheitlichen Dateiformaten vor – wenn sie überhaupt schon digitalisiert sind.

„Vielfach wird noch mit Papierakten gearbeitet, elektronische Patientenakten können selbst im selben Krankenhaus zwischen verschiedenen Abteilungen sehr verschiedene Formate haben und die Semantik der Daten ist durch automatisierte Verfahren nur sehr schwer zu verstehen“, erklärt Stefan Rüping zur Lage in Deutschland. Ein Großteil der Arbeit in klinischen Studien liege darin, die Daten sinnvoll und korrekt einzugeben. „Erst danach kann sinnvoll eine wie auch immer geartete Datenanalyse ansetzen.“

Auch in den USA macht die Datenqualität Probleme. Man sei bei der Datenerfassung immer noch auf 100 Jahre alte Transkriptionstechnik angewiesen, sagte jüngst der Mediziner Douglas Johnsten (Cleveland Clinic) auf einem Podium zur Frage, woran Big Data in der Medizin bisher scheitert. „Ich sehe, dass die Ergebnisse mangelhaft sind, weil Müll raus kommt, wenn Müll rein geht.“ Außerdem stellt sich die Frage, welchen Daten man trauen kann: Ob Daten etwa aus Studien der Pharmaindustrie immer zuverlässig sind, bleibt problematisch.

Zumindest im Bereich der Krebsforschung will Deutschland vorangehen. Mitte 2013 startete der Aufbau des flächendeckenden klinischen Krebsregisters. Nach einheitlichen Kriterien werden darin die Daten der Krebspatienten in Deutschland gesammelt, von der Diagnose über die Therapie bis zu Rückfällen, Genesung und Tod.

Großbritannien geht noch einen Schritt weiter, indem es mit dem Projekt Clinical Practice Research Datalink (CPRD) die Krankenakten aller Einwohner zentral sammelt und mit anderen Registern wie Gen-Datenbanken und Umweltregistern verknüpft. Der Datenschatz soll Wissenschaftlern anonymisiert zur Verfügung stehen.

Rechtliche Hürde: Datenschutz

Ebenfalls zur Debatte steht der rechtliche Rahmen für Big-Data-Forschung in der Medizin. Daten zur Gesundheit eines Menschen sind als „sensible Daten“ vom Bundesdatenschutzgesetz besonders geschützt. IAIS-Experte Rüping entwickelt im Rahmen des EU-Projekts EURECA Techniken (unter dem Stichwort Privacy-Preserving Data Mining), die im Einklang mit dem Datenschutz stehen, und beispielsweise die Anomymisierung personenbezogener Daten garantieren sollen.

Auch in Fällen, in denen die Patienten der Datenverwendung zustimmen müssen, bleiben offene Fragen. „Ein Problem ist, dass ein Patient um rechtlich und ethisch einwandfrei der Verarbeitung seiner Daten zustimmen zu können, verstehen können muss, was mit seinen Daten passiert, welche Ergebnisse zu erwarten sind und welches Risiko von Missbräuche potentiell besteht“, so Rüping. „Dies ist bei sehr komplexen Verfahren der Datenanalyse sehr schwierig.“

Krankheitsrisiken: Fluch der Erkenntnis?

Schließlich wirft Big Data in der Medizin eine Reihe von ethischen Fragen auf. Das neue Wissen um Krankheitsrisiken könnte beispielsweise Versicherungen dazu verleiten, von Riskopatienten höhere Prämien zu verlangen. „Das ist eine konkrete Gefahr“, meint der Internetforscher Mayer-Schönberger. „Hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.“ Auch die Frage nach der Prävention könnten Big-Data-Erkenntnisse neu aufwerfen. Wäre es vertrebar oder sogar geboten, gesunden Patienten vorsorglich Medikamente zu geben, weil etwa das Genprofil hohe Krankheitsrisiken anzeigt?

Schließlich steht zur Debatte, wem eine kostenintensive, personalisierte Medizin zu Gute kommt. Kann die Gesellschaft schwer kranken aber armen Patienten die Segnungen einer teuren High-Tech-Medizin verweigern? „Hier werden ethische und rechtliche Probleme der Verteilungsgerechtigkeit auf uns zukommen, von denen wir uns heute noch keine Vorstellung machen“, meint der Wissenschaftstheoretiker Klaus Mainzer.

Dem Medizinsektor ergeht es also so wie anderen gesellschaftlichen und wirtschaftlichen Bereichen:  Big Data löst große Hoffnungen aus, aber auch Ängste.

January 10 2014

Analysten-Bewertungen: Piraterie für urheberrechts-intensive Konzerne keine ernste Gefahr

Den Bewertungen US-amerikanischer Unternehmens-Analysten zufolge stellen Urheberrechtsverletzungen und Piraterie für große, urheberrechts-intensive Konzerne keine ernste Gefahr dar. Zu diesem Schluss jedenfalls kommen Jonathan Band and Jonathan Gerafi von der Kanzlei „Policybandwidth”, nachdem sie systematisch 168 Analysten-Reports durchleuchteten, worüber sie jetzt auf infojustice.org informieren.

Als Ausgangspunkt ihrer eingehenden Betrachtung (PDF) nennen die Autoren die Copyright-Debatten in den USA, in deren Verlauf große Medien- und IT-Unternehmen immer wieder betonten, dass Urheberrechts-Verletzungen deutliche Arbeitsplatz-Verluste und wirtschaftliche Schäden verursachten. Demgegenüber stellten Band und Gerafi anhand aktueller Geschäftsdaten der Unternehmen jedoch fest, dass die „copyright-intensive industries“ in den USA sehr gesund da stehen und von 2003 bis 2012 mit knapp vier Prozent Wachstum weit über dem Industrie-Durchschnitt von 0,75 Prozent lägen.

Aus dieser Gegenüberstellung entstand bei ihnen die Frage, wie wohl professionelle Analysten die vorgeblich so einschneidenden wirtschaftlichen Schäden durch Piraterie bewerten. Über den Zeitraum von 90 Tagen durchleuchteten Band und Gerafi die Berichte und Bewertungen von  knapp 30 renommierten Analysten, etwa von Barclays, Credit Suisse, Deutsche Bank, JPMorgan, Morgan Stanley und weiteren, meist international agierenden Instituten. Diese befassten sich mit den Aktivitäten und Märkten von acht führenden Konzernen: Microsoft und Adobe (Software-Hersteller), Pearson und Reed Elsevier (Verlage), Disney und Viacom/Paramount (Filmstudios), Sony/Sony Music Entertainment/Sony Pictures Entertainment und Vivendi/Universal Music Group/Canal+ (Musiklabel/Filmproduktion).

Die InfoJustice-Autoren kamen dabei zu einer durchaus überraschenden Erkenntnis: Über die insgesamt 168 Analysten-Berichte gerechnet bewerten nur 19 Prozent Urheberrechtsverletzungen als potenzielles Risiko für die Unternehmen. Andersherum gesagt: 81 Prozent der Analysten sehen in Piraterie keine ernste wirtschaftliche Gefahr für die betreffende Industrie. Im Einzelnen stellten sie fest:

  • Keiner der 14 Berichte über Reed Elsevier und keiner der 18 über Pearson nennt Copyright-Verletzungen überhaupt als Risikofaktor.
  • Nur 13 Prozent der 15 Analysen über Sony und 22 Prozent der 23 Analysen über Vivendi erwähnen Urheberrechtsverletzungen als potenzielle Gefahr.
  • Gerade einmal 8 Prozent der 26 Berichte über Viacom und 27 Prozent der 26 über Disney benennen  Copyright-Verletzungen als Risikofaktor.
  • 26 Prozent der 19 Reports über Adobe and 41 Prozent der 27 Reports über Microsoft wiesen der Piraterie eine Gefahr für die Unternehmen zu.

Interessanterweise, so die Infojustice-Autoren, fänden sich in den Geschäftsberichten für 2012 bei sechs der acht Konzerne klare Aussagen zur großen Gefahr durch Copyright-Verletzungen (außer bei Reed Elsevier und Sony). Demnach scheinen für die Analysten die offiziellen Markt-Einschätzungen der von Ihnen bewerteten Unternehmen keine große Rolle zu spielen. Gleichwohl seien die Bewertungen aber offenkundig von hohem Wert, Jahr für Jahr teuer bezahlt und zugleich wirkungsmächtig.

Die Autoren Band und Gerafi führt das zu einer interessanten, womöglich auch hierzulande relevanten  Überlegung: Wenn sich Analysten mit derlei Expertisen keine ernsten Sorgen um die „copyright-intensive Industries“ machen, sollten sich Politiker solche auch nicht machen.

December 19 2013

Wie weit darf Big Data gehen?

Körperdaten kündigen früh eine Infektion an. Facebook-Likes verraten den IQ der Nutzer. Big-Data-Analysen versprechen neue Erkenntnisse für Wissenschaft und Wirtschaft. Warum von einer Revolution zu sprechen ist, erläutert der Internetforscher Viktor Mayer-Schönberger im Interview.

iRights.info: In Ihrem Buch beschreiben Sie, wie die Analyse großer Datenmengen aus allen Lebensbereichen bestimmte Zusammenhänge erst sichtbar macht. So weiß etwa die US-Supermarktkette Walmart, dass ein bestimmter Frühstückssnack immer dann besonders nachgefragt wird, wenn ein Unwetter droht. Welche Zusammenhänge haben Sie bei Ihren Recherchen am meisten überrascht?

mayer-schoenberger

Viktor Mayer-Schönberger ist Professor für Internet Governance und -Regulierung am Oxford Internet Institute. Jüngst erschien sein Buch „Big Data. Die Revolution, die unser Leben verändern wird“ (gemeinsam mit Kenneth Cukier, Redline Verlag). Foto: Privat

Viktor Mayer-Schönberger: Besonders eindrücklich fand ich die Arbeiten von Dr. Carolyn McGregor an der Uniklinik in Toronto, die in den Daten der Vitalfunktionen von Frühgeborenen Muster erkennen konnte, die mit hoher Wahrscheinlichkeit eine Infektion vorhersagen, 24 Stunden bevor noch erste Symptome auftreten. Das hilft in Zukunft ganz unmittelbar Menschenleben zu retten.

iRights.info: Die neue Verfügbarkeit von großen Datenmengen und kostengünstiger Analysetechnik machen prinzipiell neuartige Prognosen möglich. Welchen Einfluss haben diese Vorhersagen auf das Wirtschaftsleben und was wäre möglich?

Viktor Mayer-Schönberger: Schon heute erlaubt uns Big Data, menschliches Verhalten relativ gut vorherzusagen. Das ist hilfreich in der Planung und für bessere Entscheidungen. Denn Tatsache ist, dass wir bis zu Big Data viel weniger Daten über unser wirtschaftliches Handeln hatten, als wir glaubten. Bessere Vorhersehbarkeit bedeutet geringeres Risiko – und das wiederum bedeutet geringere Volatilität. Die Märkte wären damit also weniger starken Schwankungen ausgesetzt. Eine Vorhersage der Börsenkurse, worauf manche hoffen, ist freilich in weiter Ferne, denn dazu ist die Vorhersage des Verhaltens sehr vieler Entscheidungsträger notwendig, und das ist auch in absehbarer Zukunft nicht zu stemmen.

iRights.info: Neben ökonomischen Chancen verspricht Big Data Fortschritte für die Allgemeinheit. Wo können die Analysen segensreich sein?

Viktor Mayer-Schönberger: Big Data kann uns in vielen Bereichen nutzen. In der Medizin kann Big Data zum Beispiel helfen, zu einer individualisierten und personalisierten Diagnose und Behandlung zu gelangen, die noch nicht möglich ist – wir nehmen ja heute immer noch die Standard-Dosis von Medikamenten, obwohl jeder Mensch und jeder Krankheitsfall anders ist. In der Bildung können wir mit Big Data die Chance haben, endlich besser zu verstehen, welche Lernmaterialen und Lernwerkzeuge, aber auch Lernkontexte für welche Lerngruppen optimal sind.

iRights.info: Sie betonen, dass Big-Data-Analysen zwar Zusammenhänge aufzeigen, nicht aber über ihre Ursachen Aufschluss geben. Daraus leiten Sie eine „Abwendung von der jahrtausendealten Suche nach kausalen Zusammenhängen“ ab. Umgekehrt ließe sich doch auch argumentieren, die neuen Big-Data-Beobachtungen verleihen der Suche nach ihren Ursachen erst einen neuen Schub…

Viktor Mayer-Schönberger: Beides ist zutreffend. Aber der Kernpunkt ist: Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können. Das Online-Versandhaus Amazon muss nicht wissen, warum manche Bücher mir empfohlen werden sollen und andere nicht – es reicht für Amazon, wenn ich relativ häufig aus den mir empfohlenen Büchern welche kaufe. Die Gesundheitsbehörden müssen auch nicht wissen, warum Internetsuchen mit der Verbreitung der Grippe korrelieren – wie Google Flu Trends es gezeigt hat. Es reicht zu wissen, dass anhand der Suchabfragen die Grippeverbreitung vorhergesagt werden kann.

Das ist insofern auch von Vorteil, weil wir in der Vergangenheit oftmals weniger erfolgreich in der Ursachenforschung waren, als wir glaubten, und uns mit Scheinursachen zufrieden gegeben haben. Hier zu verstehen, dass das „Was“ bereits hilfreich ist, und das „Warum“ danach kommen kann, aber nicht immer muss, erlaubt uns auch etwas demütiger zu sein. Es lehrt uns zu akzeptieren, dass wir weniger von der Welt wissen als wir glauben.

Black Box der Big-Data-Prognosen

iRights.info: Nun hat die Wissenschaft schon lange mit statistischen Methoden gearbeitet, um Erkenntnisse zu überprüfen oder erst zu gewinnen. Warum sprechen Sie in Punkto Big Data gleich von einer Revolution und nicht von einer Evolution?

Viktor Mayer-Schönberger: Weil bisher das Sammeln und Auswerten von Daten sehr zeitaufwändig und kostenintensiv war, und wir deshalb all unsere Mechanismen und Institutionen, unsere Verfahren, darauf ausgelegt haben, Antworten auf unsere Fragen aus der geringstmöglichen Menge an Daten zu gewinnen. Das bedeutet aber auch, dass wir nur jene Fragen beantworten konnten, die uns schon vor der Sammlung der Daten bekannt waren. Stehen hingegen nahezu alle Daten eines Phänomens zur Verfügung, können wir damit auch Fragen beantworten, die bei Sammlung noch gar nicht offenkundig waren.

Das ist tatsächlich ein anderer Ansatz. Es werden nicht mehr basierend auf einer Theorie Hypothesen erdacht und dann mit Daten geprüft. Hypothesen können jetzt parametrisch generiert und getestet werden. Statt also bloß eine bestimmte Hypothese zu bestätigen,  können wir aus einer großen Menge an Hypothesen die optimale finden.

iRights.info: Nun gibt es Zusammenhänge in den Daten, die intuitiv Unwohlsein hervorrufen. So ergibt etwa eine britische Untersuchung von „Gefällt mir“-Angaben auf Facebook: Fans der Motorradmarke Harley Davidson weisen eher einen niedrigeren IQ auf. Besteht die Gefahr, dass unser digitales Profil uns stigmatisiert und schließlich dazu genutzt wird, uns zu diskriminieren?

Viktor Mayer-Schönberger: Ja, diese Gefahr besteht – insbesondere wenn dank Big Data die Analyse genauer wird und damit nicht mehr so leicht vom Tisch gewischt werden kann. Es bedarf klarer gesetzlicher und gesellschaftlicher Rahmenbedingungen, wie weit Big Data gehen darf, und für welche Zwecke eine Anwendung nicht oder nur unter ganz bestimmten Bedingungen zulässig ist.

iRights.info: Was ist, wenn wir gar nicht bemerken, wie sich Algorithmen auf Entscheidungen auswirken. Vielleicht wundern wir uns irgendwann: „Warum bekomme ich keinen Kredit?“ Oder: „Warum lädt mich niemand zum Vorstellungsgespräch ein?“ Muss der Einsatz von Big-Data-Erkenntnissen in sensiblen Lebensbereichen transparent gemacht werden?

Viktor Mayer-Schönberger: Ja, es muss mehr Transparenz geben – wobei wir selbst als Betroffene mit der formalen Transparenz nicht viel anfangen können werden, weil die Zusammenhänge zu komplex sind. Dafür brauchen wir eine eigene neue Gruppe an Experten – die Algorithmiker – die diese Black Box der Big-Data-Prognosen für Betroffene öffnen können, um die Vorhersage in ihrem Namen einer Überprüfung zuzuführen.

„Wir verstecken uns heute schon”

iRights.info: Big Data kann helfen, die Lebensrisiken des Einzelnen besser einzuschätzen – etwa die Wahrscheinlichkeit eines Autounfalls, einer Sucht oder einer Krebs-Erkrankung. Versicherungskonzerne könnten diese Erkenntnisse nutzen und bei höheren Risiken höhere Prämien verlangen. Gerät so das Solidaritätsprinzip von Versicherungen in Gefahr?

Viktor Mayer-Schönberger: Das ist eine konkrete Gefahr. Auch hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.

iRights.info: Denkbar wäre auch, dass Menschen auf ihren Datenschatten besser Acht geben, weil sie die Analyse fürchten. Um nicht „dumm“ zu wirken, könnten sie eben auf den „Like“ der Motorradmarke Harley Davidson verzichten – um in diesem einfachen Beispiel zu bleiben. Führen die Big-Data-Analysen bald zur Unfreiheit des Einzelnen, zum großen Versteckspiel vor den Maschinen?

Viktor Mayer-Schönberger: Wir verstecken uns heute schon ganz regelmäßig – nicht vor der Maschine, sondern vor den anderen. Menschen schauen links und rechts, ob jemand sie beobachtet, bevor sie ein Stück Papiermüll einfach auf den Boden fallen lassen. Das Versteckspiel ist also uralt und geht natürlich auch in Zukunft weiter. Wer auf die Ergebnisse einer Big-Data-Analyse vertrauen möchte, sollte deshalb zusehen, dass dafür nur „Honest Signals“ verwendet wurden, also Signale, die zu fälschen aufwändig ist.

iRights.info: Das Sammeln von Daten ist auch eine große Wette auf die Zukunft. Google und Facebook könnten dank ihrer datenbasierten Prognose-Fähigkeiten irgendwann sagen: Jetzt steigen wir in den Aktienhandel ein oder in die Personalvermittlung. Muss der Staat die großen Daten-Sammler von heute präventiv regulieren, damit sie nicht zu Monoplisten in allen möglichen Geschäftsfeldern aufsteigen?

Viktor Mayer-Schönberger: Ja, das muss er – nicht primär wegen der Datenmonopole, obwohl es auch diese zu vermeiden gilt, sondern um zu verhindern, dass Big-Data-Infrastrukturen geschaffen werden, die nur unter großem Aufwand rückgebaut werden können. Denken Sie an die Datencenter der NSA.

iRights.info: Setzt mit dem NSA-Skandal nun das große Nachdenken über Big Data ein?

Viktor Mayer-Schönberger: Das hoffe ich – auch wenn die NSA nur die Spitze des Eisbergs ist. Mit unserem Buch wollten wir jedenfalls einen Beitrag zur Diskussion leisten.

December 16 2013

Freihandels-Mathematik: TPP noch weit vom Konsens entfernt

In der Washington Post analysiert der Politikwissenschaftler Gabriel Michael von der George Washington University, wie der Verhandlungsstand beim Freihandelsabkommen TPP der Pazifikanrainerstaaten aussieht. Bemerkenswert ist sein Vorgehen: Mathematik. Mit einer Ähnlichkeitsstrukturanalyse arbeitet er Konsens und Dissens heraus, soweit die zuletzt bei Wikileaks öffentlich gemachten Dokumente darüber Aufschluss geben. 

Die daraus resultierenden Graphen – oben der zum Kapitel über „geistige Eigentumsrechte” – lassen sich so lesen: Im Zentrum steht der Konsens, Abstände repräsentieren Differenzen. Hier zeigt sich: Australien und die USA stehen mit ihrer Position noch allein, während zwischen allen anderen beteiligten Staaten weitgehende Übereinstimmungen herrschen. Beim Urheberrecht geht es den Vereinigten Staaten unter anderem darum, die Schutzfristen auf einheitlich 70 Jahre anzuheben. Auf anderen Gebieten, etwa den Freihandels-Kernthemen Zölle, Exportquoten und Subventionen sieht das Bild wieder anders aus.

Michaels Analyse zeigt: Mit den optimistischen Verlautbarungen des US-Handelsbeauftragten (USTR) zum Abkommen ist es nicht weit her – und bestätigt damit auch Einschätzungen wie die von Knowledge Ecology International. Dass die Positionen der Beteiligten nicht übereinstimmen, ist bei einem solchen Abkommen natürlich nicht grundsätzlich überraschend  – ohne Differenzen müsste man nicht verhandeln. Die Analyse Michaels zeigt aber auch, wo Bruchlinien zwischen den Beteiligten verlaufen, die – wie etwa die Geschichte des ACTA-Abkommens zeigt – dann aufbrechen können, wenn neue Faktoren ins Spiel kommen. Zwischen welchen Staaten sich dabei Allianzen ergeben könnten, hat Michael bereits in einem weiteren Beitrag herausgearbeitet.

Eingeschränkt wird die Aussagekraft von Michaels Analysen unter anderem dadurch, dass sie nur den letzten bekannten Stand als Momentaufnahme wiedergeben und damit bereits überholt sein könnten. Ohne die Leaks allerdings wüssten wir nicht mal von Momentaufnahmen der Verhandlungen.

December 13 2013

Zeitungskrise, Verleger-Abgesänge: Das laute Pfeifen im Walde

Die Zeitungskrise ist auch 2013 im vollen Schwange – obwohl das Leistungsschutzrecht für Presseverleger sich gegen alle Kritik durchgesetzt hat. Redakteure und Verleger üben sich im Abgesang, wie Stefan Niggemeier beobachtet.

Man hatte das in all den Jahren, in denen Zeitungsverleger traumhafte Renditen einfuhren, nicht geahnt, aber anscheinend handelt es sich bei dem Boden, auf dem in Deutschland Presse gedeiht, nur um eine ganz dünne Schicht. Jeder Windstoß aus der falschen Richtung kann sie wegblasen, und dann ist es vorbei mit der Pressefreiheit und Pressevielfalt in Deutschland. Der jüngste Sturm, der sie bedroht, ist angeblich die Einführung eines gesetzlichen Mindestlohnes. Zig Millionen könnte allein die Umstellung kosten, warnen die Verleger, wenn sie ihre Zeitungsausträger so bezahlen müssten. Es drohe das Ende von Ausgaben vor allem im ländlichen Raum.

Alles, alles bedroht anscheinend die Presse in ihrer Existenz: Werbeverbote, Suchmaschinen, Aggregatoren, die vermeintliche Gratismentalität im Internet, öffentlich-rechtliche Online-Angebote und Apps, illegale Downloads, Lohn- und Honorarerhöhungen, die Umsatzsteuer. Auch das Jahr 2013 war ein einziges Lamento, ein anhaltender schriller Alarmton der Verlagslobby.

Dabei ist eine ihrer zentralen Forderungen in diesem Jahr wahr geworden: In letzter Minute, als viele die Sache schon abgeschrieben hatten, erfüllte die schwarz-gelbe Bundesregierung noch ihr Versprechen und schenkte den Zeitungs- und Zeitschriftenverlegern ein Leistungsschutzrecht – wenn auch in einer deutlich abgespeckten Version.

Inwieweit das den Verlagen oder gar dem Journalismus hilft, ist aber auch nach Inkrafttreten so offen wie vorher: Google, auf das das Gesetz mutmaßlich vorrangig zielt, ließ sich zunächst einmal von den Anbietern bestätigen, dass es eine Vorschau auf ihre Inhalte, wie gehabt, lizenzfrei anzeigen darf.

Die Verlage sind noch nicht so weit

Aber selbst wenn sie eines Tages etwa mithilfe einer Verwertungsgesellschaft die Rechte aus dem Gesetz geltend machen, spricht nichts dafür, dass das ein Befreiungsschlag wird. Es wird vermutlich um überschaubare Erlöse gehen, dafür aber viel Zeit und Gerichtsverfahren kosten. Auf der Strecke sind jetzt schon kleine Aggregatoren geblieben. Ähnlich wie bei der Auseinandersetzung mit ARD und ZDF geht es um Symbolik und ums Gesichtwahren – nicht um Ideen, wie das zentrale Problem des professionellen Journalismus mit der Digitalisierung gelöst werden kann: Das alte Geschäftsmodell, Journalismus gebündelt und gedruckt zu vertreiben und durch Kauf- und Werbe-Erlöse zu finanzieren, ist sichtbar endlich; Auflagen und Werbeerlöse bröckeln. Im Netz aber, wo die Nutzer sind, lassen sich keine vergleichbaren Erlöse durch Werbung erzielen.

Das ist nicht neu, aber das Jahr 2013 bot auch keinerlei Indizien, dass sich daran etwas ändern könnte. Allerdings gab es zwei prominente Versuche, auf diese Gemengelage zu reagieren, mit gegensätzlicher Stoßrichtung. Die Bild begann, Teile ihres Online-Angebotes kostenpflichtig zu machen. Sie inszenierte sich dabei als ein Vorkämpfer, der eine Schneise freimacht, die dem Journalismus insgesamt einen Weg zur besseren Finanzierung eröffnet. Das ist vor allem Hybris und Marketing, aber der Versuch von Bild.de ist spannend: Lassen sich Boulevard-Inhalte herstellen und online vertreiben, die so einzigartig sind, dass eine relevante Zahl von Nutzern dafür sogar zahlt?

Paywall hier, Billig-Produkt dort

Hinter der Paywall finden sich Exklusiv-Nachrichten wie die Enthüllung angeblicher Teilnehmer am nächsten Dschungel-Camp – deren Namen aber natürlich andere, kostenlose Medien sofort verbreiten. Zu aktuellen Nachrichten bietet Bild Plus gerne Hintergründe aus Archivmaterial, aber auch Bilderstrecken und einzelne aufwändig gestaltete Multimedia-Strecken. Es ist, bei aller Zweifelhaftigkeit dessen, was man bei Bild unter Journalismus versteht, ein Versuch der Axel Springer AG, etwas zu produzieren, das für die Nutzer einen Wert hat, der groß ist genug ist, dass sie dafür auch zahlen.

Im Kontrast dazu versucht der Burda-Verlag, den Aufwand so weit herunterzuschrauben, dass sich auch mit den vermeintlichen „Peanuts“, die sich laut Hubert Burda im Internet mit Journalismus verdienen lassen, erhebliche Gewinne erzielen lassen: Die deutsche Huffington Post, im Oktober gestartet, ist ein konsequentes Billig-Produkt: nicht nur durch die unbezahlten Blog-Beiträge, sondern auch eine Mini-Redaktion, die sich vor allem darauf konzentriert, abwegige, aber krawallig laute Schlagzeilen zu formulieren. Wenn das ein Erfolg wird, wäre es ein Sieg der Suchmaschinenoptimierung und der Lautstärke über den Journalismus und die Seriosität.

Der Vorstandsvorsitzende von Axel Springer, Mathias Döpfner, ist der profilierteste Gegner des Burda-Versuchs, aber auch er taugt schlecht als Lordsiegelbewahrer des professionellen Journalismus in Deutschland. Zu groß ist der Schock darüber, dass sich das Unternehmen ganz unsentimental von Marken wie dem Hamburger Abendblatt oder der Berliner Morgenpost trennt, die man gerade noch für einen unverzichtbaren Bestandteil des Konzerns hielt. Und zu unklar ist, was denn in der digitalen Welt, die Springer wie kein anderes Medienunternehmen in Deutschland zu erobern behauptet, die journalistischen Visionen sind. Döpfner musste sich schon in eine Wette flüchten: „Ich wette, dass in fünf Jahren der Qualitätsjournalismus bei Axel Springer eine noch größere Rolle spielen wird als heute.“ Das soll überzeugen, ist aber bezeichnend defensiv.

Journalismus in guten Händen?

Wenn auf die klassischen Verlagshäuser schon kein Verlass mehr ist – werden es in der neuen Welt wohl andere richten? Die Unternehmer, die in und mit der digitalen Welt reich wurden? Amazon-Chef Jeff Bezos kaufte 2013 die Washington Post, der Ebay-Gründer Pierre Omidar kündigte an, eine ganz neue Art Medienunternehmen zu gründen, mit prominenten investigativen Journalisten wie Glenn Greenwald. Doch den Berichten über solche Investitionen liest man den Zweifel an, ob der Journalismus dort in guten Händen ist, ob es sich um langfristige Engagements handelt und ob all das bedeutet, dass herausragender Journalismus in Zukunft in doppeltem Sinne ein Luxusprodukt ist: eines, das sich nur wenige Menschen leisten, und eines, dessen Finanzierung sich Millionäre als Mäzene leisten.

Die Unsicherheit, mit der Journalisten und Verleger in die Zukunft blicken, ist 2013 nicht gesunken. Und zunehmend sehen viele auch noch den Journalismus als den Feind des Journalismus. Immer lauter werden Forderungen, sich damit zurückzuhalten, die eigene Krise in der Berichterstattung zu thematisieren. „Nieder mit dem ewigen Abgesang“, überschrieb Jochen Kalka, Chefredakteur der Branchenzeitung Werben & Verkaufen ein Editorial im Herbst; klagte, dass „auch das Print-Lager selbst dazu beiträgt, sich kontinuierlich niederzuschreiben“, und fragte: „Wie doof kann man sein?“ Der Vermarktungschef von Axel Springer, Peter Würtenberger, jubelte ohne erkennbare Ironie auf Twitter: „Endlich mal ein Journalist, der schreibt, was gut für uns ist…“

foto_stefan-niggemeier_optStefan Niggemeier, Jahrgang 1969, ist freier Medienjournalist in Berlin. Er absolvierte die Deutsche Journalistenschule in München und hat unter anderem für Süddeutsche Zeitung, Die Zeit, Spiegel und Frankfurter Allgemeine Sonntagszeitung gearbeitet. 2004 gründete er zusammen mit Christoph Schultheis das Bildblog, seit 2006 bloggt er auch unter www.stefan-niggemeier.de, vor allem Medienkritisches. 2012 wurde er von der Gesellschaft für deutsche Sprache mit dem „Medienpreis für Sprachkultur“ ausgezeichnet.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

November 19 2013

Faire Entscheidung dank Fair Use

Google verletzt nicht die Rechte von Autoren und Verlagen, indem es deren Bücher einscannt und auszugsweise zugänglich macht. Das hat am Donnerstag ein New Yorker Gericht unter Berufung auf die amerikanische Fair Use Doktrin entschieden. Ein Erfolg für die Informationsfreiheit, der jedoch die Durchsetzbarkeit von Urheberrechten bei neuen Verwertungsmodellen in Frage stellt. 

Viele Internetnutzer kennen und lieben Google Books. Dort können sie eine gigantische Datenbank von mittlerweile über 20 Millionen Büchern nach Stichworten durchsuchen, und neben den Angaben zu Buchtitel, Verlag, Autor usw. auch Auszüge aus den gefundenen Werken („Snippets“) lesen. Der Service wird rege genutzt, doch nur wenige, die in dem digitalen Archiv stöbern, wissen, dass das Google Book Project (GBP) Gegenstand eines erbitterten Gerichtsverfahrens ist, das sich bereits über acht Jahre zieht.

Im Jahr 2005 gingen eine Reihe einzelner Autoren und die „Authors Gilde“ in den USA gegen Google vor, weil sie fanden, dass die Nutzung von Büchern im Rahmen des GBP ihre Urheberrechte verletze. Google habe Millionen von Büchern eingescannt, digitale Kopien an Bibliotheken weitergegeben, Bücherinformationen auf seiner Webseite gezeigt, und Textabschnitte zugänglich gemacht. All das sei ohne die Zustimmung der Rechteinhaber erfolgt. Und Google sei auch nicht bereit, Autoren und Verlage für diese Nutzung zu bezahlen.

Zähe Verhandlungen seit 2005

Drei Jahre nach Prozessbeginn schlossen die Parteien einen Vergleich, der unter anderem einen zentralen Rechte-Wahrnehmungsmechanismus vorsah. Damit wollten sie Vergütungsansprüche für Rechteinhaber schaffen, ohne dass Google für jedes einzelne Werk Nutzungsrechte erwerben oder sichern müsste. Da es sich um eine so genannte Sammelklage handelte, hätte sich der vorgeschlagene Vergleich grundsätzlich auch auf Werke ausgewirkt, deren Rechteinhaber mit der Überlassung an Google nicht einverstanden gewesen wären. Solche Rechteinhaber hätten ihre Bücher allerdings im Einzelfall vom Vergleich ausschließen können („Opt-Out“). Trotz dieser Möglichkeit des Opt-Outs war der Vergleich auf vehemente Kritik gestoßen, unter anderem von Seiten europäischer Rechteinhaber, die behaupteten, dass ihre Interessen  nicht angemessen berücksichtigt würden.

Tatsächlich brachte der Vergleich einige rechtliche Probleme mit sich. Insbesondere war fraglich, ob die Sammelklage – und damit der Vergleich – die betroffenen Personenkreise hinreichend eindeutig identifizierte (sogenannte „Class Certification“). Dies bestätigte schließlich der zuständige Richter am Federal District Court for the Southern District of New York nach Vorlage einer modifizierten Vergleichsversion von Ende 2009. Die Entscheidung wurde indes Anfang Juli 2013 vom Berufungsgericht auf Googles Einspruch hin kassiert; dem District Court wurde nun aufgegeben, zunächst zu prüfen, ob Googles Gebrauch der Bücher nicht bereits nach der amerikanischen Fair Use Doktrin gerechtfertigt sei, in welchem Fall das Problem der Class Certification und letztlich die Sammelklage sich ohnehin erledigt hätten.

Das Urteil des District Court: Google haftet nicht für Urheberrechtsverletzung

Vor diesem Hintergrund musste der District Court nun eingehend prüfen, ob die angeblichen Urheberrechtsverletzungen durch die Prinzipien des Fair Use gerechtfertigt sind. Tatsächlich berührt das GBP mehrere zum Urheberrecht gehörende Rechte, namentlich die Rechte zur Vervielfältigung, zur Verbreitung und zur öffentlichen Darstellung („Public Display“). Fair Use stellt eine sogenannte “affirmative defense” dar: Wenn eine Handlung, die die genannten Rechte eigentlich verletzt, als Fair Use angesehen wird, gilt sie als rechtmäßig, und die Inhaber der Rechte an den betroffenen Werken können weder Unterlassung noch einen finanziellen Ausgleich verlangen.

Generell ist Fair Use eine im US-amerikanischen Urheberrechtsgesetz verankerte, offen ausgestaltete Ausnahmeregelung, deren Anwendbarkeit vom Einzelfall abhängt. Ob eine Handlung Fair Use ist, wird mittels einer Abwägung von vier Faktoren beurteilt. Maßstäbe für die Bewertung der Nutzung sind: der Zweck und die Art der Nutzung – wobei es maßgeblich darauf ankommt, ob diese „transformative“ (also umgestaltend) ist -, die Art des geschützten Werkes, das Ausmaß der Nutzung im Vergleich zu dem gesamten Werk, und die Auswirkung der Nutzung auf potenzielle Märkte und Verwertungsmöglichkeiten oder auf den kommerziellen Wert des Werkes.

Zunächst schilderte der District Court ausführlich die Vorteile des GBP für Wissenschaftler, Bibliotheken, Menschen mit Lesebehinderungen und für die Allgemeinheit. Die vier Fair Use-Faktoren würden alle in eine für Google günstige Richtung weisen: Die Nutzung sei „highly transformative“, weil die Indexierung von Bücher und Texten diese für Leser und Wissenschaftler auffindbar gemacht habe. Zudem seien die Bücher durch die Digitalisierung zu elektronisch nutzbaren und nützlichen Quellen für Textanalyse oder Data Mining geworden. Darüber hinaus könne das Anzeigen von Snippets das Lesen des vollständigen Buches nicht ersetzen.

Kommerzielle Motive nicht maßgeblich

Die Tatsache, dass Google profitgetrieben sei, sei im Ergebnis nicht maßgeblich. Fair Use setze eine nicht-kommerzielle Nutzung nicht zwingend voraus. Jedenfalls habe Google die digitalen Scans nicht verkauft, und auf den Google Books-Seiten sei keine Werbung geschaltet. Die Nutzung sei also bloß indirekt kommerziell. Google habe zwar gesamte Bücher eingescannt und verwertet, aber auch dies schließe Fair Use nicht von vornherein aus. Schließlich habe das GBP keine negativen Auswirkungen auf das Verwertungspotenzial geschützter Werke, da bestehende Märkte für Bücher nicht beeinträchtigt würden. Vielmehr habe Google den Verkauf von Büchern sogar gefördert, weil eventuelle Käufer zuweilen erst durch Google Books davon erfahren würden, dass bestimmte Werke überhaupt existieren.

Google hafte auch nicht für die Überlassung von digitalen Kopien an Bibliotheken. Die Bücher seien ohnehin im Besitz der Bibliotheken, und Google habe den Bibliotheken die Scans lediglich zur Verfügung gestellt, damit diese sie zu Zwecken verwenden könnten, die ihrerseits Fair Use darstellten – also zum Beispiel zur elektronischen Indexierung ihrer Bestände. Im Ergebnis hat das Gericht nach Anwendung aller Fair Use-Maßstäbe zu Gunsten von Google entschieden und die Nutzung im Rahmen des GBP ohne Einschränkung als Fair Use anerkannt.

Wie ein roter Faden ziehen sich durch das gesamte Urteil Verweise auf die Vorteile des GBP für die Wissenschaft und die Informationsgesellschaft insgesamt. Der Zweck des Urheberrechts, wie er bereits in der Verfassung der Vereinigten Staaten verankert ist, sei die Förderung des kreativen Schaffens, wovon die Allgemeinheit schließlich profitieren solle. Das Gericht hat das GBP als technologisches Instrument betrachtet, das genau diesem Zweck diene, und daher nicht durch Verbotsrechte gehemmt werden sollte.

Für Google hätte das Verfahren nicht besser ausgehen können. Seit Anfang des Rechtsstreits hatte das Unternehmen mit Nachdruck versucht, gemeinsam mit Rechteinhabern ein Vergütungsmodell zu erarbeiten, wohlwissend, dass die Fair Use-Verteidigung allein möglicherweise nicht ausreichen würde. Nach Scheitern der Vergleichsverhandlungen und mit dem nun ergangenen Urteil hat Google kaum noch Gründe, Autoren für die Nutzung ihrer Werke zu kompensieren.

Technologieentwickler schaffen innovative Nutzungsarten für Werke und damit neue Verwertungsmöglichkeiten. Die Botschaft des District Courts ist klar: Von dem neuen Geldtopf profitieren zunächst diejenigen technologisch kompetenten Unternehmen, die solche Nutzungsarten entwickeln und auf den Markt bringen. Im Fair Use-Jargon sind zum Beispiel Nutzungen wie die Anzeige von Snippets oder verkleinerten Versionen von Bildern (Thumbnails) in den Suchergebnissen einer Suchmaschine hochgradig umgestaltend und deshalb legitim.

Gesetzgeberische Lösung und internationale Kooperation sind erwünscht

Vor diesem Hintergrund ist der Frust der Rechteinhaber nachvollziehbar. Schließlich genießen sie kraft Gesetzes Rechte an den Werken, die Gegenstand all dieser neuen Nutzungsarten sind. In einer Pressemitteilung hat die Autorengilde bereits angekündigt, in Berufung gehen zu wollen. Viel mehr können Autoren und Verlage augenblicklich nicht tun, selbst wenn sie sich in Teilen der Erde befinden, wo es einen Rechtsbegriff wie Fair Use überhaupt nicht gibt.

An den Vorteilen des GBP für Forscher und Leser kann nicht gezweifelt werden. Dessen Potenzial ist aber noch viel größer: Technisch betrachtet kann Google mit einem Knopfdruck diesen ganzen Wissensschatz nicht nur auszugsweise, sondern sogar im Volltext für alle Internetnutzer zugänglich machen. Dies würde allerdings den Rahmen des Fair Use sprengen, weshalb die Vision einer globalen Online-Bibliothek weiterhin utopisch scheint.

Der Weg bis zur Verwirklichung des Gesamtpotenzials der Bücherdigitalisierung ist noch lang. Massengerichtsverfahren und privatrechtliche Vereinbarungen scheinen der falsche Weg zu sein. Vielmehr sollte es eine gesetzgeberische Lösung geben, in der auch den Ansprüchen der Rechteinhaber Rechnung getragen wird. In Anbetracht der grenzübergreifenden Auswirkungen einer solchen Lösung, und hinsichtlich der erwünschten Beteiligung von möglichst zahlreichen Autoren am Projekt, werden dabei eine internationale Zusammenarbeit und wahrscheinlich auch völkerrechtliche Lösungsansätze unentbehrlich sein.

Zohar Efroni ist in New York zugelassener Rechtsanwalt und forscht zu Immaterialgütern und Internetrecht. Er ist Lehrbeauftragter an der juristischen Fakultät der Humboldt Universität in Berlin und an der Dualen Hochschule Baden Württemberg in Stuttgart.

November 15 2013

US-Gericht: „Die Google-Buchsuche ist nicht nur legal, sie nützt der Gesellschaft” – Ein Kommentar

Ein US-Richter hat die Google-Buchsuche für rechtens erklärt, weil sie seiner Ansicht nach von der Fair-Use-Regelung des US-Copyrights gedeckt ist. Die Entscheidung ist nicht endgültig, aber ein Meilenstein. Der deutsche Kulturrat tobt bereits, und es ist davon auszugehen, dass sich bald andere, etwa der Börsenverein, die VG Wort und Roland Reuß, anschließen werden. Sie werden wieder die Rechte der Urheber vorschieben, und sie werden wieder falsch liegen. Ein Kommentar von Matthias Spielkamp.

[UPDATE letzter Absatz, 15. 11. 2013, 15 Uhr]

Obwohl gegen die Entscheidung Berufung eingelegt werden kann und der US-Autorenverband Authors Guild auch bereits angekündigt hat, das zu tun, wird das Urteil von vielen Berichterstattern als Ende des Rechtsstreits beschrieben, der jetzt seit acht Jahren tobt. Das mag daran liegen, dass die Entscheidung völlig eindeutig ausgefallen ist – und durch einen Richter gefällt wurde, der nicht im Geringsten als Google-Freund bezeichnet werden kann.

Bundesrichter Denny Chin ist seit Jahren mit dem Mammutfall betraut und durch ihn berühmt geworden. Im Jahr 2011 hat er das so genannte Google Book Settlement abgelehnt. Mit ihm hatten Google und die Verbände von Autoren und Verlagen versucht, eine außergerichtliche Einigung zu erzielen. Da der Vergleich aber so weitreichend war und so viele Interessen betroffen hätte, musste er von einem US-Gericht anerkannt werden. Diese Anerkennung hatte Chin dem Vergleich versagt.

Von vielen Google-Gegnern war er dafür als Verteidiger der Autorenrechte gefeiert worden, die natürlich – so ein Zufall! – ganz übersehen hatten, dass es ein Vergleich zwischen drei Parteien war – Google auf der einen, Autoren und Verlagen auf der anderen Seite. Und die Autoren und Verlage hatten sich auf den Vergleich eingelassen, weil sie vor Gericht etwas zu verlieren hatten. Denn für sie gab es ein Szenario, das sie als Risiko begriffen haben: Dass in einem Rechtsstreit heraus kommen könnte, dass die Digitalisierung und Indexierung von Büchern vom Grundsatz des Fair Use gedeckt – und damit völlig legal – sein könnte und kein Autor und Verlag von Google um Erlaubnis gebeten werden muss.

Gerade deutsche Akteure hatten diesen Aspekt immer – man kann getrost unterstellen: absichtlich – ausgeblendet, um argumentieren zu können, Google breche geltendes Recht und habe sich deshalb auf einen Vergleich eingelassen. Das hat nie gestimmt, auch wenn die Lobbyisten sogar das deutsche Justizministerium davon überzeugen konnten, eine entsprechende Eingabe an Richter Chin zu formulieren. Google wollte einfach nur einen jahrelangen Rechtsstreit und die daraus folgende Unsicherheit vermeiden. Und natürlich das Risiko, am Ende zu unterliegen.

Urheberrecht & Propaganda

Und genauso, wie die Lobbyisten der Rechteinhaber immer fälschlich behauptet haben, Google verstoße gegen Gesetze (weil genau das ja der Streitpunkt war), haben sie unterschlagen, dass etliche der Rechtsexperten, die sich kritisch zum Vergleich geäußert hatten, zugleich immer die Ansicht geäußert haben, die Digitalisierung und Indexierung sei eben genau durch Fair Use gedeckt – allen voran Pamela Samuelson. Diese Differenzierung hat in der deutschen Aufregung nie ein Rolle gespielt, in der stets nur der milliardenschwere „Datenkrake“ Google gezeichnet wurde, der den armen, vereinzelten Autoren das Urheberrecht klauen wolle.

Dass das, was Börsenverein, Kuturrat, VG Wort und andere für illegitim halten und wahrheitswidrig als illegal dargestellt haben, tatsächlich rechtens sein könnte, hat sich nun erwiesen. Die Forderung, dass auch Google sich an Recht und Gesetz zu halten habe (die natürlich immer mit der Unterstellung verbunden war, das Unternehmen tue es nicht), erscheint nun in einem anderen Licht.

Was die Interessenvertreter nicht daran hindert, dort weiter zu machen, wo sie damals aufgehört haben. In seiner neuesten Pressemitteilung schäumt der deutsche Kulturrat:

Das Unternehmen Google scannte zu Anfang des neuen Jahrtausends Millionen Bücher ein, zum Teil ohne die Urheberrechte der Autoren zu wahren. Amerikanische Autorenverbände und in Deutschland unter anderem die Verwertungsgesellschaft Wort versuchten und versuchen, die Rechte der Autoren und Verlage gegenüber Google zu verteidigen. Der Deutsche Kulturrat fordert seit Jahren, dass auch in der globalisierten digitalen Welt geistiges Eigentum geschützt wird. (Hervorhebung im Original)

Nun, werter Kulturrat: Denny Chin hat gerade entschieden, dass eben doch die Urheberrechte der Autoren gewahrt wurden. Aber dass es eben einen erheblichen gesellschaftlichen Wert hat, die Bücher einzuscannen und durchsuchbar zu machen, und dass daher die Verbotsrechte von Urhebern und Verwertern dahinter zurück treten müssen. Es stimmt: diese Entscheidung wäre so nach deutschem Recht nicht möglich gewesen. Daraus zu schließen, dass in einer „globalisierten digitalen Welt geistiges Eigentum“ nicht geschützt wird, ist, nun ja: Propaganda.

Denny Chin schreibt, aus seiner Sicht sind „mit Google Books substanzielle öffentliche Vorteile verbunden. Es fördert den Fortschritt von Kultur und Wissenschaft, während es gleichzeitig die Rechte von Autoren und anderen Kreativen respektiert und keine negative Folgen für die Rechteinhaber hat.“ (Übersetzung von Leonard Dobusch). Denn

  • Google Books sei ein neuer und einfacher Weg, um Bücher zu finden;
  • Es mache Millionen von Büchern durchsuchbar;
  • Google Books habe sich zu einem Forschungswerkzeug entwickelt;
  • Es vereinfache die Überprüfung von Zitaten und Quellenangaben;
  • Der Zugang zu Büchern werde erweitert, vor allem vergriffene Bücher und solche, die vergessen in den „Gedärmen“ der Bibliotheken lagern, und Bücher werden dadurch dauerhaft verfügbar gehalten;
  • Es verschaffe Menschen mit Lesebehinderungen und in abgelegenen Orten einen besseren Zugang zu Büchern;
  • Es erzeuge ein neues Publikum und erschließt Autoren und Verlagen neue Einkommensquellen.

„In der Tat“, so Chin, „nützt es der gesamten Gesellschaft.“

Falsches Mittel Urheberrecht

Dass diese Einschätzung so stehen gelassen werden kann, muss bezweifelt werden. Die Buchsuche wird dazu führen, dass Google noch einmal mehr über unsere intimsten Interessen erfährt, und damit auch NSA, GCHQ, BND und viele mehr. Es wird Googles Dominanz in der Informationswirtschaft mit weit reichenden Folgen verstärken. Die Idee, Googles formuliertes Interesse, „alle Informationen der Welt zu organisieren und sie weltweit zugänglich und nutzbar zu machen“ sei wertfrei, unschuldig und rein altruistisch, ist, wie Evgeny Morozov in der FAZ zutreffend schreibt, ebenso naiv, wie zuzulassen, dass „Halliburton das gesamte Erdöl der Welt organisiert“.

Und ja: Selbstverständlich sollte es nichtkommerzielle, gemeinnützige Angebote geben, die Googles Buchsuche etwas entgegen setzen, die nicht das Leseverhalten der Nutzer speichern und nicht allein darauf ausgerichtet sind, den Profit zu erhöhen. Doch der Versuch, diese Forderungen mit dem Urheberrecht durchsetzen, ist nicht nur wenig aussichtsreich, sondern auch politisch völlig falsch. (UPDATE 15 Uhr: Und, wie Leonard Dobusch bei netzpolitik.org völlig richtig schreibt: „Die größte Hürde für gemeinnützige Angebote ist aber just das von Zimmermann beschworene unflexible Urheberrecht in Europa, das auch gemeinnützige Digitalisierungsprojekte verunmöglicht.”) Vor allem sollte sich kein Autor mit Selbstachtung vor diesen Karren spannen lassen.

November 13 2013

Rechtekapitel des TPP-Abkommens geleakt

Im Blog der NGO „Knowledge Ecology International” analysiert James Love die ersten bei Wikileaks aufgetauchten Textabschnitte der „Trans-Pacific Partnership”, eines in der Entstehung begriffenen neuen Handelsabkommens wichtiger Pazifik-Anrainerstaaten. Die geleakten Abschnitte (WikileaksMirror) befassen sich mit dem rechtlichen Schutz immaterieller Güter und damit auch dem Urheberrecht.

Das derzeit verhandelte Abkommen betrifft demnach unter anderem Schutzfristen, den Schutz technischer Maßnahmen, die Gestaltung von Schrankenregelungen und den Zugang zu medizinischen Produkten. Der wohl wichtigste Punkt in der Analyse Loves: Sehr viele wichtige Regelungen sind noch umstritten und die letztendlichen Lösungen nach wie vor offen. Das Abkommen hat also noch Gestaltungsspielraum in verschiedene Richtungen. Zugleich heißt es:

The document confirms fears that the negotiating parties are prepared to expand the reach of intellectual property rights, and shrink consumer rights and safeguards.

Ob aus den Leaks Rückschlüsse auf die ebenfalls laufenden Verhandlungen um das – teils ähnlich gelagerte – transatlantische Abkommen TAFTA/TTIP gezogen werden können, bleibt unklar.

November 12 2013

Castex vs. Vitorino: Die Zukunft der Privatkopie in Europa

Das System der Privatkopie-Vergütung ist in Europa uneineinheitlich geregelt. Mit den Berichten von Françoise Castex und António Vitorino gibt es gleich zwei Papiere, die Neuregelungen entwerfen, aber zugleich am bestehenden System festhalten. Joachim Losehand vom Verein für Internet-Benutzer Österreichs (VIBE!AT) vergleicht und kommentiert.

Nicht nur in Österreich sind die Privatkopie und die „Leerkassettenvergütung” ein intensiv diskutiertes Thema. Schon die ur-österreichische Debatte um die Einführung einer „Festplattenabgabe” weist über die Grenzen. Händler, Hersteller und Importeure argumentieren gegen die Erweiterung der Abgabe auf jegliche Speichermedien(geräte), dass im europäischen Ausland geringere Vergütungen an die Verwertungsgesellschaften bezahlt werden müßten und ihnen damit im Binnenmarkt ein Wettbewerbsnachteil zugemutet werde. Denn jeder Konsument könne im Ausland billiger Speichermedien erstehen und dann zum eigenen Gebrauch nach Österreich einführen.

Doch nicht nur die Höhe der Abgabe ist in Europa unterschiedlich geregelt. Auch die Art, wie die Vergütung eingehoben wird, ist von Land zu Land unterschiedlich. Zwar knüpfen die meisten Länder, wie Deutschland, Finnland, die Niederlande usw., die Einhebung an die Geräte oder Leermedien. Doch in Polen ist die Abgabe Teil des Endverbraucherpreises der urheberrechtlich geschützten Werke wie Bücher, Filme usw., also nicht an ein Leermedium geknüpft.

Und in Norwegen – nicht Mitglied der EU, aber Teil des Europäischen Wirtschaftsraumes – wird die Abgabe aus Budgetmitteln abgeführt, das heißt indirekt über die Steuerbelastung. Luxemburg kennt als einziges EU-Land zwar das Recht zur Privatkopie, aber keine Kompensation dafür, was einerseits in der Theorie mit internationalen Verträgen und EU-Recht nicht vereinbar ist, andererseits in der Praxis natürlich dazu führt, dass Luxemburg eine Drehscheibe für den Import und Handel für Leermedien und Speichergeräte ist.

Beim Thema „Privatkopie und Vergütung” in Europa an einem Strang zu ziehen, ist also auch ohne die Binnenmarkt-Doktrin plausibel.

Vitorino: Abgabensysteme vs. Binnenmarkt

Der ehemalige EU-Kommissar für Justiz und Inneres, António Vitorino, war im Auftrag des Binnenmarkt-Kommissars Michel Barnier mit dem Vorsitz einer Vermittlung zwischen den Interessengruppen beauftragt worden und hat im Januar 2013 seinen Abschlussbericht vorgelegt.

Drei grundlegende Aspekte streicht sein Bericht heraus:

  1. Der Begriffs des (tatsächlichen) „Schadens”, der Urhebern und Rechteinhabern durch das Recht zur Privatkopie entsteht und für den die Höhe der Kompensation entscheidend ist, soll EU-weit einheitlich geregelt werden.
  2. Wenn private Endkunden von einem Werk eine Nutzungslizenz für mehrere Endgeräte erwerben, sind diese lizenzierten Kopien auf den verschiedenen Geräten keine Privatkopie im Sinne des Gesetzes und sind darum auch nicht vergütungspflichtig.
  3. Das Abgabensystem soll beim Händler vor Ort ansetzen und nicht, wie bislang üblich beim Importeur, der zwar die Abgabe abführen muß und dafür haftet, jedoch die Kosten an die Händler weitergibt.

In jedem Fall soll das System für alle Beteiligten praxisnaher, vor allem auch die Endverbraucher transparenter und grundsätzlich einfacher werden. Am System der Geräte- bzw. Medien-abhängigen Abgabeneinhebung soll jedoch festgehalten werden.

Castex: Privatkopievergütung vor Nutzungslizenzen

Einen weiteren Bericht als Anstoß für eine Resolution des Europäischen Parlaments hat die französische Europaabgeordnete Françoise Castex kürzlich veröffentlicht, der von der Bürgerrechtsorganisation European Digital Rights, Partnerorganisation von VIBE, kommentiert wurde.

Françoise Castex unterstreicht die Wichtigkeit des Rechts zur Privatkopie und besonders auch die Höhe der eingehobenen Summen (EU-weit 600 Millionen Euro jährlich), die Künstlern bzw. Rechteinhabern direkt oder indirekt zugute kommen und damit den Sektor Kunst und Kultur nachhaltig fördern. Ähnlich wie für die österreichische Initiative „Kunst hat Recht” sind für sie die Einnahmen aus der Privatkopie ein wesentliches finanzielles Standbein von Kunst und Kultur. Darum rät sie auch dazu, etwaige „Anti-Piraterie”-Kampagnen in „Pro-Privatkopie“-Kampagnen umzuwidmen und bei aus Mitteln der Privatkopie geförderten Produktionen ausdrücklich darauf hinzuweisen.

Zusätzlich zu Speichermedien und -geräten sieht Françoise Castex die Möglichkeit, grundsätzlich auch bei Diensten („services”), die Privatkopien ermöglichen, eine Abgabenpflicht vorzusehen. Im Unterschied zum Vittorino-Report schlägt sie vor, weiterhin die Abgabe einheitlich bei Herstellern und Importeuren einzuheben. Und sie betont, dass private Nutzungslizenzen kein Ersatz für die Privatkopie darstellen und dass diese Nutzungslizenzen das Recht zur Privatkopie nicht aushebeln können. Folgerichtig fordert sie die Industrie dazu auf, DRM-Schutzmaßnahmen nicht anzuwenden, da diese ja eine legale vergütungspflichtige Privatkopie verhindern.

Den bei jeder „Leerkassettenvergütung” bestehende Widerspruch, eine konkrete tatsächliche Höhe des monetären Ersatzes für den möglichen, das heißt fiktiven Schaden zu ermitteln, greift sie in ihrem kurzen Papier jedoch nicht an, sondern beläßt es beim üblichen Status quo: Auch in Österreich wird die Höhe der jeweiligen Vergütung vornehmlich zwischen Verwertungsgesellschaften und Wirtschaftskammer ausgehandelt.

Zwei mal Festhalten am bestehenden System

Dem Vitorino-Report gehören deutlich mehr Sympathien seitens der Digitalen und Kreativwirtschaft, während beim Castex-Papier natürlich die Handschrift der Verwertungsgesellschaften und Rechteinhaber-Vertretungen sichtbar ist. Die Verhandlungen sind im Fluss und beide Stellungnahmen sind Teil des politischen Willensbildungsprozesses.

Allgemein fraglich ist jedoch: die übereinstimmende Verknüpfung der Privatkopie-Abgabe an multifunktionale physische Geräte und Datenträger und die Tatsache, dass eine Kompensation für einen fiktiv oder tatsächlich erlittenen Schaden für Urheber und Rechteinhaber als eine unverzichtbare Säule zur Kunst- und Kulturfinanzierung festgeschrieben wird.

Jedenfalls ist das Modell, einen Gutteil des (kulturellen) Lebens nicht durch Leistungen, sondern durch Entgelte aus Schadenersatzansprüchen zu finanzieren, nicht auf den Markt und nicht auf unser eigenes Leben plausibel anwendbar. Was aber der Lebensunwirklichkeit des Urheberrechts auch allgemein entspricht.

Dieser Beitrag ist ein Crosspost von unwatched.org mit freundlicher Genehmigung.

November 11 2013

Neue AGB: Google-Nutzer machen soziale Reklame

Was bei Facebook schon länger üblich ist, führt auch Google jetzt ein: soziale Reklame. Heute treten dafür neue Nutzungsbedingungen in Kraft. Während die sogenannten „sozialen Empfehlungen“ automatisch aktiviert sind, müssen Nutzer Anzeigen mit diesen erst zustimmen.

Wer ein Google-Plus-Profil besitzt und damit zum Beispiel ein Restaurant bewertet, kann bei den Diensten des Unternehmens nun auch zum Werbeträger werden. In den heute in Kraft tretenden neuen Nutzungsbedingungen erklärt das Unternehmen, Nutzeraktionen als „soziale Empfehlungen” zu verwerten. Das können unter anderem Kommentare, Bewertungen und „+1”-Klicks sein, die nun mit Name und Profilfoto in Suchergebnissen und begleitenden Anzeigen angezeigt werden können.

Die Änderung wurde vor einigen Wochen bereits angekündigt, in der Fußzeile bei Google findet sich ein Hinweis darauf. Zu einer ausdrücklichen Zustimmung fordert Google die Nutzer bis jetzt nicht auf. Unterschiedliche Berichte gab es bislang dazu, ob die neue Empfehlungsfunktion automatisch aktiviert wird oder nicht. Tatsächlich verwendet Google eine Mischung aus beiden Varianten: Wer auf die neue Einstellungsseite für „soziale Empfehlungen” geht, muss dort erst ein Häkchen setzen, um Google zu erlauben, seinen Namen und das Profilbild in Anzeigen zu verwenden. Ein Beispiel für eine solche Anzeige wird auf der Seite aufgeführt:

google-anzeige-spa

„Soziale Empfehlung in Anzeigen”. Screenshot: google.com.

Nicht davon betroffen sind allerdings solche Empfehlungen, die „an anderen Stellen als in Anzeigen erscheinen”, wie es auf der Einstellungsseite heißt. Diese werden also automatisch aktiviert, ein Opt-out ist hier nicht vorgesehen – Google weist allerdings darauf hin, dass Nutzer die Sichtbarkeit solcher Empfehlungen einstellen können. Zwei Beispiele zeigt die Seite ebenfalls:

„Soziale Empfehlung” ohne Anzeige. Screenshot: google.com.

„Soziale Empfehlungen” ohne Anzeige. Screenshot: google.com.

Opt-our nur für Empfehlungen bei Anzeigen

Grundsätzlich gilt die neue Funktion „soziale Empfehlungen” also für alle Nutzer von Google Plus. Nur wo diese Funktion auch in bezahlten Anzeigen verwendet wird – bei Google dezent farblich unterlegt –, muss der Nutzer zustimmen. Unbezahlte Reklame aber machen im Grunde alle Nutzer, die ein entsprechendes Profil eingerichtet haben und deren Aktionen nun als „soziale Empfehlungen” auch an anderer Stelle dargestellt werden können. Erst wenn ein Werbekunde die Suchbegriffe kauft, werden diese Empfehlungen dann zusätzlich als Anzeige geschaltet.

Ob es für Nutzer verständlich ist, dass sie das Aktivierungshäkchen nur für „Anzeigen”, nicht aber für andere „soziale Empfehlungen” setzen können, muss sich noch zeigen. Wer nicht akribisch auf die Formulierungen achtet, könnte diesen Unterschied leicht übersehen.

Im Wortlaut heißt die neue Passage in den Nutzungsbedingungen:

Wenn Sie ein Google-Konto haben, zeigen wir im Rahmen unserer Dienste zusammen mit Ihrem Profilnamen und Profilbild Aktivitäten an, die Sie in unseren Diensten oder in Diensten Dritter, die mit Ihrem Google-Konto verbunden sind, vornehmen (zum Beispiel +1s, Bewertungen und Kommentare, die Sie posten). Sofern wir hierfür Ihre Einwilligung erhalten haben, erfolgt dies auch im Rahmen unserer Werbedienste. Die von Ihnen im Google-Konto vorgenommenen Einstellungen zum Teilen und zur Sichtbarkeit berücksichtigen wir auch insoweit.

Soziale Reklame: Vorreiter Facebook, Nutzer mürrisch

Facebook hat solche soziale Reklame schon länger eingeführt. Während Werbetreibende sich über die neue Funktion freuen – gelten Empfehlungen von Freunden und Bekannten doch als besonders glaubwürdig – stieß sie bei vielen Nutzern auf Kritik. Wohl auch, weil sie sich bei der Einführung überrumpelt sahen. Eine Sammelklage in Kalifornien gegen die neuen Regeln endete mit einem Vergleich – und einer von Facebook als „Präzisierung” bezeichneten Änderung der Datenschutzbestimmungen. Wie ein Echo darauf wirkt nun die Erklärung, die Google in einer Zusammenfassung der neuen Änderungen gibt: Allein der Nutzer bestimme, wer was sehen darf. „Denn bei Google entscheiden Sie, was Sie mit anderen teilen”, lobt sich das Unternehmen.

Facebook kennt mittlerweile mehrere Schattierungen sozialer Reklame. Bei den sogenannten „Sponsored Stories” wird einem Nutzer zum Beispiel angezeigt, wenn seinem Facebook-Freund eine Kaffeehauskette gefällt; die entsprechende „Interaktion” wird in der Timeline sichtbarer. Ähnlich funktionieren „soziale Werbeanzeigen”, bei denen daraus ein Banner in der Werbespalte wird. Die letzte Variante können Nutzer abschalten, die erste allerdings nicht. Facebook selbst erklärt das bis heute recht kryptisch.

Mit der eigens eingerichteten Erklärseite versucht Google ähnlich negative Resonanz nun erkennbar zu vermeiden – ob mit Erfolg, wird sich zeigen. Grundsätzlich nicht in Anzeigen verwendet werden sollen Empfehlungen von Nutzern unter 18 Jahren. Mit der neuen Funktion jedenfalls entwickelt Google zugleich sein Werbemodell weiter: Bislang waren die Daten der Nutzer die Grundlage für fein austarierte Werbeschaltungen, nun werden zusätzlich die Nutzer selbst zu Werbeträgern gemacht. Zugleich verschafft Google dem eigenen sozialen Netzwerk Google Plus noch mehr Sichtbarkeit bei seinen anderen Diensten.

Weitere AGB-Änderungen: Nutzer sollen achtsam sein

Daneben hat Google weitere Änderungen und Ergänzungen in den Nutzungsbedingungen vorgenommen. Das Unternehmen hat einige Sätze hinzugefügt, in denen die Nutzer zum umsichtigen Verhalten mit mobilen Geräten aufgefordert werden – hier werden besonders Verkehrsregeln und Sicherheitsvorschriften genannt. Damit dürfte auch eine weitere Änderung im Abschnitt „Haftung für unsere Dienste“ zusammenhängen, der nun auch Ausführungen zu Verletzungen und gesundheitlichen Schäden enthält.

Die Frage einmal ausgeklammert, ob die Bestimmungen hierzulande nötig und zulässig sind, geht es Google hier augenscheinlich darum, alle Nutzungsszenarien und Eventualitäten bei mobilen Anwendungen – etwa dem Navigationsdienst von Google Maps – auch in den Nutzungsbedingungen abzudecken. Neu ist zudem eine Passage, die dazu anhält, das Passwort für ein Google-Konto vertraulich zu behandeln und nicht bei Diensten anderer Unternehmen noch einmal dasselbe zu verwenden.

Wer selbst nachlesen will: Hier die neuen und alten Nutzungsbedingungen im Textvergleich.

google-tos-diff

October 25 2013

Berlin und Brandenburg mit Umfrage zur Kultur- und Kreativwirtschaft

Der Berliner Senat, das Brandenburger Wirtschaftsministerium und die jeweiligen IHK-Verbände haben eine Onlineumfrage gestartet, die in einen neuen „Kultur- und Kreativwirtschaftsindex” münden soll. In der Ankündigung heißt es:

Wie ist die wirtschaftliche Situation in den verschiedenen Teilbranchen der Kultur- und Kreativwirtschaft? Wie kann die Auftragslage verbessert werden? Wo ist welche Unterstützung nötig? Wie sind die Zukunftserwartungen in der Branche? Dies sind Fragen, die beantwortet werden sollen. Und je höher die Beteiligung an der Umfrage ist, desto besser können Politik und Verwaltung diese Branchen mit verschiedenen Maßnahmen fördern.

Aufgerufen zur Teilnahme sind „Entscheider aus Unternehmen”, wozu in der Kreativwirtschaft natürlich auch Freiberufler und weitere Unternehmer ihrer selbst zählen. Folgende Branchen werden aufgezählt:

Architektur, Buchmarkt, Pressemarkt, Rundfunk, Filmwirtschaft, Musikwirtschaft, Kunstmarkt, Markt für darstellende Künste, Mode, Designwirtschaft, Games, Software/ Multimedia, Telekommunikation, Werbung/ PR

Wer teilnehmen will, findet hier den Weg zur Umfrage.

October 15 2013

Immer wieder Einstein, Picasso und Post-its: Thomas Frank über den Mythos der Kreativität

Wer was auf sich hält, ist heutzutage kreativ – dafür stehen ganze Bibliotheken an Ratgeberliteratur bereit. Thomas Frank hat sich durch einige davon gelesen, war aber schnell gelangweilt: Alle erzählen von Einstein, Gandhi, Picasso und der Erfindung der Post-it-Notes bei 3M. Ausgerechnet die Literatur über Kreativität zeigt sich bemerkenswert unkreativ:

Those who urge us to “think different,” in other words, almost never do so themselves. Year after year, new installments in this unchanging genre are produced and consumed. Creativity, they all tell us, is too important to be left to the creative.

Frank wühlt sich dann – passenderweise in der Badewanne – weiter durch die Bücher von Steven Johnson, Mihály Csíkszentmihályi und Richard Florida. Sein Heureka:

The reason these many optimistic books seemed to have so little to do with the downward-spiraling lives of actual creative workers is that they weren’t really about those people in the first place.

Die ganze Geschichte hier bei salon.com.

September 24 2013

Gedichte schreiben im Labor: Wie Forscher das Urheberrecht untersuchen

Sarah Laskow berichtet in der Columbia Journalism Review über einen neuen Schwung an Forschungen zum Urheberrecht, die empirisch und nicht nur rechtstheoretisch arbeiten. Bemerkenswert daran ist zunächst, dass es solche Untersuchungen überhaupt gibt:

Interest groups in Washington DC are not known for their strict adherence to facts. But in this particular debate, ideas and intuitions hold unusual sway. Not only does real-world evidence not matter much, it often doesn’t exist. (…) It’s strange that this is the case: Intellectual property is a legal idea rooted in economic assumptions that can be tested.

Vorgestellt werden unter anderem Arbeiten von Christopher Buccafusco, Professor am Illinois Institute of Technology, und Christopher Sprigman, Rechtsprofessor an der New York University. Sie haben in einem Experiment untersucht, wie sich Teilnehmer auf einem Markt für Haikus verhalten:

In one experiment, they had one group of subjects write three-line haikus, to be entered in a contest with a prize of $50. These authors had the option of selling their poems (and the chance to win $50) to another group, the bidders. Both the authors and the bidders were asked to value how much a particular haiku was worth.

Das Ergebnis bestätigt für die Wissenschaftler „Endowment-Effekte”: ein Konzept der Verhaltensökonomik, nach dem der Wert eines Guts höher eingeschätzt wird, wenn man es besitzt. Das gelte auch für geistige Werke, die man selbst geschaffen hat, sagen sie. Ihre Schlussfolgerung: Solche Märkte sind danach weniger rational als in den Modellen angenommen wird, die auch das Copyright begründen.

US-Forscher haben es gut: Ob Urheberrechte geistiges Schaffen und Innovation fördern oder nicht (so die Idee des US-Copyrights), lässt sich leichter untersuchen als die Konzepte, die in Europa hinter dem Urheberrecht stehen. Das „unsichtbare Band” zwischen dem „Schöpfer“ und seinem Werk werden sie wohl lange suchen. Man kann ja auch nicht alles im Labor klären. Aber, wie Laskow über die Motivation der Forscher schreibt:

Mostly, they’re hoping that, in the next round of copyright lawmaking, they’ll have some evidence to present lawmakers to help them better understand how the laws they’re making work—that the debate will be informed, just a little bit, by empirical, independent research.

Hier der ganze Bericht, hier das im Artikel nicht verlinkte Experiment von Buccafosco und Sprigman.

September 10 2013

Ben Scott: „Das Internet ist zu einem öffentlichen Gut geworden“

„Betrachten wir das Internet als ein öffentliches Gut – oder als eine kommerzielle Dienstleistung?“ Auf diesen Gegensatz spitzte Ben Scott seine Keynote zur Netzneutralität zu, die er gestern beim Internationalen Medienkongress in Berlin hielt. Seiner Ansicht nach ist die Gesellschaft zu einer Grundsatzdebatte aufgefordert.

Ben Scott war Berater für Innovation bei US-Außenministerin Hillary Clinton, seit kurzem leitet er gemeinsam mit Stefan Heumann das Programm „Europäische Digitale Agenda“ bei der in Berlin ansässigen Stiftung Neue Verantwortung. Aus seiner Sicht war das Internet einst als regulierter kommerzieller Dienst gedacht, doch durch seine weltweite, massenhafte und auf mobile Kommunikationsgeräte ausgedehnte Verbreitung sei es zu einem öffentlichen Gut geworden. Und Wesen eines öffentlichen Gutes sei es, quasi im Überfluss und für jeden gleichberechtigt verfügbar zu sein, sich „neutral“ gegenüber Nutzern und Nutzung zu verhalten.

Dem stünde gegenüber, dass Nutzungsmöglichkeiten eingeschränkt und Nutzer ungleich behandelt würden, weil Zugangs- und Transport-Methoden kommerzialisiert werden. Gewiss komme es in der gesamten Internet-Infrastruktur immer wieder zu technologisch bedingten Engpässen und Stau-Situationen, die nur mit großem Aufwand und Investitionen aufgelöst werden könnten. „Und dass große Unternehmen, wie in Deutschland die Deutsche Telekom, sich diese Engpässe zu Nutzen machen wollen und auf Basis von Kommerzialisierung die Verknappung favorisieren, das sollte nicht verwundern. Es ist doch vielmehr zu erwarten, dass Manager eines Wirtschaftsunternehmens so handeln müssen, auch wenn sie so eine Art ‚kreative Zerstörung’ des quasi-öffentlichen Kommunikationsraums Internet betreiben“, so Scott: „Wenn viel Geld im Spiel ist, geht bei Unternehmen die Rationalität verloren“.

Doch genau deswegen halte er staatliche Richtlinien für erforderlich, um die Netzneutralität zu erhalten. In Deutschland sei ein breiter gesellschaftlicher Diskurs dringend notwendig, um solche Richtlinien zu entwickeln und durchzusetzen. Hierfür sehe er unter anderem die Bundesnetzagentur in der Pflicht, aber auch die einzelnen Landesmedienanstalten, um entsprechende Entwürfe zu erarbeiten. Wenn sich die Gesellschaft für das Internet als öffentliches und neutrales Gut entscheide, so Scotts, dann müssten es auch als Teil der staatlichen Fürsorge  betrachtet werden, Netzneutralität zu sichern und auszubauen. Doch bis dahin sei es wohl noch ein langer Weg mit vielen Debatten.

August 27 2013

Grenzenlos verwertet – angemessen vergütet?

Auf europäischer Ebene wird derzeit über neue Regulierungen für Verwertungsgesellschaften verhandelt. Die EU-Kommission muss dabei Porzellan zusammenfügen, das sie durch ihre Binnenmarktpolitik selbst zerschlagen hat, so Gerhard Pfennig, Sprecher der Initiative Urheberrecht. Im Gastbeitrag für iRights.info resümiert er den Stand der Dinge und schätzt die Aussichten für die neue Richtlinie ein.

Warum gibt es Verwertungsgesellschaften? Die ersten solcher Vereinigungen entstanden im späten 19. und im frühen 20. Jahrhundert in Frankreich: Als Schutz – und Solidargemeinschaften von Komponisten und Bühnenautoren, die sich gegen die für den individuellen Autor nicht kontrollierbare Nutzung ihrer Werke zur Wehr setzten. Dafür gründeten sie Genossenschaften, die einerseits Nutzungsrechte vergeben und andererseits Vergütungen für die Nutzungen der Werke zugunsten der Urheber einziehen sollten.

Zugleich sollten sie die im Künstlerleben erfahrungsgemäß auftretenden Einkommensschwankungen und insbesondere die Altersarmut ausgleichen. Zu diesem Zweck wurde ein Teil der Erlöse an Sozial- und Unterstützungseinrichtungen abgeführt. Beide Ziele gehören in den kontinentaleuropäischen Ländern bis heute zum Auftrag der Verwertungsgesellschaften, während die angelsächsischen Staaten auf vollständiger Ausschüttung der Erlöse bestehen und diese Regelungen ablehnen.

Aus diesen Wurzeln haben sich besonders im Musikbereich starke Verwertungsgesellschaften entwickelt, die den musikalischen Autoren und ihren Verlegern – in den frankophonen Staaten auch den Regisseuren und Film- und Dokumentarautoren – den wesentlichen Teil ihres Lebensunterhalts aus urheberrechtlicher Tätigkeit sichern.

Ein notwendiges, aber nützliches Übel

Das Problem der Rechtsdurchsetzung war und ist, dass die Urheber in den meisten Fällen ihren Primärmarkt außerhalb kollektiver Mechanismen der Rechteverwaltung bedienen. Anders ist es im musikalischen Bereich, in dem Verwertungsgesellschaften auch im Primärmarkt agieren. Der Schriftsteller aber verhandelt individuell mit dem Verleger einen mehr oder weniger befriedigenden Vertrag; die Künstlerin sucht sich einen Galeristen und muss froh sein, wenn zum Anfang ihrer Karriere ihre Werke am Markt angeboten, abgebildet und ins Internet gestellt werden. Für diese Urheber ist ein starkes Urhebervertragsrecht unverzichtbar, denn dem Verwerter stehen sie in den meisten Fällen ebenso wie die audiovisuellen Urheber Aug in Auge und meist als der schwächere Verhandlungspartner gegenüber.

Für die Unternehmen der Kulturwirtschaft sind Verwertungsgesellschaften notwendige, allerdings meist auch sehr nützliche Übel. Einerseits bestehen sie darauf, dass Werknutzungen angemessen vergütet werden und verfügen meist über ausgebaute Kontrollinstrumente, die nicht geregelte Nutzungen erfassen. Andererseits ist es wesentlich einfacher für einen Nutzer urheberrechtlich geschützter Werke – zum Beispiel den Bildverleger –, diese Rechte im Bündel, in einem Arbeitsgang und zu bekannten und öffentlich zugänglichen Bedingungen verlässlich zu erwerben, anstatt jeden einzelnen Rechteinhaber anzusprechen und mit unterschiedlichen Forderungen und Bedingungen konfrontiert zu werden.

Verwertungsgesellschaften im Urheberrecht

Grundlage für diese im Großen und Ganzen für beide Seiten fruchtbare Kooperation sind im Kern zwei Regelungen im Urheberrechtswahrnehmungsgesetz. Erstens der Wahrnehmungszwang: Jede Verwertungsgesellschaft muss jeden Urheber oder ausübenden Künstler aufnehmen und dessen Recht vertreten (Paragraf 6). Zweitens der Abschlusszwang: Die Verwertungsgesellschaft ist verpflichtet, jedermann zu angemessenen Bedingungen die vertretenen Rechte einzuräumen (Paragraf 11). Damit wird ausgeschlossen, dass Kreative durch ihre Verwertungsgesellschaft, aber auch von potentiellen Nutzern ihrer Werke diskriminiert werden.

Urheber sind nicht durchweg gezwungen, ihre Rechte durch Verwertungsgesellschaften verwalten zu lassen. Sofern sie allein dazu in der Lage sind, können sie sich selbst um die Wahrnehmung kümmern oder darauf ganz verzichten. Nur wo eine kollektive Rechtewahrnehmung gesetzlich vorgeschrieben ist – wie etwa bei den Regelungen für Kopien in Bibliotheken oder an Schulen und Universitäten – müssen sie einen Wahrnehmungsvertrag abschließen, um an den Vergütungen zu partizipieren.

Auftritt der EU-Kommission

Der Bedeutungsgewinn der Verwertungsgesellschaften im wachsenden Markt der Kulturgüter – vor allem im musikalischen Bereich – ist auch den Dienststellen der EU nicht entgangen. Die Generaldirektion Binnenmarkt hat sich in den letzten Jahren verstärkt dem System der kollektiven Rechtewahrnehmung gewidmet. Konkreter Anlass waren unter anderem Beschwerden großer Medienkonzerne, deren Hauptinteresse darin bestand, die Preise für den Erwerb von Musik zu senken. Die Direktion wurde erstmals im Jahr 2005 tätig und erließ eine Empfehlung zur Online-Nutzung von Musik. Sie will die Rahmenbedingungen im wachsenden Binnenmarkt vereinheitlichen und den Rechteerwerb für grenzüberschreitende Nutzungen erleichtern.

Auch Verwertungsgesellschaften sind an diesem Prozess interessiert, weil sie verhindern möchten, dass sich internationale Rechtepools aus Ländern außerhalb der EU in den Mitgliedsstaaten mit niedrigem Regulierungsniveau etablieren. Solche Rechtepools erkennen meist die in den europäischen Verwertungsgesellschaften übliche Teilung der Erlöse zwischen Urhebern oder ausübenden Künstlern einerseits und den Verwertern andererseits nicht an, weil sie in der Regel von Unternehmensseite begründet wurden. Damit unterlaufen sie europäische Standards des Urhebervertragsrechts und höhlen sie aus.

Damit wird nichts gegen neue Formen der Rechteverwaltung gesagt, jedoch die Forderung erhoben, dass im Bereich der kollektiven Rechteverwertung überall in der EU gleiche Rechte für alle gelten müssen, um faire Marktchancen zu etablieren. Dazu gehört auch, dass alle an der Werkschöpfung Beteiligten angemessenen vergütet werden.

Zerschlagenes Porzellan:
Die Kommission und die Online-Lizenzen

Bis zum Jahre 2005 bestand im Musikmarkt ein funktionierendes System, in dem die nationalen Verwertungsgesellschaften es im Rahmen von Gegenseitigkeitsverträgen sicherstellten, Lizenzen grenzüberschreitend einzuräumen. Auch Staaten mit mehreren konkurrierenden oder auf bestimmte Kategorien von Rechteinhabern beschränkten Gesellschaften wie die USA waren nahtlos eingebunden. Für solche grenzüberschreitenden Online-Lizenzen war nach langen Verhandlungen ein Vertragswerk geschaffen worden, das bei allen Interessengegensätzen unter den Verwertungsgesellschaften ein funktionierendes, wenn auch umständliches Lizenzsystem schuf („Santiago Agreement“).

Dieses Modell wurde von Radio- und TV-Unternehmen als unzulässiges Kartell kritisiert. Die Generaldirektion Binnenmarkt der EU griff diese Kritik auf und erließ die „Empfehlung für die länderübergreifende kollektive Wahrnehmung von Urheberrechten und verwandten Schutzrechten, die für legale Online-Musikdienste benötigt werden”. Eine Richtlinie dagegen scheute sie noch – wegen der langen Beratungszeit und der erwarteten Interessenkonflikte zwischen kleinen und großen Gesellschaften und den hinter diesen stehenden Staaten. Zwar wurde die Empfehlung als „soft law” ohne Mitwirkungsmöglichkeiten der Mitgliedsstaaten verfasst, faktisch erlangte sie jedoch Gesetzesrang und damit eine hohe Verbindlichkeit.

Vorgeblich sollte sie den Urhebern mehr Wahlfreiheit für eine Verwertungsgesellschaft geben. Mit anderen Worten: Der finnische Komponist sollte fortan die Freiheit erhalten, seine Online-Rechte nicht länger seiner Heimatgesellschaft und auf Grundlage ihrer Vertragsbedingungen einräumen zu müssen, sondern hiermit zum Beispiel die portugiesische Verwertungsgesellschaft beauftragen zu können.

Kollektive Rechtewahrnehmung bleibt beschädigt

Nahezu zeitgleich eröffnete die Generaldirektion Wettbewerb ein Kartellverbotsverfahren gegen das System der allgemeinen Gegenseitigkeitsverträge. Im Rahmen der Dachorganisation CISAC wird damit in typisierter Form die Zusammenarbeit unter den Verwertungsgesellschaften geregelt. Gegen die Verbotsverfügung, die die Kommission zum Abschluss des Verfahrens erließ, klagten die Verwertungsgesellschaften erfolgreich vor dem Gericht der Europäischen Union, das im Jahr 2013 feststellte, dass ihre Verträge nicht gegen das EU-Recht verstoßen hatten.

Dennoch wurde mit Erlass der Verfügung das Netz der Standardverträge gegen den Protest der mittleren und kleinen Mitgliedsstaaten dauerhaft zerschlagen und durch ein System zahlloser, strikt bilateraler Verträge ersetzt, bei denen die Schwächeren meist den Kürzeren zogen. Das Urteil des Gerichts kann das zerschlagene Porzellan nicht mehr kitten.

Nutznießer der Empfehlung von 2005 waren nicht die finnischen Komponisten, sondern die US-amerikanischen Major-Verleger. Sie nutzten die Empfehlung, um ihre dominanten Repertoires aus den Verwertungsgesellschaften und damit aus der kollektiven Wahrnehmung zu gleichen Bedingungen herauszulösen.

Lizenzerwerb de facto erschwert

Dem wettbewerblichen Geist der Empfehlung folgend, schrieben diese Major-Verleger nun die europaweite Verwaltung ihrer Repertoires unter den großen europäischen Verwertungsgesellschaften aus. Diese Gesellschaften bildeten spezielle Lizenzeinrichtungen unter ihrem Dach heraus, die jedoch den Regeln der kollektiven Wahrnehmung nicht mehr in vollem Umfang unterlagen und teilweise sogar zur Bildung länderübergreifender Konsortien führten, die jeweils das Repertoire eines Verlags europaweit repräsentierten.

Der Lizenzerwerb wurde dadurch im Gegensatz zu den Vorstellungen der Kommission nicht erleichtert, sondern erschwert. Will etwa eine Radiostation nun Online-Rechte erwerben, muss sie nicht mehr nur mit ihrer nationalen Gesellschaft reden, sondern für jedes Repertoire außerdem mit je einer weiteren, meist in einem anderen Land ansässigen Verwaltungseinheit. Der stets geforderte „One-Stop-Shop“ war damit Geschichte. Dieser Wandel führt als Nebeneffekt auch dazu, dass neuerdings Musik in älteren Filmwerken ersetzt wird, wenn sie online genutzt werden sollen – weil der Nacherwerb der Rechte zu kompliziert oder zu teuer geworden ist.

Es verwundert nicht, dass die Kommission sich diesen Effekt nicht gewünscht hatte. Schon vor Veröffentlichung des Richtlinienentwurfs und während der Laufzeit des CISAC-Kartellverfahrens unternahm die Generaldirektion Binnenmarkt – argwöhnisch beobachtet von der Generaldirektion Wettbewerb – viele diskrete Versuche, den Geist zurück in die Flasche zu zwingen, aus der er entwichen war. Allerdings bis heute vergeblich.

Der Richtlinien-Entwurf und seine Schwächen

Im Jahr 2012 legte die Kommission einen Entwurf für ihre Richtlinie zur Arbeit der Verwertungsgesellschaften vor, der zwei Ziele verfolgt: allgemeine Grundsätze für die Arbeit der Gesellschaften aufzustellen und spezielle Regeln für den Bereich der Online – Musikverbreitung zu schaffen. Die vorgesehene Richtlinie versucht, „die Voraussetzungen für möglichst effektive Lizenzierungsmethoden der VGs in einem zunehmend länderübergreifenden Kontext zu schaffen“. Mit anderen Worten, sie möchte den „One-Stop-Shop“ erneut ermöglichen, den sie 2005 zerschlagen hatte. Nur: Die starken Rechteinhaber haben kein gesteigertes Interesse, zu kooperieren, und die Verwertungsgesellschaften sind auf ihre Kooperation angewiesen.

Insgesamt wurde der erste Kommissionsentwurf seinem anspruchsvollen Auftrag nur zum Teil gerecht. Mehrere kritische Punkte sind hier festzuhalten:

1. Ohne Zulassungspflicht droht Cherrypicking

Der Richtlinien-Entwurf sah keine generelle Zulassungspflicht für Verwertungsgesellschaften vor, wodurch ein unfairer Wettbewerb um die Rechteinhaber zu entstehen droht. Der Entwurf sah stattdessen vielmehr vor, dass auch für Verwertungsgesellschaften die Dienstleistungs-Richtlinie gelten soll. Diese regelt, dass im Dienstleistungsbereich jeder Mitgliedsstaat die Zulassungsvoraussetzungen des Entsendestaates anerkennt und auf eigene zusätzliche Formalien verzichtet. Die Richtlinie auch im Bereich der Rechtewahrnehmung anzuwenden, hätte Tür und Tor für „Cherrypicker“ geöffnet, die als im Ausland legitim tätige, weitgehend unkontrollierte Unternehmen einige starke Rechtsinhaber vertreten hätten, ohne den sonstigen sozialen und Kulturförderverpflichtungen und einer klaren Aufsicht zu unterliegen.

2. Das Solidarsystem braucht exklusive Rechteeinräumung

Zweitens stellte der Entwurf die Exklusivität der Rechteeinräumung an Verwertungsgesellschaften in Frage. Exklusivität bedeutet, dass allein die Verwertungsgesellschaft das ihr eingeräumte Recht vertritt, solange der Wahrnehmungsvertrag besteht. Will der Rechteinhaber es selbst wahrnehmen oder durch einen Dritten wahrnehmen lassen, muss er zunächst deren Zustimmung einholen. Dies ist ebenfalls ein heikler Punkt, insbesondere aus urhebervertraglicher Sicht. Wird diese Exklusivität aufgehoben, könnte das zwar auf den ersten Blick als Befreiung des Urhebers aus der Bevormundung durch eine Verwertungsgesellschaft erscheinen. Die Sache hat aber eine Kehrseite: Wer sein Recht einem Dritten nicht exklusiv eingeräumt hat, kann unter Druck gesetzt und veranlasst werden, die Nutzung seines Rechts zu schlechteren Bedingungen zu gewähren. Damit droht dem Solidarsystem der Verwertungsgesellschaften langfristig der Einsturz.

Allerdings ist den Kritikern dieser Position zuzugestehen, dass es durchaus sinnvoll sein kann, wenn ein Mitglied einer Verwertungsgesellschaft über sein Werk insoweit verfügen kann, als es sich um karitative oder kostenlose Nutzungen handelt, die er außerhalb der kommerziellen Verwertung ermöglichen will. Sicher wird auch das Creative-Commons-Modell seinen Weg in die Verwaltungspraxis der Verwertungsgesellschaften finden müssen, wenn die Urheber es nutzen wollen. Die Diskussion hierüber wird kontrovers geführt.

3. Fehlender Nachweis über Nutzungen

Drittens legte der Entwurf zu Recht den Verwertungsgesellschaften eine hohe Transparenzpflicht auf. Zu Recht, weil Nutzer von Werken kritisierten, dass die Repertoires einiger Gesellschaften nicht transparent erkennbar seien: Die Erwerber von Kollektivlizenzen fürchteten, die Katze im Sack zu kaufen. Es fehlt jedoch die komplementäre Verpflichtung der Nutzer, ihrerseits als Grundlage für korrekte Abrechnungen die vorgenommenen Nutzungen nachzuweisen und zu dokumentieren.

4. Unterschiede der Verwertungsgesellschaften nicht beachtet

Viertens waren die Vorschriften über die Binnenstruktur der Verwertungsgesellschaften im ersten Entwurf oft praxisfern und entsprachen nicht der Realität. So wurde nicht zwischen Verwertungsgesellschaften unterschieden, die auf der Basis registrierter Titel arbeiten und solchen, die das gesamte Repertoire ihrer Mitglieder nur im Bereich der Zweitverwertung verwalten, aber nicht werkmäßig erfassen können. Das ist zum Beispiel bei Fotografen oder Journalisten der Fall, weil viele primäre Nutzungsverträge ohne ihre Einschaltung abgeschlossen werden.

5. Rückruf zu pauschal geregelt

Der Entwurf sah schließlich extrem kurze und praxisferne Rückrufmöglichkeiten für Rechtsinhaber gegenüber ihren Verwertungsgesellschaften vor, die dem Umstand nicht Rechnung trugen, dass die Verwertungsgesellschaften mit Nutzern oft mehrjährige Verträge abschließen. Diese sind nicht mehr möglich, wenn die Gesellschaft nicht mehr langfristig für ihr Repertoire garantieren kann.

Vor allem dort, wo Verwertungsgesellschaften gesetzliche Vergütungsansprüche wahrnehmen, sind derartige Rückrufmöglichkeiten sinnlos, weil die Bedingungen der Rechtewahrnehmung sich aus dem Gesetz selbst ergeben und dem Autor dadurch jeder Verhandlungsspielraum entzogen wurde. Der Vorwurf an die Verfasser der Richtlinie in diesem und anderen Fällen ist, dass sie nicht unterscheiden, ob Nutzungsrechte oder Vergütungsansprüche verwaltet werden.

6. Online-Musik-Lizenzierung und Rechte-Datenbank

Speziell im Bereich der Online-Musik ist die Hilflosigkeit angesichts der entstandenen Situation die Grundlage dieses Teils des Richtlinienentwurfs. Kleine Verwertungsgesellschaften sollen größere nun verpflichten können, ihr Repertoire mitzuverwalten, um Mehrgebietslizenzen vergeben zu können. Das ist sinnvoll und erforderlich – schon aus Gründen der Erhaltung der kulturellen Vielfalt, zu der sich die EU international verpflichtet hat. Im derzeitigen System besteht die Gefahr, dass kleine, ökonomisch unattraktive Repertoires auf dem Markt unsichtbar werden.

Weiteres Ziel der EU zur Rekonstitution des „One-Stop-Shops“ ist es, eine universelle Datenbank zu entwickeln, mit der die an Lizenzen interessierten kommerziellen Nutzer wenigstens schnell feststellen können, wer ein für sie interessantes Werk verwaltet. Eine solche Datenbank ist freilich hoch brisant und wird deshalb in der CISAC seit langem sehr zögerlich diskutiert. Zum einen sind die Kosten immens und die Vereinbarung gemeinsamer Standards zwischen allen Beteiligten hoch kompliziert, weil ihre Beziehungen von Misstrauen – zum Beispiel der Urheber gegenüber manchen Verlegern – geprägt sind. Zum anderen besteht die Befürchtung, dass eine solche Datenbank, die im besten Fall zu jedem Werk den Rechteinhaber aufführt, Verwertungsgesellschaften langfristig überflüssig macht, da deren größtes Kapital das Repertoire und die exklusive Beziehung zu den Rechteinhabern ist.

Mögliche Folgen des Entwurfs

Damit wären aus der Sicht mancher Marktteilnehmer zwar endlich die Mammuts ausgestorben; aus der Sicht der Rechteinhaber – vor allem der mittleren und kleinen – wäre aber auch die Schutz- und Trutzfunktion starker Verwertungsgesellschaften verloren und sie fänden sich, mangels starken Urhebervertragsrechts, auf verlorenem Posten wieder.

Ob dieser Teil der Richtlinie das Ziel erreicht, den Schaden auszugleichen, den die Empfehlung von 2005 angerichtet hat, ist derzeit nicht abzusehen. Es wird vor allem vom guten Willen und der Bereitschaft der großen Rechteinhaber zur Kooperation abhängen. Viel spricht dafür, dass sie ihre neu gewonnene Freiheit, Lizenzbedingungen auf einem freien Markt auszuhandeln, kaum wieder aufgeben werden, um unter das Dach einer erneuerten kollektiven Wahrnehmung der Online-Rechte zurückzukehren, wenn auch in einer „light”-Version. Auch hier wird erst das Vermittlungsverfahren in Brüssel zeigen, welcher Weg eingeschlagen wird.

Wie geht es weiter mit dem Entwurf?

Der Richtlinienentwurf wurde in einem großen Diskussionsprozess zunächst zwischen der Kommission und den beteiligten Kreisen erörtert. Die zuständigen Ausschüsse des EU-Parlaments für Kultur, Recht und Wirtschaft haben umfangreiche Stellungnahmen mit zahllosen Änderungsvorschlägen vorgelegt, die viele der in den Stellungnahmen aufgeworfenen Bedenken aufgegriffen haben, darunter etwa das Max-Planck-Institut für Immaterialgüterrecht und die Verwertungsgesellschaften selbst. Insbesondere der anfangs kritisierte Vorrang der Dienstleistungsrichtlinie wurde zwar nicht ganz beseitigt, aber doch wesentlich relativiert. Überwiegend stellen die Änderungsvorschläge heraus, dass im Rahmen der Rechteverwaltung gleiche Regeln für alle gelten müssen, seien sie private Dienstleister oder Verwertungsgesellschaften. Ebenso wurde auf die Notwendigkeit einer starken inländischen Kontrolle auch bei grenzüberschreitender Lizenzierung hingewiesen.

Die Beratungen auf Ebene der Mitgliedsstaaten hat die irische Ratspräsidentschaft in einem ausführlichen Papier vom 31. Mai 2013 zusammengefasst (Interinstitutional File 2012/0180, COD). Sie konnte jedoch in ihrer Amtszeit noch keine Beschlussfassung herbeiführen. Der nächste Schritt ist jetzt der große Kompromissfindungsprozess zwischen Kommission, Rat und Parlament, der nach der Sommerpause 2013 bevor steht. Solange dessen Ergebnis nicht feststeht, kann keine abschließende Bewertung gegeben werden.

Das Resultat bleibt offen

Welcher Kompromiss sich am Ende niederschlagen wird, lässt sich derzeit nur im Kaffeesatz lesen. Zu vielfältig sind die Interessen, selbst die Kommission offenbart starke Interessengegensätze zwischen Binnenmarktregulierung durch leichteren kollektiven Rechteerwerb und dem Ausbau des Wettbewerbs in allen Wirtschaftsbereichen auf Biegen und Brechen.

Soviel scheint immerhin sichtbar zu sein: Die aus mangelnder Kenntnis der Situation resultierenden Fehler des Entwurfs sind erkannt und großenteils beseitigt. Viel wird davon abhängen, wie die Frage des Vorrangs der Dienstleistungsrichtlinie gelöst wird und ob gemeinsame Standards der Regulierung mit gleicher Wirkung für Verwertungsgesellschaften und private Unternehmen gefunden werden. Ebenso zentral ist die Frage, ob in ein und demselben Land die gleichen Zulassungs- und Kontrollvorschriften für Rechteverwalter unterschiedlicher regionaler Herkunft angewendet werden.

Der Erfolg bei der Reform der kollektiven Rechtewahrnehmung wird sich an zwei Zielen messen lassen müssen: Zum einen, ob es schnell, verwaltungskostengünstig und möglichst aus einer Hand möglich wird, Rechte dort zu erwerben, wo sie genutzt werden sollen. Zum anderen muss das Ziel aber auch sein, dass Urheber und ausübende Künstler angemessene Vergütungen erhalten – unabhängig davon, in welchem Land der Union und durch welches Unternehmen diese Rechte genutzt werden.

Prof. Dr. Gerhard Pfennig ist Sprecher der Initiative Urheberrecht, die zahlreiche Urheberverbände und Gewerkschaften vertritt. Er ist Rechtsanwalt und war bis 2011 geschäftsführendes Vorstandsmitglied der VG Bild-Kunst und der Stiftung Kunstfonds in Bonn.

August 23 2013

Cloud-Links: Hellsichtige Paranoiker, Whistle.im, Ausfälle bei iCloud und Skydrive

Der Paranoiker als Hellseher, Whistle.im erscheint nach schweren Sicherheitslücken in neuer Version, die Zukunft der Cloud-Industrie und Ausfälle bei Apple und Microsoft. Cloud-Links der Woche:

„Paranoiker von gestern waren aus heutiger Sicht sehr hellsichtig”

Politik-Digital.de hat sich mit Gunnar Schwan von der Stiftung Warentest über Cloud-Speicherdienste und die Folgen der NSA- und Überwachungs-Enthüllungen für Nutzer unterhalten. Internetnutzer könnten sich nicht mehr sicher sein, was mit ihren Daten passiert und wer sie wann wie auswertet. Schwan meint zum Ansatz, möglichst viele Daten zu sammeln und später nach Mustern zu suchen: „Das ist vergleichbar mit einem längeren Blick in die Wolken. Irgendwann sieht man Figuren, die eigentlich gar nicht da sind.” Vor kurzem veröffentlichte die Stiftung Warentest eine Untersuchung zu Cloud-Speicherdiensten.

Whistle.im mit neuer Version nach kritischen Sicherheitslücken

Der Messaging-Dienst whistle.im verspricht verschlüsselte Kommunikation für Kurznachrichten, musste sich nach einer Analyse eines Mitglieds des Chaos Computer Clubs Hannover aber schwerwiegende Sicherheitslücken und Designfehler vorwerfen lassen, die die gesamte Verschlüsselung untergraben könnten. Mittlerweile haben die Entwickler eine neue Version veröffentlicht, die das behoben haben will. Dass der bislang kaum bekannte Dienst überhaupt in die Schlagzeilen gerät, hängt mit dem gesteigerten Interesse an sicherer Kommunikation zusammen. CCC-Mitglied „nexus” schreibt, viele Projekte spielten mittlerweile zu Marketingzwecken „mit dem gesteigerten Problembewusstsein der Bevölkerung, ohne dass sie einen wirklichen Schutz liefern.” Auch der unverschlüsselte Messaging-Marktführer Whatsapp gerät immer wieder in die Kritik.

„Die Zukunft der Cloud steht auf dem Spiel”

Venturebeat-Chefredakteur Dylan Tweney beschäftigt sich in einem Beitrag mit den hier und hier bereits erwähnten Prognosen zu den Auswirkungen der NSA-Enthüllungen auf die Cloud-Industrie. Auch wenn einzelne US-Bürger sich weniger um die NSA sorgten, würden zumindest die IT-Abteilungen von Unternehmen und Organisationen verstärkt von Cloud-Diensten abrücken, wenn die Regierung nicht gegensteuere. Tweney meint: „The future of the cloud — and a generation of new businesses — is at stake.” Zeit Online und tagesschau.de haben das Thema mittlerweile ebenfalls aufgegriffen.

Störungen bei iCloud, Microsoft Skydrive und Outlook.com

Sowohl Apples iCloud als auch Microsofts Cloudspeicher Skydrive und Outlook.com hatten zuletzt mit Ausfällen bei Erreichbarkeit und Funktionalität der Dienste zu kämpfen. Ein Fehler beim Zwischenspeichern war bei Microsoft die Ursache, wie das Unternehmen am Samstag bekannt gab. Für Ausfälle beim iCloud-Dienst seit Donnerstag gibt es bislang keine offizielle Mitteilung. Betroffen sein sollen nach Apple-Angaben drei Millionen Nutzer. Mittlerweile sind die Dienste offenbar wieder online.

August 14 2013

Johannes Schatz: „Über Gagen zu reden, war bislang tabu”

Anfang September will sich in Berlin der Verein „Art but fair” gründen. Erklärtermaßen will er prekäre Verhältnisse in der Kulturbranche aufzeigen und überwinden. Initiator Johannes Schatz spricht im Interview mit iRights.info über die von „Art but fair” vorgeschlagenen „Goldenen Regeln“ und darüber, was Künstler und Politik  ändern können.

iRights.info: Die von Ihnen gestartete Facebookseite über die „traurigsten und unverschämtesten Künstlergagen und Auditionerlebnisse” war eine Art Aufschrei darstellender Künstler. Wie kam es dazu?

Johannes Schatz

Johannes Maria Schatz ist Autor, Produzent und Komponist im Musical-Genre. Er studierte katholische Theologie, Rechtswissenschaft, Kultur- und Medienmanagement sowie Germanistik und arbeitete in Jugendbildungseinrichtungen.

Johannes Schatz: Ich hatte das ja so gar nicht beabsichtigt. Die Facebookseite war eine Bauch-Entscheidung. Meine Lebenspartnerin ist Musicaldarstellerin und hat irgendwann mal so ein unterirdisches Gagenangebot bekommen, dass ich mir gesagt habe: Jetzt reicht’s! In meinem Ärger musste ich mir Luft machen. Dass die Facebookseite dann so explodierte, habe ich nicht vorausgesehen und ich habe es auch gar nicht geplant.

Dass sich dann mit Elisabeth Kulman eine Künstlerin aus der „Champions League” solidarisiert und so weit aus dem Fenster hängt, auch das war nicht geplant. Und dass sie dann zur Revolution der Künstler aufruft, auch das war nicht geplant. Ebenso wenig, dass alles schließlich in „Art but fair” aufgeht, einer Bewegung mit so vielen Menschen, mittlerweile auch namhaften Künstlern, die sich anschließen und mitarbeiten wollen.

iRights.info: Sie haben offenbar einen Nerv getroffen.

Johannes Schatz: Über Gagen zu reden, war bei darstellenden Künstlern bislang tabu. Dieses Tabu ans Licht zu zerren und eine Plattform zu schaffen, auf der die Leute offen darüber sprechen können, wie wenig sie bekommen – dafür war die Zeit scheinbar reif.

iRights.info:  Die von Art but fair aufgestellten „Goldenen Regeln“ formulieren Selbstverpflichtungen für faire Arbeitsbedingungen, vernünftige Konditionen und angemessene Vergütung. Wie reagieren darauf Branchenverbände und Künstler-Gewerkschaften?

Johannes Schatz: Schon in den ersten Wochen nach der Ausrufung der „Revolution der Künstler“ auf Facebook haben die zuständigen Gewerkschaften teilweise mit uns Kontakt gesucht, wie der Bundesverband der Film- und Fernsehschauspieler. Oder sich offen von uns distanziert, vor allem die Genossenschaft Deutscher Bühnen-Angehöriger. Wahrscheinlich, weil wir anfangs sehr kritisch mit ihnen ins Gericht gingen.

Nach dem Führungswechsel dort an der Spitze ist das Verhältnis aber sehr entspannt und beinahe schon konstruktiv. Der Deutsche Tonkünstlerverband hat sich inzwischen öffentlich mit unseren Forderungen solidarisiert, ebenso – und das scheint besonders wertvoll – der Deutsche Bühnenverein. Mit dem Deutschen Orchesterverband sind wir in mündlichen Kontakt. Viele andere suchen mit uns den aktiven Austausch.

iRights.info: Klingt, als hätten Sie ein Thema aufgegriffen, das eigentlich eines der Künstlergewerkschaften wäre.

Johannes Schatz: Ich kenne genügend Gewerkschaftsmitglieder, die selbstkritisch zugeben, dass beispielsweise die Frage von Richtgagen für freischaffende Künstler verschlafen wurde. Wir haben sozusagen ungebeten auf unbearbeitete Felder hingewiesen. Ich rechne allen Gewerkschaften hoch an, dass sie sehr reflektiert und konstruktiv mit unserer Kritik umgegangen sind. Wir können und wollen die wertvolle Arbeit der Gewerkschaft gar nicht ersetzen.

iRights.info: Umgekehrt sind womöglich viele Künstler gar nicht mit den jeweiligen Gewerkschaften und deren Arbeit vertraut, geschweige denn dort organisiert.

Johannes Schatz: Das ist innerhalb der darstellenden Künste ein heterogenes Feld. In Bezug auf Mindestgagen sind die Orchester- und die Chormusiker-Gewerkschaft am erfolgreichsten. Chöre und Orchester sind per se Teamplayer, die sind das „Zusammen sind wir stark, gemeinsam treten wir auf“ gewohnt. Dementsprechend haben die sich sehr frühzeitig organisiert und relativ gute Konditionen ausgehandelt. Der Solist oder die Operndiva hingegen treten im Wortsinn alleine auf, deswegen sind die Gagen für fest angestellte Solisten gerade im Theaterbereich ziemlich mau.

iRights.info: Zudem wächst doch auch bei darstellenden Künsten in allen Tätigkeitsbereichen der Anteil der Freiberufler, während sich zugleich deren Arbeits- und Verdienstmöglichkeiten verschlechtern.

Johannes Schatz: Sogar sehr rasant. Daher fordern wir insbesondere für Freiberufler angemessene Gagen und faire Arbeitsbedingungen. Sören Fenner von theaterjobs.de ist bei uns Teammitglied und führte vor zwei Monaten eine Umfrage zu den Gagen in Deutschland, Österreich und der Schweiz durch. Aus diesem Ist-Zustand heraus wollen wir einen Soll-Zustand benennen. Momentan steht in den Goldenen Regeln ja nur „angemessene Gage“. Wir werden im nächsten Schritt noch konkretisieren, was dies für einen Musiker in einer Band, in einem Orchester oder als Solisten in etwa wäre.

iRights.info: Würden solche konkreten Forderungen nicht über Selbstverpflichtungen hinaus gehen?

Johannes Schatz: Zunächst appellieren wir an die eigene Verantwortung jedes Einzelnen, der im Kulturbetrieb tätig ist, ob Künstler, Haus oder Veranstalter. Insbesondere die Künstler haben es in der Hand, zu bestimmten Bedingungen ja oder nein zu sagen. Und es gibt zu viele, die immer die Angst im Rücken haben: Wenn sie jetzt nein sagen, kommen hundert andere, die ja sagen. Doch genau dann passiert nichts, dann wird sich die Schraube weiterhin abwärts drehen.

Bei der Selbstverpflichtung wollen wir es aber nicht belassen und haben uns sowohl in Deutschland als auch in Österreich und der Schweiz an die Parteien und Kultusministerien gewandt. Unsere Hauptfrage war: Wie gedenkt Ihr Politiker und Regierungsvertreter, unsere Initiative zu unterstützen?

iRights.info: Und wie fielen die Antworten aus?

Johannes Schatz: Ich gebe zu: Viele Antworten waren mehr als unbefriedigend. Das zeigt uns, wie gering überhaupt das Problembewusstsein bezüglich einer immer größer werdenden Prekarisierung im Kunstbereich ist – nicht nur seitens der Politik. Aber es gab auch sehr verheißungsvolle Schreiben, wie beispielsweise das aus der Landesregierung in Kärnten. Sie schlug uns vor, die  „Goldenen Regeln“ unter Einbeziehung verschiedenster Stellen so konkret und praktikabel zu formulieren, dass diese einen geeigneten Bezugspunkt etwa für Förderrichtlinien und -verträge bilden können. In der Folge könnte dann in Betracht gezogen werden, staatliche Subventionen an unser „Gütesiegel“ zu knüpfen. Das wäre natürlich ein wunderbarer Erfolg für unsere Bewegung.

iRights.info: Sie sprechen von einem Gütesiegel für Kulturbetriebe, die die „Goldenen Regeln“ befolgen. Müsste es dann amtliche Überprüfungen der Regeln geben?

Johannes Schatz: Hinter Gütesiegeln steckt meist eine Prüforganisation, so etwas könnten wir momentan überhaupt nicht leisten, weil wir dazu weder die finanzielle noch personelle Power haben. Deswegen planen wir es als selbstverpflichtendes Gütesiegel. Aber ich gebe zu, dass wir dies bei uns kontrovers diskutieren. Für die Anfangsphase ist die Mehrheit im Team davon überzeugt, dass die Selbstverpflichtung ein gangbarer Weg ist.

iRights.info: Gibt es denn in anderen Ländern vergleichbare Modelle oder ähnliche Regelungen?

Johannes Schatz: Nein, soweit wir das im Team überblicken können, sind wir da so etwas wie Pioniere. Aber genau deswegen werden wir im Ausland sehr genau beobachtet und man hat unsere Goldenen Regeln sehr früh ins Englische und in andere Sprachen übersetzt. Das Interesse ist da. Wenn es nach mir geht, darf jedes Land das gerne übernehmen.

Gerade dieser Tage haben wir einen Fall aus Italien veröffentlicht, in dem ein Künstler explizit vor einem Festival warnt, weil er eine Gage noch immer nicht ausbezahlt bekommen hat, die seit über einem Jahr versprochen wurde. Opernprofis zucken mit den Schultern und sagen: Das ist ganz normal in Italien, dass man der Gage lange hinterherrennen muss. Also, es geht offenbar noch schlimmer.

iRights.info: Für den deutschsprachigen Raum zielen Sie auf staatliche Häuser und Veranstalter. Was ist mit privatwirtschaftlichen Theatern, Bühnen und Kulturbetrieben?

Johannes Schatz: Vieles in den darstellenden Künsten passiert nicht privatwirtschaftlich, zumindest nicht ausschließlich. Das meiste ist nach wie vor staatlich subventioniert, auf die eine oder andere Art und Weise. Ich denke beispielsweise an die Aida-Inszenierung in der Schweiz. Die wird hauptsächlich getragen von privaten Sponsoren; es geht um etwa 3,5 Millionen Schweizer Franken. Nichtsdestotrotz hat sich der Kanton Zürich mit 50.000 Schweizer Franken für eine Ausfallversicherung wegen schlechten Wetters beteiligt.

iRights.info: Und genau hier würden Sie den Hebel der Subventionskürzung ansetzen lassen?

Johannes Schatz: Wenn ein Kanton oder ein Kulturministerium in Zukunft sagt: Unter den Bedingungen von Dumpinglöhnen im Orchestergraben ist uns die Unterstützung leider nicht möglich – Dann werden sich die Veranstalter in Zukunft zweimal überlegen, ob sich das wirklich lohnt, Musiker zu Billigst-Löhnen zu engagieren. Oder, ob sie nicht lieber Richtgagen einhalten und dafür 50.000 Schweizer Franken bekommen.

iRights.info: Und wenn ein privatwirtschaftliches Kulturunternehmen ohnehin keine Subventionen in Anspruch nimmt?

Johannes Schatz: In Deutschland fällt mir auf Anhieb nur die Stage Entertainment AG ein, die im großen Rahmen privatwirtschaftlich agiert. Da wird es schwierig, über eine Subventionen betreffende Verordnung an die Arbeitsbedingungen und Gagen heranzukommen. Aber ich schwöre Ihnen: Wenn es uns gelingen sollte, dass in Zukunft die deutschen Bühnen dieses Gütesiegel führen und die SEAG dann der einzige Big Player ohne wäre, dann werden sie überlegen, ob sie nicht Mindeststandards einhalten wollen. Der deutsche Bühnenverein hat sich unseren Forderungen ja angeschlossen.

iRights.info: Welche Rolle spielen bei der von Art but fair monierten Abwärtsdynamik in den darstellenden Künsten eigentlich Urheberrechte und digitale Netzwerke?

Johannes Schatz: Unser Fokus liegt derzeit noch auf dem Live-Entertainment. Aber selbst dort geht es freilich immer auch um Urheber- und Leistungsschutzrechte. Obwohl wir in Deutschland im internationalen Vergleich ein Urheberrecht mit hohem Schutzniveau haben, gibt es sicherlich Modernisierungsbedarf. Ich persönlich bin als Urheber von Musical-Songtexten und -Librettos an einem möglichst hohen Schutz von Autoren und Urhebern interessiert. Trotzdem bin ich auch Fan von Creative-Commons-Lizenzen oder Open-Source-Modellen. Was Art but fair angeht, sind wir hier aber noch am Beginn des Diskussionsprozesses.

iRights.info: Wie viele der darstellenden Künstler sind auch Urheber?

Johannes Schatz: Sehr viele werden durch die Neugestaltung eines Werkes zu Interpreten, was dann Leistungsschutzrechte hervorruft. Per Neuinterpretation eines Werkes, etwa einer Oper von Verdi, hat ein Dirigent eigene Leistungsschutzrechte. Auch der Solist auf der Bühne oder die Musiker im Orchestergraben, sie alle sind Interpreten, weil sie daran mitwirken.

Das Urheberrechtsgesetz bezeichnet sie als verwandte Schutzrechte. Damit gehen die Orchester auch rigoros um. Etwa, wenn es um Mitschnitte geht, dann verlangen die Orchester dafür zu Recht eine anständige Bezahlung. Und das auch gegenüber dem Komponisten selbst, der nur dann mitschneiden darf, wenn das Orchester zustimmt.

iRights.info: Das heißt also, die Problematik illegaler Weitergabe durch Piraterie oder sonstige Urheberrechtsverstöße in digitalen Netzwerken betrifft auch die allermeisten darstellenden Künstler?

Johannes Schatz: Ja. Ob das jetzt der Masken- oder Bühnenbildner ist, der Regisseur, der Choreograf, der Sänger auf der Bühne, der Tänzer oder der Musiker im Orchestergraben. Jeder hat durch die Interpretation ein Leistungsschutzrecht. Die meisten Künstler treten diese Rechte vertraglich ans Theater oder den Veranstalter ab, und zwar komplett zeitlich und räumlich unbestimmt. Moderne Verträge sind so, gerade bei Film und Fernsehen. Je bekannter man ist, desto mehr Möglichkeiten hat man, einzelne Rechte „herauszulösen“. Eine Elisabeth Kulman wird ihre Rechte nicht komplett an die Staatsoper in Wien abtreten, sofern es Aufnahmen geben sollte.

iRights.info: Die Frage ist doch aber, was beispielsweise ein einzelner Orchestermusiker finanziell zu erwarten hätte, wenn er seine entsprechenden Rechte behält.

Johannes Schatz: Es gibt ja die Gesellschaft zur Verwertung von Leistungsschutzrechten, die diese unter anderem für DVD- und CD-Aufnahmen verwaltet. Doch die Vergütungen der GVL sind seit Ende 2009 drastisch gesunken. 2005, als ich eines meiner Musicals inszeniert habe, hat sich noch jeder Musiker von mir unterschreiben lassen, dass eine CD produziert wird, weil er dafür dann von der GVL zum Jahresende Geld bekommen hat.

Mittlerweile sind die Ausschüttungen der GVL so marginal, dass diese Einnahmen für einen Musiker kaum noch eine Rolle spielen. In Zukunft wird es darum gehen, dass der GVL und damit allen Künstlern beziehungsweise Leistungsschutzberechtigten neue sogenannte Zweitverwertungsrechte vom Gesetzgeber zugesprochen werden. Das gilt vor allem für das Internet.

iRights.info: Insofern erscheint es adäquat, wenn Ihre Kriterien für „fair behandelte Bühnenkünstler“ auch Urheber- beziehungsweise Leistungsschutzrechte einschließen. Für Dumping-Gagen pauschal alle Verwertungs- und Lizenzrechte abzugeben, wäre nicht angemessen.

Johannes Schatz: Durchaus, aber in der Klassik und bei Musicalproduktionen ist eine solche Sensibilität bezüglich Leistungsschutzrechten bei den allermeisten darstellenden Künstlern noch nicht da.

iRights.info: Sie sagten, dass Sie persönlich gegenüber modernen Urheberrechtsmodellen wie Creative Commons sehr aufgeschlossenen sind. Sieht das Art-but-fair-Team das genauso?

Johannes Schatz: Dazu haben wir intern noch zu wenig miteinander kommuniziert und daher noch keine gemeinsame Marschrichtung und ein offenes Problem. Aber die Künstler haben momentan noch so viele Probleme auf der Bühne, dass sie keinen Kopf haben für die digitale Welt.

iRights.info: Sie wollen aus der Art-but-fair-Initiative nun einen Verein formen. Ist ihr Fernziel ein neuer Berufsverband für freie Künstler?

Johannes Schatz: Nein. Ein Berufsverband werden wir nicht. Wir wollen uns Anfang September in Berlin als gemeinnützigen Verein gründen. Aber auch hier sage ich immer wieder: Zum Rütli-Schwur wird’s noch kommen. Wie viele der zigtausend Facebook-Liker dann den Schritt machen, auch Mitglied zu werden, das steht noch in den Sternen. Da lasse ich mich überraschen.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl