Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

January 17 2014

Mit Kreativität gegen das digitale Misstrauen

„Netzkultur – Die stumme Masse“ ist nur eines von mehreren Events, die in Berlin zum Thema Netz in nächster Zeit stattfinden. Wir haben die Kuratorin Nikola Richter über die Hintergründe befragt.

iRights.info: Sie haben die Veranstaltungsreihe Netzkultur kuratiert. Was war der Anlass gerade jetzt ein solches Event zu machen?

Nikola Richter: 2013 war durch die Snowden-Affäre und das nun herrschende Gefühl der Dauerüberwachung eines jeden Bürgers ein Jahr der großen Netz-Enttäuschung. Sascha Lobo sprach ja gerade in der FAZ von der „digitalen Kränkung des Menschen“. Wir wollen uns mit der Netzkultur, die den bekennenden Untertitel „Freunde des Internets“ trägt, nicht von der Utopie des Netzes verabschieden, sondern zeigen, wie und wo man das Netz immer noch mitgestalten kann – und muss. Wir richten dabei den Blick besonders auf die digitalen Einflüsse innerhalb der Kultur, darauf, welche Strategien Künstler und Kulturschaffende wählen. Vielleicht kommt man nur mit Kreativität gegen das digitale Misstrauen an.

iRights.info: Was kann man mit einer solchen Veranstaltung erreichen?

Nikola Richter: Aufklärung, Bewusstsein, neue Bündnisse, Solidarisierung untereinander. Bei der ersten Netzkultur-Veranstaltung haben wir etwa einen Kryptographie-Workshop und einen Remix-Workshop angeboten, die beide gut besucht waren. Es geht ja auch darum, sich selbst zu ermächtigen. Nicht nur zu konsumieren. Sondern zu gestalten. Bei der Netzkultur am 18. Januar, die sich unter dem Titel „Die stumme Masse“ neuen Konzepten von Gemeinschaft widmet, geht es unter anderem um die Möglichkeit anderer Finanzierungsmodelle in der Kultur – durch E-Kampagnen –, um Liquid Feedback oder Social Media als künstlerische Intervention. Darüber spricht Geert Lovink.

iRights.info: Warum der Titel „Die stumme Masse“?

Nikola Richter: Weil die stumme Masse das Doppelgesicht des Netzes darstellt: Sie ist einerseits stumm (und vielleicht dumm), andererseits ist sie auch aktivierbar, sie hat Macht, sie greift ein, sie organisiert sich, oft selbst. Es sind viele, die hier mitdenken, -schreiben, -liken können. So wie das Netz weder gut noch schlecht ist, ist auch die Masse erstmal weder gut noch schlecht.

iRights.info: Ist das nicht „zu den Bekehrten predigen“? Kann man eine größere Öffentlichkeit erreichen?

Nikola Richter: Erstaunlicherweise ist das Netzthema ja kein Nischenthema mehr für ein paar vereinzelte Hacker und Nerds. Es ist da und wir alle sind drin. Ich bin mir absolut sicher, dass es eine größere Öffentlichkeit interessiert und erreichen kann. Nur Massen sind ja bekanntlicherweise etwas träge …

iRights.info: Was passiert mit den Ergebnissen?

Nikola Richter: Wir halten alles fest. Wir speichern alles! Nein, ohne Witz, wir versuchen wirklich, möglichst nachhaltig Inhalte zu produzieren. In einem kostenlosen digitalen Programmheft, das für jede Veranstaltung eigens als ePub und als PDF produziert wird, finden sich Extramaterialien der Referenten, downloadbar von unserer Website netzkultur.berlinerfestspiele.de/media. Dort werden wir auch Audiomitschnitte der Panels und Vorträge zur Verfügung stellen, ebenso Fotos, Presse- und Blogberichte. All dieses ist schon für die erste Netzkultur zu „Technologie-Evolutionen“ erhältlich, etwa die Vorträge von Juli Zeh und Frank Schirrmacher oder ein Gespräch zu technologischen Entwicklungen in der Musik mit dem Sample-Vorreiter Deutschlands Holger Hiller von „Palais Schaumburg“.

iRights.info: Worum geht es bei der Veranstaltung am 22. Februar?

Nikola Richter: Um digitale Identitäten, darum, wie Künstler ihre Arbeit und ihr Selbstverständnis mit dem Netz oder über das Netz prägen. Der New Yorker Autor Tao Lin wird etwa das Internet in den Kontext der Menschengeschichte stellen, ausgehend von frühen Landwirtschaftskulturen (125.000 Jahre zurück) bis zu unserer Gegenwart und Zukunft, mit dem Fokus darauf, wie sich die Vorstellung von Privatsphäre verändert hat. Ebenso kommt der globale Nomade Momus für ein Konzert und die Verlegerin und Autorin Daniela Seel (kookbooks) gibt zusammen mit dem Lyriker Tristan Marquardt einen Workshop zum Dichten mit Google Translate oder Erasure-Services.

January 15 2014

Von der Kirche bis zum Internet

„Das Internet ist kaputt”, schrieb Johnny Haeusler im Sommer, als die ersten Enthüllungen zur Überwachungs- und Spionageaffäre bekannt wurden. Bei iRights.info antworteten Jürgen Geuter und Lorenz Matzat. In der FAS hat Sascha Lobo die Diskussion mit seinem Beitrag über die digitale Kränkung des Menschen wieder entfacht.

Don Dahlmann meint: Es braucht sehr viel Zeit, die Überwachung einzuschränken und Bürger- und Freiheitsrechte zu stärken. Der folgende Beitrag erschien zuerst auf Irgendwas ist ja immer und steht unter der Lizenz CC BY-NC-ND. – Anm. d. Red.

Miniatur: Étienne Collaut, PD

Miniatur: Étienne Collaut, PD

Von der Kirche bis zum Internet

Ich kann den Frust von Sascha Lobo verstehen. Ich habe das ähnlich empfunden, als mir im Sommer klar wurde, dass die Überwachung des Netzes derartig weit fortgeschritten ist. Man fühlt sich etwas ratlos, stumpf und hilflos, zumal die Überwachung ja nicht spürbar ist. Aber sie nistet sich wie ein unsichtbarer Nebel im Kopf ein und der innere Zensor springt vielleicht hier und da schon früher an, als es vor Snowden der Fall war. Aber ich stimme nicht mit Sascha überein, wenn es um die Frage geht, ob das Internet „kaputt“ ist.

Als Johannes Gutenberg um 1450 die beweglichen Lettern und damit den modernen Buchdruck erfand, gab es eine Menge Leute, die echt sauer waren. Vor allem innerhalb der katholischen Kirche. Aber nicht sofort. Zunächst war man recht angetan von der Sache, diente das neue Druckverfahren doch auch dazu, dass man die Bibel schneller und kosteneffizienter verbreiten konnte. Denn zuvor waren ganze Klöster monatelang damit beschäftigt, auch nur ein Exemplar handschriftlich zu erstellen. Die Mühe konnte man sich jetzt sparen.

Womit die Kirche aber nicht gerechnet hatte, war die Tatsache, dass nicht nur jeder mit ein bisschen Geschick drucken konnte, sondern auch dass jeder den Inhalt der Bibel verändern konnte. Prominentestes Beispiel war dann später Luther, der seine Fassung der Bibel dank der Druckwerkzeuge unters Volk bringen konnte. Doch bevor Luther überhaupt auf seine Ideen kam, hatte die Kirche mit anderen Problemen zu kämpfen. Denn plötzlich neigten Hinz und Kunz dazu, sich eine Variante der Bibel drucken zu lassen, die gerade ihnen in Kram passte. Oder mit der man viel Geld verdienen konnte. Im Grunde ein früher Urheberrechtsstreit zwischen Rechteinhaber und Kopierern.

Man löste das Problem elegant, in dem man sich europaweit bemühte, Druck auf Staaten, Stadtstaaten, Bürgermeister und so weiter auszuüben und man führte ein Lizenzsystem ein. Nur wer „die echte“ Bibel drucken wollte, der bekam auch eine Lizenz zum Buchdruck. Teilweise wurde pro Stadt nur eine Lizenz vergeben, die praktischerweise bei der Kirche landete. Alle Druckereien wurden überwacht und stichprobenartig überprüft. Hat es deswegen das Buch kaputt gemacht? Eher nicht. Und auch, als die Kirche sich mit allen Mitteln gegen die Verbreitung der Luther-Bibel wehrte, änderte das nichts. Weder konnte die Überwachung der Druckereien, noch konnten Strafen die Verbreitung verhindern. Mitte des 17. Jahrhunderts stand die Luther-Bibel in 40 Prozent aller deutschsprachigen Haushalte.

Im Grunde war durch den vehementen Kontrolleingriff der Kirche der Buchdruck zunächst einmal so gut wie tot. In manchen Gegenden durften die Druckereien gar nichts anderes als die von der Kirche sanktionierte Bibel mehr drucken. Manche Staatsfürsten verboten den Buchdruck gleich ganz. Geholfen hat es am Ende nichts.

Denn gewisse Dinge lassen sich nicht mehr aus der Welt schaffen. Ideen und Technologien gehören dazu, wenn sie denn einmal eine gewisse Verbreitung erlangt haben. Man kann sie temporär eingrenzen, verbieten, aber nicht aus der Welt schaffen. Im Fall des Buchdrucks wanderten die Druckereien einfach in die Keller der Wohnhäuser, oder man druckte in den deutlich schwerer zu kontrollierenden ländlichen Gebieten. Am Ende war das Buch der große Befreier der Menschen, denn ein Buch verbreitet Gedanken, Ideen, Träume, Möglichkeiten und schafft Hilfe.

Auf jede Aktion erfolgt eine Reaktion. Dieser physikalische Grundsatz gilt auch für disruptive Technologien, die eine Bedrohung für den Status quo darstellen. Nach einem Jahrzehnt des fast unkontrollierten Wachstums des Netzes erleben wir seit Anfang der 2000er Jahre nach und nach stärkere Kontrollen durch die Industrie und staatliche Organisationen. Die Unterhaltungsindustrie überwacht sämtliche Torrentnetzwerke, die NSA den ganzen Rest. Aber die Technologien und die Möglichkeiten des Internets haben sich durch die Überwachung nicht verändert. Auch die mit dem Netz verbundenen, immer noch etwas diffusen Utopien in Sachen Mitbestimmung usw. sind deswegen nicht verloren, noch fallen sie auf einen Status quo ante zurück.

Veränderungen benötigen Zeit. Von Guttenberg bis Luther waren es knapp 100 Jahre. Von Luther bis zur Französischen Revolution noch mal weitere 250 Jahre. Das Internet als neues Medium, das alle bisherigen Medienkanäle vereint und die Demokratisierung der medialen Produktion und der Kommunikation in den Bereich der Anarchie getrieben hat, ist gerade mal 20 Jahre alt. Das ist ein so kleiner Zeitraum, dass man ihn historisch kaum messen kann. Was wir gerade erleben, ist der Versuch, die Büchse der Pandora zu schließen. Was man auch teilweise verstehen kann, wenn man über Bedrohungsszenarien nachdenkt. Aber zum einen bekommt man diese Büchse nicht mehr zu, zum anderen lag auf dem Boden der Büchse noch was anderes als Schmerz und Leid: Hoffnung.

Und ich habe die Hoffnung, dass sich die Gewichte im Laufe der Zeit wieder neu verteilen werden. Dass digitale Bürger- und Freiheitsrechte akzeptiert werden, dass die Überwachung und die Speicherung privater wie wirtschaftlicher Daten eingeschränkt wird. Wir erleben einen solche Verschiebung der Gewichte interessanterweise vielleicht gerade in der EU in Sachen Vorratsdatenspeicherung. Das Internet ist also nicht kaputt, es durchlebt nur gerade eine Wandlung und es zerren ganz schön viele Leute an allen Seiten. Wie die Wandlung am Ende aussehen wird, bestimmen aber auch die Menschen, die die guten Seiten des Internet leben, lieben und weiter ausbauen. Die Strategien dafür sind vorhanden, es geht wie in all den Jahren zuvor darum, sie nach und nach umzusetzen. Und daran verändert die Überwachung, so wie sie sich jetzt darstellt, auch nichts.

January 14 2014

January 13 2014

BGH zur Elternhaftung bei Filesharing, Justizministerium zu Streaming, BVMI-Boykottaufruf

Eltern haften grundsätzlich nicht für Filesharing volljähriger Kinder, das Justizministerium sieht Streaming-Konsum nicht als Urheberrechtsverletzung, der BGH bejaht Haftung für fremde, aber selbst online gestellte Inhalte. Außerdem im Wochenrückblick: Urteil gegen Boykott-Aufruf der Musikindustrie, Einspruch per Mail, Gameforge-Urteil und Überwachungsstaat.

BGH: Keine Haftung für Filesharing durch volljährige Kinder

Eltern haften grundsätzlich nicht für Filesharing durch volljährige Familienmitglieder. Das hat der Bundesgerichtshof am Mittwoch entschieden (Az. I ZR 169/12). Im konkreten Fall hatte nicht der Anschlussinhaber selbst, sondern sein volljähriger Stiefsohn Urheberrechtsverletzungen begangen. Der Anschlussinhaber gab zwar eine Unterlassungserklärung ab, zahlte aber nicht die verlangten Abmahnkosten. Er berief sich darauf, für die behaupteten Rechtsverletzungen selbst nicht verantwortlich zu sein. Dem ist der BGH gefolgt: „Im Blick auf das besondere Vertrauensverhältnis zwischen Familienangehörigen und die Eigenverantwortung von Volljährigen darf der Anschlussinhaber einem volljährigen Familienangehörigen seinen Internetanschluss überlassen, ohne diesen belehren oder überwachen zu müssen”, so der BGH. Erst sobald Anhaltspunkte für Rechtsverletzungen durch weitere Anschlussnutzer vorlägen, müsse der Beklagte eingreifen. Solche Anhaltspunkte fehlten aber im konkreten Fall.
Zur Pressemitteilung des BGH.
iRights.info: Anschlussinhaber muss Volljährige nicht belehren oder überwachen.

Ausführlich hierzu Thomas Stadler bei LTO.
Ausführlich hierzu Sascha Kremer im CR-Blog.

Bundesjustizministerium: Streaming ist keine Urheberrechtsverletzung

Das Betrachten von Videostreams stellt keine Urheberrechtsverletzung dar – so sagt es das Bundesjustizminsterium in seiner Antwort (PDF) auf eine Kleine Anfrage der Linksfraktion. Das Ministerium untermauert seine Ansicht mit dem Verweis auf Paragraf 44a Urheberrechtsgesetz: Grundsätzlich sei das Streaming eine vorübergehende Vervielfältigung und daher rechtmäßig. Zudem führt das Ministerium ins Feld, das Betrachten von Videostreams falle unter die Schranke der Privatkopie (Paragraf 53 Abs. 1). Die Frage ist schon seit langem umstritten und zugleich nicht höchstrichterlich geklärt. Eine gesetzliche Klarstellung stellt das Ministerium aber nicht in Aussicht. Die Kleine Anfrage hatte die Linksfraktion im Zuge der Redtube-Abmahnungen an die Bundesregierung gestellt.
iRights.info: Bundesregierung: Das reine Betrachten eines Videostreams ist keine Urheberrechtsverletzung
Zur Meldung bei heise.de.

BGH bejaht Haftung für fremde, aber selbst eingestellte Inhalte

Nach einer nun veröffentlichten Entscheidung des BGH aus dem Juli 2013 haftet der Betreiber einer Webseite für Urheberrechtsverstöße, wenn er die Inhalte selbst auf seiner Seite einbindet. Im konkreten Fall hatte der Betreiber urheberrechtsverletzende Inhalte selbst auf seinem Server abgelegt und bereitgehalten. Auf die Haftungsprivilegien nach den Paragrafen 8 ff. Telemediengesetz kann sich der Betreiber der Seite dann nicht berufen. Davon ist der Fall abzugrenzen, dass etwa Dritte fremde Inhalte einstellen und eine Haftung des Betreibers dann erst infrage kommt, wenn dieser sich die Inhalte zu eigen macht.
Zur Meldung bei urheberrecht.org.
Zur Entscheidung im Volltext.

YoutubeMP3: Landgericht Berlin untersagt Boykottaufruf der Musikindustrie

Der Betreiber des Streamrippers „YoutubeMP3” hat vor dem LG Berlin eine einstweilige Verfügung gegen den Bundesverband der Musikindustrie (BVMI) erwirkt. Darin wird dem BVMI untersagt, die Werbepartner des Streamripperbetreibers zur Einstellung der Geschäftsbeziehungen aufzufordern. Anlass der Verfügung war ein entsprechendes Schreiben des BVMI an einen Werbepartner des Streamrippers mit dem Inhalt, eine werbliche Unterstützung eines – so der BVMI – rechtswidrigen Dienstes könne nicht im Interesse des Werbepartners liegen. Darin sah das LG Berlin eine wettbewerbsrechtlich unangemessene Beeinträchtigung.
Zur Meldung bei heise.de.

Bundesfinanzhof: Keine Rechtsbehelfsbelehrung zum Einspruch per E-Mail nötig

Dass Finanzamt muss bei Erlass eines Steuerbescheids in seiner Rechtsbehelfsbelehrung nicht darauf hinweisen, dass Einspruch auch per E-Mail eingelegt werden kann. Das hat der Bundesfinanzhof (BFH) entschieden (Az. X R 2/12). Es genügt bereits der Hinweis, dass der Einspruch gem. § 357 I S. 1 AO schriftlich einzulegen ist. Konsequenz: Die Einspruchsfrist von einem Monat beginnt mit der Bekanntgabe des Bescheids zu laufen. Der Klägers hatte mehrere Monate nach Bekanntgabe seines Steuerbescheids, dessen Rechtsbehelfsbelehrung lediglich auf das Schriftformerfordernis hinwies, Einspruch eingelegt. Diesen lehnte das Finanzamt als verfristet ab. Der BFH gab dem Finanzamt in seiner Entscheidung Recht und bestätigt damit zwei frühere Entscheidungen.
Zur Mitteilung bei Juris.
Zum Urteil im Volltext.

Gameforge: Einspruch gegen BGH-Urteil

Der Online-Spieleanbieter Gameforge hat nach eigenen Angaben Einspruch gegen das BGH-Urteil zum Duzen von Spieladressaten eingelegt. Der Bundesgerichtshof hatte sein Urteil damit begründet, Duzen und Anglizismen sein Jugendsprache und damit an Kinder gerichtete wettbewerbswidrige Werbung. Ein Einspruch ist möglich, weil das Urteil als Versäumnisurteil erging: Gameforge als Beklagte war zum Gerichtstermin nicht erschienen, obwohl das Unternehmen wie auch der BGH seinen Sitz in Karlsruhe hat. In der Sache betont der Bundesverband der Computerspielindustrie G.A.M.E., der Sprachstil sei für das Medium Computerspiele generell kennzeichnend und spreche zu 85 Prozent keine Kinder an, sondern eine Zielgruppe mit einem Durchschnittsalter von 32 Jahren.
Zur Meldung bei spielerecht.de.
Zur Meldung bei Golem.de.

Obama-Berater warnt vor Überwachungsstaat

Der NSA-Berater des US-Präsidenten Richard Clark konstatiert in einem Interview mit dem ZDF, die NSA besitze die technischen Möglichkeiten, einen Überwachungsstaat zu schaffen. Clark gehört einem Arbeitskreis an, der Reformvorschläge zur Überwachung ausgearbeitet hat. Dessen Forderungen sind unter anderem eine weiter reichende richterliche Kontrolle von Spionageprogrammen und die Verhinderung eines Polizeistaats – auch im Falle eines weiteren Terroranschlags. Eine offizielle Stellungnahme US-Regierung zu den Reformvorschlägen liegt allerdings nicht vor. Im Interview erklärte Clark ferner: „Es steht außer Frage, dass Snowdens Veröffentlichungen, unsere Fähigkeiten, Informationen über Terroristen zu sammeln, beschädigt haben.”
Zum ZDF-Interview bei heute.de.

Dieser Wochenrückblick wurde von Fabian Rack und Franziska Dockhorn verfasst. Lizenz: CC BY-NC-SA.

January 10 2014

Analysten-Bewertungen: Piraterie für urheberrechts-intensive Konzerne keine ernste Gefahr

Den Bewertungen US-amerikanischer Unternehmens-Analysten zufolge stellen Urheberrechtsverletzungen und Piraterie für große, urheberrechts-intensive Konzerne keine ernste Gefahr dar. Zu diesem Schluss jedenfalls kommen Jonathan Band and Jonathan Gerafi von der Kanzlei „Policybandwidth”, nachdem sie systematisch 168 Analysten-Reports durchleuchteten, worüber sie jetzt auf infojustice.org informieren.

Als Ausgangspunkt ihrer eingehenden Betrachtung (PDF) nennen die Autoren die Copyright-Debatten in den USA, in deren Verlauf große Medien- und IT-Unternehmen immer wieder betonten, dass Urheberrechts-Verletzungen deutliche Arbeitsplatz-Verluste und wirtschaftliche Schäden verursachten. Demgegenüber stellten Band und Gerafi anhand aktueller Geschäftsdaten der Unternehmen jedoch fest, dass die „copyright-intensive industries“ in den USA sehr gesund da stehen und von 2003 bis 2012 mit knapp vier Prozent Wachstum weit über dem Industrie-Durchschnitt von 0,75 Prozent lägen.

Aus dieser Gegenüberstellung entstand bei ihnen die Frage, wie wohl professionelle Analysten die vorgeblich so einschneidenden wirtschaftlichen Schäden durch Piraterie bewerten. Über den Zeitraum von 90 Tagen durchleuchteten Band und Gerafi die Berichte und Bewertungen von  knapp 30 renommierten Analysten, etwa von Barclays, Credit Suisse, Deutsche Bank, JPMorgan, Morgan Stanley und weiteren, meist international agierenden Instituten. Diese befassten sich mit den Aktivitäten und Märkten von acht führenden Konzernen: Microsoft und Adobe (Software-Hersteller), Pearson und Reed Elsevier (Verlage), Disney und Viacom/Paramount (Filmstudios), Sony/Sony Music Entertainment/Sony Pictures Entertainment und Vivendi/Universal Music Group/Canal+ (Musiklabel/Filmproduktion).

Die InfoJustice-Autoren kamen dabei zu einer durchaus überraschenden Erkenntnis: Über die insgesamt 168 Analysten-Berichte gerechnet bewerten nur 19 Prozent Urheberrechtsverletzungen als potenzielles Risiko für die Unternehmen. Andersherum gesagt: 81 Prozent der Analysten sehen in Piraterie keine ernste wirtschaftliche Gefahr für die betreffende Industrie. Im Einzelnen stellten sie fest:

  • Keiner der 14 Berichte über Reed Elsevier und keiner der 18 über Pearson nennt Copyright-Verletzungen überhaupt als Risikofaktor.
  • Nur 13 Prozent der 15 Analysen über Sony und 22 Prozent der 23 Analysen über Vivendi erwähnen Urheberrechtsverletzungen als potenzielle Gefahr.
  • Gerade einmal 8 Prozent der 26 Berichte über Viacom und 27 Prozent der 26 über Disney benennen  Copyright-Verletzungen als Risikofaktor.
  • 26 Prozent der 19 Reports über Adobe and 41 Prozent der 27 Reports über Microsoft wiesen der Piraterie eine Gefahr für die Unternehmen zu.

Interessanterweise, so die Infojustice-Autoren, fänden sich in den Geschäftsberichten für 2012 bei sechs der acht Konzerne klare Aussagen zur großen Gefahr durch Copyright-Verletzungen (außer bei Reed Elsevier und Sony). Demnach scheinen für die Analysten die offiziellen Markt-Einschätzungen der von Ihnen bewerteten Unternehmen keine große Rolle zu spielen. Gleichwohl seien die Bewertungen aber offenkundig von hohem Wert, Jahr für Jahr teuer bezahlt und zugleich wirkungsmächtig.

Die Autoren Band und Gerafi führt das zu einer interessanten, womöglich auch hierzulande relevanten  Überlegung: Wenn sich Analysten mit derlei Expertisen keine ernsten Sorgen um die „copyright-intensive Industries“ machen, sollten sich Politiker solche auch nicht machen.

January 09 2014

„Geistiges Eigentum“ – Schutz oder Hindernis? Workshop in Essen

„Heute sind immer mehr Autoren, Bibliothekare, Verlage und nicht zuletzt auch Wissenschaftler mit dem Problem konfrontiert, dass der bestehende Schutz des ‚geistigen Eigentums’ und die verschiedenen neuen Vertragsvarianten ihre digitale Textproduktion und -distribution eher behindern als schützen.“ So die These des Workshops „Nach dem geistigen Eigentum? Digitale Literatur, die Literaturwissenschaft und das Immaterialgüterrecht“, der morgen in Essen stattfindet.

stacheldraht

Foto: neelaka, CC by

Organisiert von Thomas Ernst vom Fachbereich Literatur- und Medienwissenschaft der Universität Duisburg-Essen, werden sich Akademiker und Praktiker in dem Workshop mit den Fragen beschäftigen,  die aus dem digitale Wandel resultieren: Wie lassen sich eigenständige Werke noch als solche abgrenzen, wenn zum Beispiel Texte intermediale Verbindungen eingehen, durch Hyperlinks in einen sich wandelnden Raum über sich hinausverweisen, User Generated Content integrieren oder auf ihre kontinuierliche Modifikation angelegt sind?

Wie sinnvoll ist der Schutz von Werken noch, wenn die digitale Kopie ungekannte Potenziale zur schnellen und identischen Vervielfältigung von Inhalten bereithält und jeder heutige Schutz morgen schon wieder umgangen werden kann? Inwiefern ist die Rede vom Urheber angesichts einer neuen Intensität der kollektiven Textproduktion noch zeitgemäß und die Grenze zwischen Urheber und Leser zum Beispiel in Crowdsourcing-Projekten nicht ohnehin bereits aufgelöst?

Livestream, Hashtag, Blog

iRights.info ist Medienpartner des Workshops, der am morgigen Freitag, dem 10. Januar von 13 bis 19 Uhr im Bibliothekssaal des Campus Essen stattfindet, und auch als Livestream übertragen wird  (öffnet externen Player – bei Problemen die URL im VLC-Player öffnen):

http://duepublico.uni-duisburg-essen.de/servlets/DerivateServlet/Derivate-28422/NdgE_Live.asx

Der Hashtag für Feedback ist #ndge; der Workshop wird vom Weblog Digitur – Literatur in digitalen Medien begleitet, das von der studentischen Webredaktion des MA-Studiengangs „Literatur und Medienpraxis“ gestaltet wird.

Programm

12:30 Ankunft und Anmeldung

Eröffnung des Workshops ‚Nach dem geistigen Eigentum?‘

13:00 Prof. Dr. Rolf Parr (Universität Duisburg-Essen):Grußwort des Studiengangleiters ‚MA Literatur und Medienpraxis‘ 13:10 Dr. Thomas Ernst (Universität Duisburg-Essen):Nach dem geistigen Eigentum? Die Literaturwissenschaft und das Immaterialgüterrecht

Praktische Potenziale und (rechtliche) Probleme des digitalen Publizierens

13:30 Dirk von Gehlen (Leiter Social Media/Innovation, Süddeutsche Zeitung; Crowdfunder):War Crowdfunding besser als Suhrkamp? ‚Eine neue Version ist verfügbar‘ – Probleme und Potenziale digitaler Buchveröffentlichungsformen 14:15 Kaffeepause 14:45 Klaus-Peter Böttger (Vorsitzender EBLIDA – European Bureau of Library, Information and Documentation Associations; Leiter der Stadtbibliothek Essen):Warum das Urheberrecht ein Problem für die ‚Onleihe‘ ist. Oder: Was macht für Bibliotheken den Unterschied zwischen einem Kauf und einer Lizenz aus?

Interdisziplinäre Lösungsansätze zu (rechtlichen) Problemen des digitalen Publizierens

15:30 Prof. Dr. Katharina de la Durantaye (Juniorprofessorin für Bürgerliches Recht, Humboldt-Universität zu Berlin):‚Geistiges Eigentum‘ vs. Immaterialgüterrecht. Rechtswissenschaftliche Perspektiven für die Literaturwissenschaft 16:15 Kaffeepause 16:45 Podiumsdiskussion zum Thema Digitale Literaturen, Geschäftsmodelle digitalen Publizierens und das Immaterialgüterrecht. Probleme und Perspektiven mit
  • Prof. Dr. Hermann Cölfen (Kustos der Germanistik an der Universität Duisburg-Essen; Gründer des Universitätsverlags Rhein-Ruhr);
  • Dorothee Graf (Fachreferentin Germanistik der Universitätsbibliothek der Universität Duisburg-Essen);
  • Matthias Spielkamp (Redaktionsleiter iRights.info – Urheberrecht in der digitalen Welt);
  • Dorothee Werner (Leiterin Unternehmensentwicklung, Grundsatz- und strategische Fragen beim Börsenverein des Deutschen Buchhandels);
  • Moderation: Dr. Thomas Ernst
18:30 Ausklang des Workshops im Unperfekthaus, Friedrich-Ebert-Straße 18,  45127 Essen

Ort

Universität Duisburg-Essen
Campus Essen
Bibliothekssaal
Universitätsstr. 9-11
45117 Essen

Zwischen den Gebäuden R09 und R11, siehe auch: Anfahrtbeschreibung.

January 08 2014

Bundesgerichtshof: Anschlussinhaber muss Volljährige nicht belehren oder überwachen

Ohne Anhaltspunkte, dass ein Internetanschluss für Urheberrechtsverletzungen genutzt wird, haftet ein Anschlussinhaber nicht für das Handeln von volljährigen Familienangehörigen. Das hat der Bundesgerichtshof heute entschieden und ein anders lautendes Urteil des Oberlandesgerichts Köln aufgehoben.

Vier „führende deutsche Tonträgerhersteller” hatten einen Anschlussinhaber verklagt, dessen volljähriger Stiefsohn mit dem Hochladen von mehreren tausend Dateien über das Filesharingprogramm „Bearshare” Urheberrechte verletzt haben soll. Hier weigerte sich der Anschlussinhaber, die Abmahnkosten zu bezahlen, gab aber eine Unterlassungserklärung ab.

Das Urteil (I ZR 169/12) selbst ist noch nicht veröffentlicht. In der Presseerklärung heißt es:

Im Blick auf das besondere Vertrauensverhältnis zwischen Familienangehörigen und die Eigenverantwortung von Volljährigen darf der Anschlussinhaber einem volljährigen Familienangehörigen seinen Internetanschluss überlassen, ohne diesen belehren oder überwachen zu müssen; erst wenn der Anschlussinhaber – etwa aufgrund einer Abmahnung – konkreten Anlass für die Befürchtung hat, dass der volljährige Familienangehörige den Internetanschluss für Rechtsverletzungen missbraucht, hat er die zur Verhinderung von Rechtsverletzungen erforderlichen Maßnahmen zu ergreifen.

Ende 2012 hatte der Bundesgerichtshof sich mit einem ähnlichen Fall befasst. Damals ging es aber um minderjährige Kinder, konkret um einen dreizehnjährigen Jungen im Fall „Morpheus”.

Der BGH hatte hier entschieden, dass Eltern die Internetnutzung ihrer Kinder nicht überwachen oder Filtersoftware installieren müssen, um mögliche Urheberrechtsverletzungen zu verhindern. Wenn Eltern die Kinder über die Nutzung aufgeklärt – also Filesharing untersagt – haben und sonst keine gegenteiligen Anhaltspunkte vorliegen, ist das ausreichend. Das jetzige Urteil passt, soweit man das der Pressemitteilung überhaupt entnehmen kann, also zur Linie des BGH bei der Filesharing-Haftung.

Mehr zum Thema Haftung und darüber, wie man Abmahnungen vermeidet – was bekanntlich gar nicht immer so einfach ist – gibt es hier: Post vom Anwalt, was tun?

January 07 2014

Bundesregierung: Das reine Betrachten eines Videostreams ist keine Urheberrechtsverletzung

Aus Sicht der Bundesregierung stellt das reine Betrachten eines Videostreams keine Urheberrechtsverletzung dar. Das geht aus einer Antwort der Bundesregierung auf eine kleine Anfrage der Bundestagsfraktion der Linken zur Redtube-Abmahnwelle hervor.

Die von der Kanzlei Urmann + Collegen auf Veranlassung des Unternehmens „The Archive AG” verschickten Abmahnungen sorgten im Dezember für Aufregung und Verwirrung in den Medien und bei Internet-Nutzern. Zum einen ist bis heute unklar, auf welcher rechtlichen Grundlage das zuständige Landgericht Köln angeordnet hat, dass der Internet-Provider die Nutzerdaten herauszugeben hat. Zum anderen, auf welchem Weg sich die an den Abmahnungen beteiligten Firmen die IP-Adressen der Nutzer zuvor beschafft haben. Außerdem wurde erneut die Frage aufgeworfen, ob Videostreaming als unerlaubte Vervielfältigung urheberrechtlich geschützter Werke gilt oder nicht.

Daher stellte die Bundestagsfraktion der Linken am 17. Dezember an die Bundesregierung eine kleine Anfrage mit dem Titel „Konsequenzen aus der Abmahnwelle gegen Nutzerinnen und Nutzer des Videostream-Portals Redtube.com“ zu. Ihre Anfrage gliederte die Linke-Fraktion in neun Einzelfragen. Die Antwort des neuen Ministers Heiko Maas, der nicht mehr nur für Justiz, sondern auch für Verbraucherschutz zuständig ist, liegt jetzt der Öffentlichkeit vor (PDF).

„Reines Betrachten eines Videostreams keine Urheberrechtsverletzung“

Als besonders bedeutend ist hierbei die Einschätzung zum Videostreaming zu bewerten: „Vor diesem Hintergrund hält die Bundesregierung das reine Betrachten eines Videostreams nicht für eine Urheberrechtsverletzung“, heißt es in der Antwort.

Zu dieser Einschätzung kommt sie, ähnlich wie prominente Rechtswissenschaftler, weil nach Paragraf 44a des Urheberrechtsgesetzes „eine Vervielfältigung ohne Zustimmung des Rechtsinhabers zulässig [ist], wenn es sich um vorübergehende Vervielfältigungshandlungen handelt, die flüchtig oder begleitend sind und einen integralen und wesentlichen Teil eines technischen Verfahrens darstellen … und die keine eigenständige wirtschaftliche Bedeutung haben“. Oder, wenn diese nicht der Fall ist, Paragraf 53 des Urheberrechtsgesetzes – die Privatkopie – greift:

Aber auch soweit die Voraussetzungen von §44a UrhG im Einzelfall nicht gegeben sein sollten, wäre eine Vervielfältigung, die bei Betrachten eines Videostream erfolgt, unter den Voraussetzungen des §53 Absatz 1 UrhG (so genannte „Privatkopie-Schranke“) zulässig. Nach § 53 Absatz 1 UrhG sind nämlich einzelne Vervielfältigungen eines Werkes durch eine natürliche Person zum privaten Gebrauch erlaubt, sofern sie weder unmittelbar noch mittelbar Erwerbszwecken dienen.

Allerdings ist eine Vervielfältigung nur dann erlaubt, wenn die Quelle nicht „offensichtlich rechtswidrig” ist. Diese Rechtswidrigkeit muss auch nach Ansicht der Bundesregierung für die Nutzer klar erkennbar sein:

Dies gewährleistet, dass der Nutzer nicht mit unerfüllbaren Prüfpflichten belastet wird. Es obliegt dem Rechtsinhaber zu beweisen, dass die vervielfältigte Vorlage offensichtlich rechtswidrig hergestellt oder unerlaubt öffentlich zugänglich gemacht worden ist.

Im konkreten Fall handelt es sich bei Redtube um ein legales Angebot. Verschiedene Juristen gehen daher davon aus, dass es für die Nutzer nicht „offensichtlich” sein kann, wenn ein dort angebotener Film rechtswidrig angeboten wird.

Europäischer Gerichtshof müsste entscheiden

Insgesamt legt das Justizministerium damit seine Rechtsauffassung dar, weist aber darauf hin, dass nur der Europäische Gerichtshof eine abschließende Einschätzung treffen kann:

Ob die Nutzung von Streaming-Angeboten eine Vervielfältigung darstellt, die Rechte von Urhebern oder Leistungsschutzberechtigten verletzt, ist allerdings bislang noch nicht durch die höchstrichterliche Rechtsprechung geklärt worden. Letztlich kann diese Frage nur vom Europäischen Gerichtshof (EuGH) entschieden werden.

Desweiteren sieht die Bundesregierung in den betreffenden Abmahnungen durch die Kanzlei Urmann + Collegen (U+C) keinen Anlass, am erst kürzlich in Kraft getretenen Gesetz gegen unseriöse  Geschäftspraktiken etwas zu ändern. Vielmehr lasse sich dieses Gesetz auch in diesem Fall zu Gunsten betroffner Privatpersonen anwenden. Ob dies allerdings gegen die konkreten Abmahnungen von U+C hinreichend hilft, bleibt fraglich, da die Kanzlei statt der Anwaltsgebühren erhöhten Schadensersatz forderte.

Keine Stellungnahmen zum Vorgehen des Landgerichts Köln

Zu den Fragen der Linke-Fraktion, wie das Unternehmen „The Archive AG”, das die Abmahnungen veranlasste, an die IP-Adressen der Nutzer gekommen sei und ob das Landgericht daran indirekt beteiligt war – etwa weil es die technischen Gegebenheiten des Redtube-Falls falsch eingeschätzt hat –, nahm die Bundesregierung keine Stellung.

Kunst – mehr als Kommerz und Konsum?

Kunst unter den Bedingungen des Kapitalismus zu machen, ist nicht einfach, meint die Komponistin Ingrid Schmoliner. KünstlerInnen müssen sich meist in ein Leben am Existenzminimum einrichten.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Als freischaffende Künstlerin muss ich mich immer wieder mit dem Urheberrecht in der einen oder anderen Form auseinandersetzen. Sei es als Improvisatorin, als Komponistin, als Ideenfinderin oder als Kuratorin.

Die Verwertungsgesellschaften für musikalische UrheberInnen in Österreich sind die AKM (Staatlich genehmigte Gesellschaft der Autoren, Komponisten und Musikverleger) und die Austro-Mechana (Gesellschaft zur Wahrnehmung mechanisch-musikalischer Urheberrechte); da es für mich keine anderen, besseren Möglichkeiten gibt, bin ich Mitglied dieser beiden Gesellschaften.

Bei einem Beitritt bekommt man sämtliche rechtlichen Informationen, die sich über unzählige Seiten erstrecken. Es darf bezweifelt werden, ob jedes Mitglied sich wirklich die Zeit nimmt, sich innerhalb dieser Bürokratie zu orientieren oder über die AKM-Website zu niederschwelligeren Informationen zu gelangen, sei es zum Thema Werklisten, Abrechnungsschlüssel und so weiter.

Was ist E, was ist U?

Was aber sicher gleich am Anfang schon Thema ist: die Einteilung in E-Musik und U-Musik. Vor allem die unterschiedliche Verteilung der Tantiemen ist sehr auffallend. So bekommen KomponistInnen, deren Werke in E-Musik eingeteilt und abgegolten werden, wesentlich höhere Beträge.

Wenn man sich den Tantiemenschlüssel der einzelnen Sparten ansieht – also welche Bezugsberechtigten am meisten über die Verwertungsgesellschaften erhalten –, so bekommen UrheberInnen der Musiksparten volkstümlicher Schlager, Schlager und Popmusik, welche eine breite Masse von Zuhörern ansprechen, den größten Anteil.

Meine Arbeit zählt nicht zum Mainstream und ich verdiene damit auch nicht viel. Jedoch werden die für mich relevanten Genres wie Instant Composition, Improvisation und sogenannte rahmend-hinweisende Kompositionen unabhängig von ihrem Charakter immer als U-Musik oder Klangkunst (die noch niedriger vergütet wird) abgerechnet, was meine Arbeit weder ideell noch finanziell angemessen würdigt.

Das wirft die Frage auf, welche Kunst wertvoll beziehungsweise ernsthaft ist und welche nicht. Das entscheidet bei den Verwertungsgesellschaften eine Jury. Aber ist das überhaupt zulässig oder gerecht?

Eine akademische Ausbildung als KomponistIn verhilft einem Mitglied eher dazu, dass die Jury eine hinweisend-rahmende Komposition als E-Musik wertet, allein durch den Abschluss am Papier. Andere UrherberInnen, die ähnliche – um nicht zu sagen fast identische – Arbeiten herstellen, werden aber in U-Musik/Klangkunst eingeteilt. Es kann nicht sein, dass die Qualität einer Komposition sich mit einem akademischen Abschluss automatisch bewerten lässt.

Seit der zweiten Hälfte des 20. Jahrhunderts, in der improvisierte Musik und das sogenannte Instant Composing immer mehr Stellenwert, auch im klassischen Kontext, gewann, müsste es längst neue Bewertungen dieser schöpferischen Methode geben.

KünstlerInnen am Existenzminimum

Es gibt viele Parameter, die eine Arbeit wertvoll machen, und somit sollte diese als ernsthafte Arbeit abgegolten werden. Leider ist das nach wie vor nicht der Fall, was wiederum die Existenzberechtigung der KünstlerInnen in der heutigen „Geiz ist Geil“-Gesellschaft vergegenwärtigt. Ich muss nicht erwähnen, dass ich und viele meiner KollegInnen ständig am Existenzminimum leben.

Könnte das bedeuten, dass ich doch besser Mainstream-Musik schreiben oder spielen soll? Oder dass ich mir im nächsten Leben eine reichere Familie aussuchen sollte, die mir den Luxus einer Arbeit ohne Entgelt und gleichzeitig den Erhalt einer Familie ermöglicht, einen Arbeitsraum finanziert, Instrumente und die Veröffentlichungen bezahlt?

Zeit ist nicht vorhanden, muss aber unbezahlt zur Verfügung gestellt werden, um zu einem zufriedenstellenden Ergebnis zu kommen. Trotzdem bleibt die Frage offen, ob das daraus entstandene musikalische Schaffen ernsthaft ist? Armutsgrenze ist nun wahrlich kein Thema, da wir als KünstlerInnen nur von Luft und Luft leben?
Nun kann ich von Glück sagen, dass zwei meiner Produktionen aus dem SKE-Fonds der Austro-Mechana gefördert wurden. Als Kuratorin und Organisatorin des Festivals „New Adits“ wäre ich ohne die Fördergelder des SKE-Fonds und der Gesellschaft zur Förderung Österreichischer Musik (GFÖM) um vieles schlechter gestellt. Das Festival finanziert sich seit vier Jahren ohne private Sponsoren, allerdings wieder einmal nur mit unbezahlter Arbeitszeit der OrganisatorInnen.

Vergütung findet kaum statt

Es wäre deshalb für mich zum jetzigen Zeitpunkt nicht von Vorteil, wie es immer wieder in meinem Umfeld diskutiert wird, aus der AKM/Austro-Mechana auszutreten. Es wäre nur dann sinnvoll, wenn es alternative Förderquellen und Verwertungsgesellschaften gäbe. Doch wenn man sich die wirtschaftliche Lage ansieht, ist das nicht sehr wahrscheinlich. Ebenfalls unverständlich ist es, dass dem Musikland Österreich ein breites Spektrum an Kultur anscheinend nicht einmal soviel wert ist, dass zumindest die Leerkassettenvergütung funktionieren würde.

Zusätzlich findet eine Entwertung des musikalischen Schaffens durch Raubkopien und schnelle Verfügbarkeiten statt. Es braucht Zeit und Geld, um eine qualitativ hochwertige Aufnahme zu schaffen und verfügbar zu machen, aber entgolten wird diese natürlich nur marginal. Als Künstlerin muss ich Tonträger als Visitenkarte produzieren, um überhaupt wahrgenommen zu werden – zum größten Teil selbstfinanziert. Aber Frau kann ja froh sein, wenn sie überhaupt wahrgenommen wird!

Nachdem das digitale Zeitalter unaufhaltsam ist, die freie Marktwirtschaft und der Kapitalismus zusehends auch in der Kunst Einzug gehalten haben, stehen der Wert eines Werkes, die investierte Arbeitszeit, Ressourcen und künstlerische Handlung im Hintergrund. Eine äußerst bedenkliche Tatsache in diesem Rahmen ist, dass sich die Gagen der KünstlerInnen in den letzten zwanzig Jahren nicht der Inflation angepasst haben.

Da größtenteils der Konsum und nicht der mündige Genuss von Kunst Profit bringt, sehe ich meine Situation doch eher realistisch. Was nichts an der Aussage ändert: Die Hoffnung stirbt zuletzt.

Ingrid Schmoliner ist Komponistin und Pianistin sowie Lehrerin für Gesang und Klavier. Sie lebt und arbeitet in Wien.

„Fix Copyright”: EU-Konsultation leicht gemacht

Anfang Dezember startete die EU-Kommission eine öffentliche Konsultation zum Urheberrecht, was als erstes politisches Vorfühlen für mögliche Reformen gelten kann. Daran können zwar alle EU-Bürger teilnehmen, am stärksten vertreten dürften jedoch wie üblich die „interessierten Kreise” sein. Die Open Knowledge Foundation hat nun eine Art Frontend für die Konsultation geschaffen, das unter Youcan.fixcopyright.eu zugänglich ist. Eine erste Version des Tools hatte Stefan Wehrmeyer vom deutschen Ableger der OKFN bereits auf dem Chaos Communication Congress vorgestellt.

Bemerkenswert ist, dass es Dritte sind, die die von der Kommission gestartete Konsultation in eine Form bringen, die EU-Bürger auch zur Teilnahme einlädt. Webseiten wie AskTheEU.org haben das auf anderen Gebieten bereits vorgemacht. Wo die Kommission zum Ausfüllen eines 36-seitigen Konvoluts (als Word-, Openoffice oder PDF-Dokument) auffordert, gibt es auf der Website zwei Möglichkeiten, teilzunehmen:

  • Einen Online-Fragebogen, der ein versandfertiges Dokument erzeugt und
  • einen geführten Guide, der die Kommissionsfragen umgekehrt aufzäunt und bei alltäglichen Szenarien ansetzt. Etwa: „Meine Fangeschichten oder Fan-Kunst könnten illegal sein” (Ja/Nein). Erst dann wird man ins Rechtsgebiet „neue Schranken und Ausnahmen vom Urheberrecht” geführt.

Auf die Konsultations-Tools führt wiederum die Website fixcopyright.eu, die kurz und knapp das Verfahren der Konsultation und die Ziele der unterstützenden Organisationen wie EDRi, Open Rights Group, Digitale Gesellschaft u.a. erklärt – im Moment allerdings noch in einer nicht ganz fertigen Betaversion. Verantwortet wird die Kampagne Fixcopyright.eu von Caroline De Cock, die mit Unterstützung des IT-Dachverbands CCIA und zahlreichen Verbänden und Organisationen auch für die Erklärung Copyright for Creativity verantwortlich zeichnet.

Vielleicht bewegt das Projekt auch die Kommission, ihre Konsultationen bald zugänglicher zu gestalten – zu wünschen wäre es.

January 06 2014

Felix Trumpke, wie kann Norwegen alle seine Bücher ins Netz stellen?

Die norwegische Nationalbibliothek arbeitet daran, alle im Land erschienenen Bücher im Netz lesbar zu machen. Der Max-Planck-Urheberrechtsforscher Felix Trumpke erläutert im iRights.info-Interview die rechtlichen Hintergründe und die Funktionsweise des Modells „Extended Collective Licensing”.

Hintergrund: Seit 2006 hat die norwegische Nationalbibliothek ihr Digitalisierungsprogramm schrittweise ausgeweitet. Erklärtes Ziel ist es, nicht nur gemeinfreie Werke, sondern alle bis zum Jahr 2000 in Norwegen erschienenen Bücher in den nächsten 20 bis 30 Jahren zu digitalisieren. Über die Plattform Bokhylla.no sind seit 2009 Digitalisate im Netz zugänglich – jedenfalls für Nutzer, die eine norwegische IP-Adresse haben und mit einigen Einschränkungen. Grundlage bildet ein Abkommen, das die Nationalbibliothek mit der Verwertungsgesellschaft Kopinor geschlossen hat.

iRights.info: Herr Trumpke, in Norwegen bildet das sogenannte „Extended Collective Licensing” die rechtliche Basis, um die Bestände der Nationalbibliothek zu digitalisieren. Wir kennen in Deutschland die „kollektive Rechteverwertung” als Grundmodell von Verwertungsgesellschaften wie der GEMA oder der VG Wort. Worin besteht die Erweiterung beim „Extendend Collective Licensing“ (ECL)?

Felix Trumpke: Verwertungsgesellschaften werden von ihren Mitgliedern, also den Rechteinhabern, mit der Wahrnehmung ihrer Rechte beauftragt. Gewöhnlicherweise können diese Verwertungsgesellschaften einem Nutzer nur die Rechte ihrer Mitglieder einräumen. Die Besonderheit des skandinavischen „Extended Collective Licensing” liegt nun darin, Kollektivvereinbarungen zwischen einer Verwertungsgesellschaft und einem Nutzer per Gesetz auf sogenannte „außenstehende Rechteinhaber“ erstrecken zu können. Neben Norwegen sehen ein solches Modell auch Schweden, Dänemark, Finnland und Island vor.

Das heißt, es werden nicht nur die Rechte der Mitglieder einer Verwertungsgesellschaft an den Nutzer lizenziert, sondern die Rechte aller Rechteinhaber eines bestimmten Bereichs. Voraussetzung ist, dass die Verwertungsgesellschaft repräsentativ agiert. Das heißt, dass sie bereits eine substanzielle Anzahl an Rechteinhabern vertritt.

iRights.info: Können Sie das an einem Beispiel erläutern?

Felix Trumpke: Ja, nehmen wir eine Bibliothek, die mit einer entsprechenden Verwertungsgesellschaft eine Vereinbarung über die Nutzung von – sagen wir – Schriftwerken geschlossen hat. Sie wäre aufgrund der erweiterten kollektiven Lizenzen (ECL) berechtigt, nicht nur die Werke der Rechteinhaber zu nutzen, die Mitglied der Verwertungsgesellschaft sind, sondern aller denkbaren Rechteinhaber; beispielsweise auch ausländischer Rechteinhaber.

Hierfür gelten die in der Vereinbarung niedergelegten Bedingungen. Einem „außenstehenden“ Rechteinhaber räumt so eine ECL-Vereinbarung dabei verschiedene Rechte ein: Etwa auf Gleichbehandlung mit den Mitgliedern der Verwertungsgesellschaft, auf individuelle Vergütung und manchmal auch auf Widerspruch gegenüber der Nutzung, womit er sein Werk dem Zugriff entziehen kann.

iRights.info: Wie verhält sich dieser „skandinavische Weg“ zum EU-Recht? Gibt es Konflikte, wenn Norwegen und andere Länder das „Extended Collective Licensing” umsetzen?

Felix Trumpke: Das ist ein interessanter Punkt. In der EU-Urheberrechts-Richtlinie von 2001, die bestimmte Aspekte des Urheberrechts in den Mitgliedstaaten harmonisiert hat, finden sich im Artikel 5 zahlreiche sogenannte „Ausnahmen und Beschränkungen“. Diese haben zur Folge, dass die Staaten keine weiteren „Schranken“ in das nationale Recht einführen dürfen.

Gleichzeitig ist den Regelungen der Richtlinie ein Erwägungsgrund vorangestellt, konkret der Erwägungsgrund 18. Er besagt, dass die Richtlinie „die Regelungen der betroffenen Mitgliedstaaten für die Verwaltung von Rechten, beispielsweise der erweiterten kollektiven Lizenzen“ nicht berührt.

Dies haben die skandinavischen Gesetzgeber nun so verstanden, dass sie berechtigt sind, an der ECL festzuhalten und diese sogar auszuweiten, weil es vom europäischen Recht nicht tangiert werde. Ob das so zutrifft oder nicht, mag eine andere Frage sein und würde jetzt auch an dieser Stelle zu weit führen.

Um es also kurz zu sagen: Ja, wegen Erwägungsgrund 18 der Richtlinie können sie die ECL umsetzen, ohne in Konflikt zu den europäischen Vorgaben zu treten.

iRights.info: Norwegen will auf diesem Weg praktisch große Teile des digitalisierbaren kulturellen Erbes frei zugänglich machen – könnte das ECL für so ein Vorhaben generell eine Art „Königsweg“ sein?e

Felix Trumpke: An dieser Stelle muss man etwas genauer hinschauen: Die Regelung in Skandinavien ist keine revolutionäre Erfindung. Die Länder wenden die ECL in unterschiedlichen Anwendungsbereichen seit den 1960er Jahren bereits an. Auch Schweden hat jüngst eine ähnliche ECL-Vorschrift wie Norwegen zugunsten von Bibliotheken und Museen in sein Urheberrechtsgesetz eingeführt.

Auch das Bokhylla-Projekt der norwegischen Staatsbibliothek läuft schon einige Jahre. Es handelt sich aber nicht um ein unbegrenztes und kostenloses Zuverfügungstellen des kulturellen Erbes Norwegens. Zunächst ist ja eine Vergütung ausgehandelt worden: pro Seite, die zugänglich gemacht wurde, zahlt die Bibliothek einen kleinen Betrag an die entsprechende Verwertungsgesellschaft „Kopinor“.

Hinzu kommt, dass es „nur“ Werke betrifft, die vor dem Jahre 2000 in Norwegen veröffentlicht wurden, einschließlich der übersetzten Literatur. Die Werke können auch nur am Bildschirm betrachtet werden, ein Ausdrucken oder Herunterladen ist nicht möglich. Zudem ist ein Abruf nur über eine norwegische IP-Adresse möglich – das ist aufgrund der territorialen Anwendung des nationalen Rechts notwendig.

iRights.info: In Norwegen soll sich mit dem ECL auch eine Vergütungs-Mechanik etablieren, die Rede ist von 0,04 Euro pro online aufgerufener Textseite. Gibt es bezüglich eines solchen Systems rechtliche Bedenken?

Felix Trumpke: Meines Erachtens nicht. Man darf freilich nicht vergessen, dass die Vergütung alle paar Jahre neu ausgehandelt wird. Bei solchen digitalen Nutzungen lassen sich die einzelnen Vorgänge, also wie viele Seiten zugänglich gemacht wurden, recht leicht erfassen und damit die Vergütung sehr präzise berechnen.

iRights.info: Das klingt doch alles, als hätten die Norweger mit der ECL einen guten rechtlichen Kniff gefunden, den freien Zugang für alle zu digitalem Wissen in großer Fläche zu öffnen.

Felix Trumpke: Ich wäre zunächst mit der Formulierung „freier Zugang für alle“ vorsichtig, da man damit immer gewisse Kritiker schnell auf den Plan ruft. Die ECL ermöglicht die Umsetzung großer Digitalisierungsvorhaben in sehr funktionsfähiger Weise. Sie ermöglicht aber keine umfassende kostenfreie Nutzung für alle von allem.

Doch ohne Zweifel ist sie ein ausgesprochen brauchbares Instrument in Fällen von Massennutzungen und großen Digitalisierungsprojekten. Denn im Gegensatz zu etwa den schmalen Lösungsansätzen der EU – zuletzt etwa die Richtlinie bezüglich einer zulässigen Nutzung verwaister Werke – lassen sich über die ECL umfassend alle erforderlichen Rechte aus einer Hand lizenzieren.

Aber es wird sehr oft übersehen, warum die ECL in den skandinavischen Ländern so gut funktioniert: In Skandinavien besteht ein ausgesprochen hoher Organisationsgrad der Urheber, das heißt, eine große Anzahl an Organisationen. Seit vielen Jahren sind die Rechteinhaber dort gewöhnt, bestimmte Nutzungshandlungen über Kollektivvereinbarungen zu lizenzieren, wohingegen andernorts Schranken vorgesehen sind, so auch in Deutschland.

Hinzu kommt, dass ein solches Modell die Bereitschaft der Rechteinhaber voraussetzt, sich darauf einzulassen. Es benötigt also Zeit, sich zu entwickeln.

iRights.info: Ließe sich das ECL-basierte Verfahren aus Norwegen trotz dieser Bedenken in Deutschland anwenden?

Felix Trumpke: Grundsätzlich wäre es denkbar, ein solches Modell auch hier in Deutschland einzuführen. Allerdings sind dabei zwei Punkte zu bedenken:

Zum einen der bereits erwähnte Organisationsgrad, der in Deutschland bei weitem nicht so stark ausgeprägt ist wie in Skandinavien, der aber in entscheidender Weise zum Funktionieren der ECL beiträgt. Zum anderen wurde jüngst eine Vermutungsregelung zugunsten der Verwertungsgesellschaft mit Bezug auf die Nutzung von vergriffenen Werken in Deutschland eingeführt (Paragraf 13d Urheberrechtswahrnehmungsgesetz).

Im Grunde ist das ein ähnlicher Mechanismus: Auch hier werden letztlich die Rechte der Außenseiter durch die Verwertungsgesellschaft lizenziert. Der Ansatz ist allerdings viel zu schmal, denn von der Regelung werden einzig vergriffene Werke erfasst. Insofern halte ich die Chancen für eine Umsetzung der ECL in Deutschland eher für gering.

iRights.info: Sie schreiben gerade an einer Doktorarbeit über die ECL. Was halten Sie persönlich vom „skandinavischen Weg“?

Felix Trumpke: Ich halte die ECL für eine ausgesprochen charmante Lösungsmöglichkeit, der bisher in der Wissenschaft erstaunlich wenig Beachtung geschenkt wurde. Das will ich mit meiner Arbeit darüber ändern.

Man darf aber zum einen nicht die einzelnen Problemstellungen übersehen, die mit der ECL einhergehen, zum anderen darf man nicht vergessen, aus welchem Umfeld sie stammt. Insofern halte ich die der ECL mancherorts entgegengebrachte und teilweise übertriebene Begeisterung nicht unbedingt für gerechtfertigt.

Felix Trumpke ist Doktorand am Max-Planck-Institut für Innovation und Wettbewerb (ehemals Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht) und forscht dort zum Immaterialgüter- und Wettbewerbsrecht in der Europäischen Union und im globalen Rahmen. Derzeit arbeitet er an einer Dissertation über „kollektive Rechtewahrnehmung und Erweiterte Kollektive Lizenzen“.

Computer müssen Isländisch, Lettisch, Litauisch und Maltesisch noch lernen

Sprachenvielfalt gehört zu Europa. Während für große Sprachen wie Englisch, Französisch und Spanisch automatische Übersetzungstechnologien verfügbar sind, klaffen bei anderen Sprachen große Lücken. Die europäische Initiative Meta-Net will das ändern.

Als Sprecher des Deutschen nimmt man bei der Nutzung aktueller Betriebssysteme, Rechner, Telefone und Internetdienste viele komfortable Annehmlichkeiten als gegeben hin. Natürlich steht der E-Mail-Dienst in einer deutschsprachigen Version zur Verfügung, der Kalender und die Tabellenkalkulation ebenfalls. Die Textverarbeitung ist seit Jahren in der Lage, Tipp- und einfache Grammatikfehler zu markieren. Besitzt eine Software keine deutschsprachige Schnittstelle, können sich viele Menschen mit dem Englischen behelfen.

Andere europäische Sprachen mit vielen Sprechern, speziell Spanisch, aber auch Französisch und Italienisch, schneiden ähnlich gut wie das Deutsche ab. Was ist aber mit den Sprachen mit deutlich weniger Sprechern, zum Beispiel Griechisch (circa 13 Millionen Sprecher weltweit), Tschechisch (circa 9,5 Millionen), Finnisch (circa 5 Millionen) und den noch kleineren, teils regionalen Sprachen wie Slowenisch (circa 2 Millionen), Baskisch (circa 650.000) oder Isländisch (circa 245.000)?

Die EU verfügt mit ihren 28 Mitgliedsstaaten über 24 offizielle Sprachen, im geografischen Europa werden mehr als 80 Sprachen gesprochen, hinzu kommen Sprachen von Immigranten, Diplomaten und Handelspartnern. Kann innerhalb der Union von einer solide aufgestellten digitalen Teilhabe gesprochen werden, wie sie für das Englische und die wenigen großen Sprachen gang und gäbe ist?

EU will übersetzen, schafft es aber nicht

In Wirtschaft und Wissenschaft mag das Englische den Status einer Verkehrssprache besitzen, im gesellschaftlichen Alltag jedoch nicht. Weniger als die Hälfte der etwa 500 Millionen Europäer besitzen Englischkenntnisse. Viele derjenigen, die die Sprache sprechen, tun dies nur auf geringem Niveau. Die politisch gewollte Dominanz einer Sprache ist keine Option, basiert Europa doch auf dem Prinzip der Einigkeit durch Vielfalt, auch in sprachlicher Hinsicht.

Tatsächlich betrachtet die EU unsere Sprachen als integralen und schützenswerten Teil des Kulturerbes, was sich unter anderem darin widerspiegelt, dass viele Jahre lang alle im Europaparlament geführten Debatten in alle offiziellen Sprachen übersetzt wurden. Aber trotz der weltweit größten Übersetzungsabteilung, die sich die europäischen Institutionen jährlich mehr als eine Milliarde Euro kosten lassen, können die eigenen, Mehrsprachigkeit favorisierenden Regularien nicht mehr in Gänze befolgt werden. Das Textvolumen ist so immens, dass Debatten, Resolutionen und Ausschreibungen nur noch selektiv übersetzt werden können.

Möchte man sich im Internet über ein Thema informieren, zu dem in der eigenen Sprache online keine Informationen vorliegen, in einer anderen jedoch schon, hat man zwangsläufig das Nachsehen. Sprachbarrieren sind das zentrale Hindernis bei der Schaffung eines gemeinsamen digitalen Binnenmarktes, wie er von der Europäischen Kommission propagiert wird. Noch besteht dieser aus isolierten Inseln, streng nach Sprachgrenzen getrennt. Da nur etwa ein Drittel der europäischen Bürger bereit ist, Produkte oder Dienstleistungen online zu kaufen, wenn der entsprechende Service nicht in der eigenen Muttersprache angeboten wird, verhindern Sprachbarrieren das Wachstum. Ideen, Innovationen, Wissen, Güter, Dialoge und Debatten können nicht ungehindert über Sprachgrenzen hinweg fließen.

Für kleine Sprachen fehlen Automatiken

Bei den heutigen Text- und Informationsmengen kann der Schlüssel zur Überwindung von Sprachgrenzen nur in möglichst vollautomatischen Übersetzungstechnologien liegen. Das europäische Exzellenznetzwerk Meta-Net hat im Rahmen der Studie „Europas Sprachen im digitalen Zeitalter“ 31 europäische Sprachen genauer untersucht. Die Studie, an der mehr als zweihundert Experten aus ganz Europa mitgewirkt haben, zeigt, dass mindestens 21 dieser Sprachen vom digitalen Aussterben bedroht sind. Für Isländisch, Lettisch, Litauisch oder Maltesisch existiert zum Beispiel keine ausreichende sprachtechnologische Unterstützung, um ihr digitales Überleben zu sichern.

Es fehlen nicht nur ausgereifte und einsetzbare Werkzeuge für Anwendungen wie Sprachein- und -ausgabe, sondern auch Basiswerkzeuge etwa für die syntaktische Analyse einzelner Sätze, die semantische Auflösung von Pronomina (worauf beziehen sich „er“, „sie“ oder „ihre“?) oder auch semantische Netze, die etwa „ist-ein“ oder „hat-Teil“-Beziehungen zwischen Konzepten wie „Mensch“ und „Lebewesen“ oder „Hand“ und „Finger“ repräsentieren.

Die Tabelle zeigt die alarmierenden Ergebnisse für das Anwendungsgebiet maschinelle Übersetzung:

ExzellentGutMittelFragmen­tarischSchwach bzw. keine EnglischFranzösischDeutschBaskisch SpanischItalienischBulgarisch KatalanischDänisch NiederländischEstnisch PolnischFinnisch RumänischGalizisch UngarischGriechisch Irisch Isländisch Kroatisch Lettisch Litauisch Maltesisch Norwegisch Portugiesisch Schwedisch Serbisch Slowakisch Slowenisch Tschechisch Walisisch

Bei vielen Sprachen klaffen massive Lücken bezüglich der Unterstützung durch maschinelle Übersetzungstechnologien. Oftmals existieren nur rudimentäre oder schlicht gar keine Technologien. Besonderes Augenmerk muss nun folglich auf die vielen Sprachen aus den beiden letzten Gruppen gelegt werden, sodass diese technologisch aufschließen und ihre Sprecher zum Beispiel online mit ähnlich guten Anwendungen und Werkzeugen hantieren können wie Sprecher des Englischen, Spanischen oder Französischen, speziell im Bereich maschinelle Übersetzung gesprochener oder geschriebener Sprache.

Politische Teilhabe erschwert

Europas Sprachenvielfalt beeinträchtigt nicht nur die internationalen Handels- und Finanzbeziehungen, sie erschwert auch die europäische Integration und Binnenkommunikation. So können EU-Bürger wichtige Themen nicht grenzübergreifend diskutieren. Debatten über die Finanzkrise, zum Beispiel zwischen Griechen und Deutschen, finden nur über die Medien und Politiker statt. Gerade soziale Netzwerke verändern die politische Partizipation fundamental, doch kann die EU auf Grund der Sprachenvielfalt nicht davon profitieren.­ Nach dem Unfall in Fukushima wurde in ganz Europa über Atomkraft diskutiert – allerdings nur innerhalb der Sprachgemeinschaften. Auf europäischer Ebene hat diese Diskussion nie stattgefunden. Benötigt werden Technologien, die derartige Debatten ermöglichen.

Um für die geschilderten Probleme und für alle Länder Europas langfristige Lösungen zu erarbeiten, werden viele Jahre intensiver Forschung benötigt. Zur Vorbereitung und Koordinierung dieser Initiative wurde 2010 das mittlerweile aus 60 Forschungszentren in 34 Ländern bestehende Exzellenznetzwerk Meta-Net ins Leben gerufen. Das Ziel von Meta-Net ist es, ein Europa ohne Sprachbarrieren zu errichten, in dem Informationen, Wissen und Ideen ungehindert verbreitet werden und neue internationale Märkte entstehen können, ohne dabei jedoch die sprachliche Vielfalt Europas zu gefährden.

Meta-Net hat eigens eine „Strategische Forschungsagenda“ für das mehrsprachige Europa 2020 entwickelt, die Anfang 2013 vorgestellt wurde. Dieses Strategiepapier ist das Ergebnis von mehr als zwei Jahren intensiver Kooperation von zweihundert Forschern aus Wissenschaft und Industrie, die demonstrieren, welche wirtschaftlichen und gesellschaftlichen Vorteile durch eine Fokussierung auf das Thema Sprachtechnologie entstehen können. Im Zentrum stehen dabei maschinelle Übersetzungstechnologien für alle europäischen Sprachen, die sowohl eine hohe Übersetzungsqualität liefern als auch robust und präzise arbeiten, etwa für syntaktisch nicht wohlgeformte Eingabesätze.

Siri und Google Now machen es vor

Das Strategiepapier erläutert, wie Europa seine Sprachvielfalt als Wettbewerbsvorteil nutzen kann. Die europäische Forschung erfüllt die besten Voraussetzungen, um eine führende Rolle in der nächsten IT-Revolution zu spielen, in der die Mensch-Maschine-Kommunikation zunehmend über gesprochene oder geschriebene Sprache stattfinden wird  – mit Siri und Google Now finden sich schon jetzt die ersten Vorboten dieser kommenden Technologierevolution in aktuellen Mobiltelefonen.

Von den drei großen Themenblöcken, auf die sich die Forschung in Europa in den kommenden Jahren konzentrieren sollte, ist die „Translingual Cloud” von zentraler Bedeutung. Diese Technologie soll Übersetzungsdienste für alle europäischen Bürger, Unternehmen und Organisationen bündeln und qualitativ hochwertige Ergebnisse durch maschinelle Übersetzung gesprochener und geschriebener Sprache bereitstellen, sodass diese Technologien nicht nur – wie alle aktuell verfügbaren Online-Systeme – benutzt werden, um sich schnell einen indikativen Überblick über einen Text zu verschaffen („inbound gist translation“). Ein Vorschlag ist die Entwicklung von Ansätzen, die für bestimmte Typen von Texten möglichst fehlerfreie Übersetzungen liefern, die dann etwa an externe Leser weitergegeben werden kann („high quality outbound translation“).

EU will Meta-Net unterstützen

Zur Realisierung seiner Anwendungsvisionen schlägt Meta-Net ein groß angelegtes Förderprogramm vor und ruft die EU, die Sprachgemeinschaften, alle Mitgliedstaaten und assoziierte Länder sowie Forschung und Industrie zu einer engen Zusammenarbeit auf. Im Rahmen seiner vierten Jahrestagung, Meta-Forum 2013, im September in Berlin wurden von internationalen Unternehmen und Verbänden, Fördereinrichtungen und nicht zuletzt von der Forschung der aktuelle Stand, jüngste Entwicklungen und insbesondere die nächsten Schritte diskutiert, um die oben nur angerissenen Ziele in die Realität umzusetzen.

Kurze Zeit später verzeichnete die Initiative entscheidende Fortschritte. Zunächst wurde der Forschungsplan der für die Digitale Agenda zuständigen Kommissarin Neelie Kroes präsentiert, die die Wichtigkeit und Dringlichkeit des Themas erkannt und Unterstützung signalisiert hat. Anfang Dezember schließlich wurde die Zukunft der maschinellen Übersetzung in einem Workshop im „Science and Technology Options Assessment“-Ausschuss des Europaparlaments diskutiert, der sich mittlerweile ebenfalls besorgt um die digitale Unterstützung von Europas Sprachen zeigt.

Im Rahmen des 2014 startenden EU-Förderprogramms Horizon 2020 werden gerade in die von Meta-Net als problematisch eingestuften Sprachen vermehrt Fördergelder investiert – ein erfreulicher Schritt in die richtige Richtung. Allerdings müssen in den kommenden Jahren weitere Investitionen folgen, um Europas Mehrsprachigkeit von einer wirtschaftlichen und gesellschaftlichen Barriere in ein Sprungbrett zu transformieren.

foto_georg-rehmGeorg Rehm ist am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) tätig und leitet dort gemeinsam mit Hans Uszkoreit die Initiative Meta-Net. Foto: Georg Rehm

.
Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

Maas will mit Vorratsdaten warten, Redtube-Ermittlungen, Filesharing-Haftung

Justizminister Maas will mit der Vorratsdatenspeicherung bis zum Urteil des Europäischen Gerichtshofes warten, die Staatsanwaltschaft Hamburg ermittelt nach einer Anzeige gegen die Kanzlei Urmann + Collegen, ein Anschlussinhaber haftet nach einem Urteil nicht grundsätzlich für Filesharing Dritter. Außerdem im Wochenrückblick: BGH-Urteil „Runes of Magic” im Volltext, Wissenschaftler gegen Massenüberwachung und ein Urteil zum Auktionsabbruch bei Ebay.

Vorratsdatenspeicherung liegt erneut auf Eis

Der neue Bundesjustizminister Heiko Maas (SPD) hat angekündigt, die Vorratsdatenspeicherung vorerst nicht umzusetzen. Er wolle zunächst eine Entscheidung des Europäischen Gerichtshofs abwarten. Auch seine Vorgängerin, Sabine Leutheusser-Schnarrenberger (FDP), hatte sich jahrelang gegen eine Umsetzung der Vorratsdatenspeicherung in Deutschland gewehrt. Im Koalitionsvertrag zwischen Union und SPD hatten sich die neuen Regierungsparteien nach der Wahl 2013 jedoch auf eine Umsetzung geeinigt. Vor einer Entscheidung des EuGH wird es vom Bundesjustizministerium jedoch keinen neuen Gesetzesentwurf geben, so Maas.
Weiter bei Golem.

Redtube: Verwertungsrechte unklar und Ermittlungsverfahren

Die Kanzlei „Müller Müller Rößner“ (MMR) hat Strafanzeige gegen die Rechtsanwaltsgesellschaft Urmann + Collegen erstattet. Die Hamburger Staatsanwaltschaft bestätigte am 23. Dezember die Einleitung eines Ermittlungsverfahrens. Die Kanzlei MMR wirft Urmann + Collegen unter anderem Nötigung und Erpressung in besonders schwerem Fall, alternativ besonders schweren Betrug, vor. Des Weiteren steht die Frage im Raum, wer der Rechteinhaber an den Filmwerken ist. Die Rechtekette lässt sich im Moment nur bis zum Hersteller der DVDs verfolgen, der die Filme jedoch nicht produziert. Insoweit ist derzeit unklar, ob das abmahnende Unternehmen The Archive AG überhaupt die Rechte an den betroffenen Filmen hatte.
Die Pressemitteilung der Kanzlei MMR.
Heise zu den möglichen Lücken in der Rechtekette.
iRights.info: Gerald Spindler und Malte Stieper im Interview zur Rechtslage.

OLG Hamm: Anschlussinhaber haftet nicht grundsätzlich für Filesharing

Das Oberlandesgericht Hamm hat Anfang November über die Haftung eines Anschlussinhabers für Filesharing bei mehreren Anschlussnutzern entschieden (Az: 22 W 60/13), wie vergangene Woche bekannt wurde. Danach trifft den Inhaber eines Internetanschlusses keine grundsätzliche Haftung für weitere Menschen, die in seinem Haushalt leben und den Internetanschluss verwenden. In diesem Fall besteht die ernsthafte Möglichkeit, dass sich ein anderer Geschehensablauf als eine Alleintäterschaft ereignete. Zum Nachweis genüge, wenn der Anschlussinhaber darlegen kann, dass andere Haushaltsmitglieder selbstständig Zugang zum Internetanschluss haben. Den Anschlussinhaber treffe insoweit nur eine sogenannte sekundäre Darlegungslast.
Die Meldung bei Heise Online.
Details bei Thomas Stadler.

BGH: Urteil zu Werbung für Online-Spiele veröffentlicht

Vergangene Woche ist das BGH-Urteil „Runes of Magic” (Az: I ZR 34/12im Volltext veröffentlicht worden. Darin hatte der Bundesgerichtshof Mitte Juli 2013 dem Betreiber eines Online-Spiels eine Werbeanzeige untersagt, die an Kinder und Jugendliche gerichtet war. Dabei stellte der BGH maßgeblich darauf ab, dass die Adressaten der Anzeige geduzt wurden und Anglizismen verwendet wurden, die typisch für Jugendsprache seien. Die Anzeige stelle daher eine unmittelbare Kaufaufforderung an Kinder dar, die nach Nr. 28 des Anhangs zum Gesetz gegen den unlauteren Wettbewerb (sog. „schwarze Liste”) wettbewerbswidrig sei.
Urteilsbesprechung bei spielerecht.de.
Die BGH-Entscheidung im Volltext.

Wissenschaftler sprechen sich gegen Massenüberwachung aus

In einem offenen Protestaufruf haben sich mehr als 200 internationale Wissenschaftler gegen die massenhafte Überwachung der Telekommunikation ausgesprochen. Die Gruppe mit dem Namen „Academics Against Mass Surveillance” fordert unter anderem die Einstellung von Abhörprogrammen und gezielten Angriffen auf Verschlüsselungstechnologien durch Geheimdienste sowie einen besseren Schutz des Menschenrechts auf Privatsphäre.
Der Aufruf in deutscher Übersetzung bei Spiegel Online.
Die Webseite der Aktion „Academics Against Mass Surveillance”.

OLG Hamm: Auktionsabbruch bei Ebay wegen Fehler in Mindestpreisangabe berechtigt

Unterläuft einem Verkäufer bei einer Ebay-Auktion ein Fehler bei der Mindestpreisangabe, ist eine vorzeitige Beendigung der Auktion berechtigt und muss von Bietern hingenommen werden. Das hat das OLG Hamm (Az: 2 U 94/13) Anfang November entschieden. Im konkreten Fall hatte ein junger Mann ein Fahrzeug ohne die Angabe eines Mindestpreises zur Auktion bei Ebay eingestellt. Der mit einem Gebot von 7,10 EUR Höchstbietende klagte auf Herausgabe des angeblich wirksam erworbenen Autos und scheiterte vor dem OLG Hamm.
Die Meldung bei Heise Online.
.

Dieser Wochenrückblick wurde von Adrian Schneider und Diana Spikowius verfasst. Lizenz: CC BY-NC-SA.

January 03 2014

John Weitzmann: Freie Lizenzen – Neue Zeiten für Daten

Mit der Creative-Commons-Version 4.0 können nun auch Datenbanken unter CC lizenziert werden. Bis es soweit war, mussten einige Hürden überwunden werden.

Eigentlich hätte dieser Text im letztjährigen iRights-Jahresrückblick erscheinen sollen. Als beim alle zwei Jahre stattfindenden CC Global Summit im Herbst 2011 in Warschau der Startschuss für die Arbeit an der Version 4.0 der Creative­-Commons-Lizenz fiel, war deren Abschluss für spätestens Ende 2012 geplant. Gedauert hat es dann ein ganzes Jahr länger, nicht zuletzt, weil die neue Version zugleich eine kleine Zeitenwende bedeutet: Künftig lassen sich mit CC-Lizenzen auch Datenbanken lizenzieren.

Seit dem Update auf Version 3.0 im Jahre 2007 waren zumindest die für Europa angepassten Fassungen der CC-Lizenzen kaum geeignet, Datenbanken zu lizenzieren und dadurch freizugeben. Grund hierfür war, dass Creative Commons als Organisation das in Europa Mitte der 1990er erdachte „Schutzrecht des Datenbankherstellers“ ablehnte.

Das Datenbanken­herstellerrecht setzt keine schöpferische Leistung voraus

Denn als dieses neue Recht nach und nach in den EU-Mitgliedsstaaten umgesetzt wurde, löste das in den USA große Besorgnis aus. Besonders groß war diese innerhalb des Creative-Commons-Unterprojekts Science Commons, das für den Wissenschaftsbereich gegründet wurde. Da das neue Datenbanken­herstellerrecht (anders als das Urheberrecht) keine schöpferische Leistung voraussetzt und dennoch (genauso wie das Urheberrecht) automatisch entsteht, befürchtete man bei Science Commons: Wenn dieses neue Recht weltweit Schule macht, werden auch solche Daten mit einem rechtlichen Schutz überzogen, die bisher für die Wissenschaft frei nutzbar waren – was unkalkulierbare Risiken für den Fortschritt in der Forschung mit sich bringen könne.

Deshalb wurde bei Version 3.0 der CC-Lizenzen das neue Schutzrecht aktiv mit in die Lizenz einbezogen und dann ein paar Absätze weiter unten durch Verzicht unschädlich gemacht. Das sollte es unmöglich machen, dass die Freiheiten von CC-Lizenzen dadurch unterlaufen werden können, dass der freigegebene Content in eine Datenbank gesteckt wird. Der Mechanismus wurde anschließend in die Versionen der CC-Lizenzen eingefügt, die an die Rechtssysteme der EU-Länder angepasst wurden. Die europäischen Portierungen der Version 3.0 neutralisieren also seither das Datenbankenherstellerrecht statt es zu lizenzieren. Die Hoffnung war, dass auf diese Weise ein klares Zeichen gegen weitere Schutzrechte für Daten und für die freie Wissenschaft gesetzt werden könnte.

Diskussionen innerhalb der CC-Aktivistengruppen

Symbolisch gelang das teilweise, praktisch jedoch blieb der neue Datenbankenschutz in der Welt und verbreitete sich sogar über Europa hinaus. Das sorgte für Diskussionen innerhalb der CC-Aktivistengruppen: Die einen folgten der offiziellen Linie und lehnten jeden gestaltenden Umgang mit dem Datenbankenherstellerrecht strikt ab, andere wollten das neue Schutzrecht ebenso für das Anliegen der Freiheit einsetzen, wie es Open-Content-Lizenzen seit jeher mit dem Urheberrecht tun.

Die Organisation Creative Commons bekam die Folgen ihrer harten Haltung sowohl seitens Institutionen als auch seitens bestimmter Communities zu spüren: Viele Institutionen, die Daten mittels CC-Lizenzen als Open Data freigeben wollten, stellten fest, dass sie mit den für Europa angepassten CC-Lizenzen der Version 3.0 ihr Datenbankenherstellerrecht nicht in abgestufter Weise unter bestimmten Bedingungen lizenzieren, sondern es nur zum Verschwinden bringen konnten. Das geschah, obwohl dieses Recht nicht selten das einzige Schutzrecht der jeweiligen Institution war. Einige ließen sich zwar davon überzeugen, dass dies der richtige Weg sei, weil reine Daten nie unter rechtlichen Schutz gestellt werden sollen. Viele aber sahen sich nicht in der Lage, unter diesen Umständen CC-Lizenzen zu verwenden, und legten die Freigabepläne entweder auf Eis oder suchten nach anderen Lösungen beispielsweise selbstgeschriebenen Datenlizenzen.

Es kam zum strukturellen Bruch der Community

Die Aktivisten, die mit den Institutionenvertretern über Freigaben sprachen und über die Möglichkeiten aufklärten, bekamen diese internen Konflikte natürlich mit. Das stärkte die Position derjenigen, die der Meinung waren, dass Open-Content-Lizenzen alle verfügbaren Schutzrechte als Hebel nutzen sollten, um Freiheiten zu erzeugen, anstatt den sinnlosen Versuch zu unternehmen, bestimmte Rechte als ablehnenswert zu brandmarken. Zum strukturellen Bruch der Community kam es, als das Openstreetmap-Projekt (OSM) sich immer mehr diesem Lager der Andersdenkenden anschloss. Die große Sorge vieler Mitglieder der OSM-Community war, dass große US-Unternehmen wie Google die mühsam durch Freiwillige gesammelten OSM-Daten übernehmen und nutzen könnten und dann nicht einmal verpflichtet wären, das OSM-Projekt als Rechteinhaber zu nennen.

Diese Sorge war großenteils unbegründet, weil Landkarten-Darstellungen rechtlich keineswegs wie Fakten behandelt werden – für sie besteht auch ohne Datenbankherstellerrecht ein urheberrechtlicher Schutz. Viele in der OSM-Community trauten dieser Rechtslage jedoch nicht. Zu groß wäre der Schaden aus ihrer Sicht gewesen und zu schnell wäre er eingetreten, falls sich der rechtliche Status der OSM-Kartendaten doch als weniger robust darstellen sollte. Deshalb beauftragte das OSM-Projekt den Entwurf einer neuen Lizenz-Familie speziell für Daten, die auf das europäische Datenbankenherstellerrecht setzen, um damit einen starken Copyleft-Effekt zu erzielen. 2010 wurden die neuen Lizenzen „Open Database License“ (ODbL) und „Open Data Commons BY“ (ODC BY) vorgestellt. Die Daten des OSM-Projekts wurden wenig später auf sie umgestellt.

Die Entwicklung von ODbL und ODC BY verfehlte ihre Wirkung nicht

Rechtstechnisch gesehen versuchen diese Datenlizenzen einen gefährlichen Kunstgriff: ODbL und ODC BY exportieren gewissermaßen das Datenbankenherstellerrecht der EU, indem sie es durch Vertragsklauseln nachbauen. Sie wollen damit erreichen, dass beispielsweise die bereits erwähnten US-Schreckgespenster wie Google sich an die in den Lizenzen enthaltenen Namensnennungs- und Copyleft-Bedingungen halten müssen – obwohl es in den USA überhaupt kein Datenbankenherstellerrecht gibt, das als Hebel in Frage käme. Creative Commons als Organisation sieht das nach wie vor sehr kritisch, dennoch hat die Entwicklung von ODbL und ODC BY ihre Wirkung nicht verfehlt: Die inzwischen personell verjüngte Riege der CC-Juristen hatte eingesehen, dass eine noch so gut gemeinte und gut begründbare Haltung unterm Strich mehr schadet als sie nützt, wenn sie zur Zersplitterung der Lizenzlandschaft und der zugehörigen Communites führt. So wurde schließlich die Versionierung auf Ver­sion 4.0 der Creative-Commons-Lizenzen vor allem eingeleitet, um beim bisherigen Umgang mit Daten umzusteuern.

Der gewählte Weg liegt zwischen der früheren Neutralisierung des Datenbankenherstellerrecht und dem Export dieses Rechts in Länder, in denen die Gesetze es gar nicht vorsehen. Die CC-Lizenzen ab Version 4.0 werden das Datenbankenherstellerrecht unter Bedingungen mitlizenzieren, wie sie es mit dem Urheberrecht und weiteren, damit verwandten Schutzrechten schon lange tun. Dies wird jedoch nur in den Ländern greifen, die gesetzlich überhaupt diesen Datenbankenschutz vorsehen. In allen anderen Ländern bleibt es dabei, dass die CC-Lizenzen – anders als ODbL und ODC BY – keinen Versuch unternehmen, ein Datenbankenherstellerrecht vertraglich nachzubauen.

CC-Lizenzen nun auch für Daten so einsetzbar, wie man es fürs Urheberrecht seit Jahren gewöhnt ist

Man kann sagen, dass CC-Lizenzen nun endlich auch für Daten so einsetzbar sind, wie man es fürs Urheberrecht schon seit rund 10 Jahren gewöhnt ist. Da im Netz inzwischen fast aller Content irgendwie in Datenbanken steckt, wird es spannend sein, die Auswirkungen zu beobachten, die der Sinneswandel von Creative Commons haben wird. Dass das OSM-Projekt in absehbarer Zeit wieder auf CC-Lizenzen zurückwechseln wird, ist allerdings eher unwahrscheinlich. Zu aufwendig und zu konfliktreich war die letzte Umstellung, als dass man der OSM-Community so etwas noch einmal zumuten wollte. Dennoch könnte 2013 das Jahr des Anfangs vom Ende der Spaltung der Open-Data-Communities gewesen sein.

John H. Weitzmann

Foto: John H. Weitzmann

John H. Weitzmann hat Rechtswissenschaften mit Schwerpunkt Urheber- und Medienrecht studiert. Er arbeitet als Rechtsanwalt und Journalist bei iRights in Berlin, ist seit 2006 als Projektleiter Recht von Creative Commons Deutschland aktiv und wurde zudem zum Regionalkoordinator der europäischen Creative-Commons-Projekte ernannt.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 31 2013

Verwertungsgesellschaften ­– Vermittler von Rechten

Für die Geschäftsführerin der Verwertungsgesellschaft Literar-Mechana Sandra Csillag sind Verwertungsgesellschaften die Interessenvertreter der Rechteinhaber. In Österreich hat ein Gesetz schon vor sieben Jahren dafür gesorgt, dass die VGs auf die neuen Bedingungen der digitalen Welt vorbereitet sind – EU-Richtlinien sind dafür nicht nötig.

Ein Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

U-TonVerwertungsgesellschaften gibt es seit mehr als hundert Jahren. Sie haben sich als Clearingstelle dort bewährt, wo Rechte massenhaft genutzt werden und haben immer wieder bewiesen, dass ein geordneter Rechtserwerb möglich ist. Sie haben die Funktion eines Vermittlers, der rasch, umfassend und kostengünstig den Zugang zu geschützten Werken – an einer Adresse – ermöglicht.

Grundprinzipien: Aufsicht – Transparenz – Effizienz – Verhältnismäßigkeit

Seit mittlerweile sieben Jahren verfügt Österreich über ein neues, modernes Gesetz, das die Rahmenbedingungen für Verwertungsgesellschaften absteckt. Die Eckpfeiler sind Monopolstatus, staatliche Kontrolle, Transparenz der Finanzen, Mitbestimmung der Urheber an der Willensbildung, Effizienz, aber auch Verhältnismäßigkeit. Es gab für dieses „Verwertungsgesellschaftengesetz“ keine europarechtliche Verpflichtung.

Österreich hat freiwillig eine ganze Branche für die modernen gesellschaftspolitischen und sozio-ökonomischen Anforderungen fit gemacht. Die jüngsten Disziplinierungsmaßnahmen der *EU-Kommissio*n, ausgehend von teilweise berechtigter öffentlicher Kritik wegen Unzulänglichkeiten in Organisations- und Transparenzfragen sowie Misswirtschaft in einzelnen großen europäischen Musikgesellschaften, kommen in Österreich jedenfalls zu spät und sind überflüssig.

Von den Künstlern für die Künstler

Verwertungsgesellschaften sind nicht die Gegenspieler ihrer Bezugsberechtigten. Sie wurden von den Rechteinhabern gegründet und sind für diejenigen Rechteinhaber da, die an der Willensbildung der Gesellschaft teilnehmen. So ist es gesetzlich vorgesehen.

Daher sind öffentlichkeitswirksame, aber unqualifizierte Aussagen wie vor kurzem im EU-Parlament, die in der neu erarbeiteten Verwertungsgesellschaften-Richtlinie endlich ein Reglement entdecken, das die Bezugsberechtigten „gegen ihre Verwertungsgesellschaften stärkt“, nur billige Polemik auf Kosten anderer und letztlich ein Ausdruck tiefer Ignoranz.

Aufklärung ist dringend erforderlich. Das komplexe System muss einfach aufbereitet werden. Dem wollen wir uns gerne stellen.

Literar-Mechana – Partner der Autorinnen, Autoren und Verlage

In der Literar-Mechana ist ein Partnerschaftsmodell verwirklicht – alle Kategorien von Bezugsberechtigten (über 17.000 Autorinnen und Autoren von Sprachwerken jeder Art und Verlage) nehmen gleichberechtigt an der Willensbildung teil, keine Gruppe von Rechteinhabern kann überstimmt werden.

Die wichtigsten Einnahmequellen der Autorinnen und Autoren sowie der Verlage liegen in der so genannten Erstverwertung, also im Buch-, E-Book- oder Zeitschriftenverkauf, oder im Verkauf der Sende- und Aufführungsrechte. Diese werden vom Autor oder vom Verlag selbst abgewickelt, eine literarische Verwertungsgesellschaft hat damit nichts zu tun.

Die Literar-Mechana verteilt die Tantiemen aus der Wahrnehmung der Zweitverwertung, also zum Beispiel in den Bereichen der Privatkopiervergütung, des Kabelfernsehens und der öffentlichen Wiedergabe. Das ist in der Regel nur ein Zusatzverdienst für die Rechteinhaber. Mittelgroße Gesellschaften wie die Literar-Mechana können nicht mit den großen musikalischen Gesellschaften über einen Kamm geschoren werden, über die ein Gutteil der Gesamteinnahmen aus der Lizenzierung von Werknutzungen ausgeschüttet wird.

Verteilung als Spiegel der Erstverwertung

Immer wieder kann man lesen, die Verteilung sei ungerecht, das Geld kommt nicht bei den Künstlern an, nur die wichtigen Künstler oder „großen Verwerter“ erhalten alles oder alles Geld fließt ins Ausland. Aber Verteilungspläne der Verwertungsgesellschaften sind nun einmal komplex. Das liegt an den unterschiedlichen Wahrnehmungsbereichen und daran, dass ein Drehbuch anders genutzt wird als ein wissenschaftlicher Aufsatz. Das macht sie per se nicht ungerecht, sondern zeigt nur das redliche Bemühen, alle Berechtigten angemessen zu berücksichtigen.

Ein Verteilungsplan einer Verwertungsgesellschaft kann immer nur Spiegel der Erstverwertung, also der Realität etwa auf dem Buchmarkt sein: Werke, die stärker nachgefragt werden, erhalten entsprechend ihrer Nutzung mehr, aber sowohl Autoren als auch Verlage werden angemessen beteiligt. Dieses demokratische und partnerschaftliche Modell darf nicht in Frage gestellt werden, soll die kollektive Verwaltung weiterhin funktionieren.

Und natürlich kommt das Geld bei den Autorinnen und Autoren an. Dazu genügt ein Blick in die öffentlich zugänglichen Geschäftsberichte: Rund 9.500 österreichische Autorinnen und Autoren und 300 österreichische Verlage haben in den letzten Jahren zweimal im Jahr eine Abrechnung erhalten. In den letzten zwanzig Geschäftsjahren hat sich der von der Literar-Mechana an Verlage ausbezahlte Anteil an der Verteilungssumme – das waren zuletzt rund 20 Millionen Euro – jeweils zwischen 27 und 33 Prozent bewegt. Rund 65 Prozent der verteilten Beträge verblieben in Österreich.

Transparenz für Bezugsberechtigte und Nutzer

Good Governence, Transparenz, Effizienz bei bestmöglichem Service für die Bezugsberechtigten, aber auch für die zahlungspflichtigen Nutzer – das sind die Wegweiser für die Tätigkeit der Literar-Mechana. Dies ist nicht zuletzt an dem konstant niedrigen Satz für die Verwaltung ableitbar. Die Aufwendungen für den Gesamtbetrieb betrugen im letzten Jahr 5,9 Prozent der Gesamterträge. Das bedeutet, dass von 100 eingenommenen Euro rund 94 Euro in die Tantiemenausschüttung fließen.

Wir haben nichts zu verbergen. Dem tragen die weitreichenden Informationen auf unserer Webseite (www.literar.at) Rechnung. Die Verpflichtungen des österreichischen Gesetzes haben allesamt dazu ausgereicht, dass ein Bezugsberechtigter die Organisation seiner Verwertungsgesellschaft auch beurteilen kann. *

Die EU-Kommission erlegt allen Verwertungsgesellschaften unabhängig von ihrer Größe, also auch solchen wie der Literar-Mechana, in ihrem Richtlinien-Entwurf Informationspflichten gegenüber der Öffentlichkeit und ihren Bezugsberechtigten auf, die den Bogen weit überspannen.* Dies wird auf Kosten der Bezugsberechtigten gehen, weil dies mit erheblichen Mehrkosten verbunden ist.

Stichwort Creative Commons

Was in netzpolitischen Blogs als Sieg über die starren Systeme der Verwertungsgesellschaften gefeiert wird, ist bei der Literar-Mechana seit langem umgesetzt. Wünscht der Bezugsberechtigte keine Verwaltung über uns, hat er selbst lizenziert oder möchte er das Werk von der Lizenzierung ausschließen, meldet er entweder sein Werk nicht zur Verrechnung an oder er gibt bekannt, dass er bestimmte Rechte selbst verwaltet. Davon wird bereits in den „klassischen“ Wahrnehmungsbereichen immer wieder Gebrauch gemacht. Wir werden dies weiterhin so flexibel handhaben.

Soziale und kulturelle Förderungen

Wir setzen uns für Kunst und Kultur ein. Allein aus den sozialen und kulturellen Einrichtungen der SKE wurden zuletzt zwischen 1 und 1,2 Millionen Euro für soziale Notfälle, Stipendien, Veranstaltungen von besonderem kulturellen Wert ausgegeben.

Die derzeitige sehr kontroversiell geführte Urheberrechtsdebatte zeigt deutlich, dass die Verwertungsgesellschaften im In- und Ausland mehr denn je gefordert sind, das Bewusstsein für die Rechte und Ansprüche ihrer Mitglieder zu stärken und sich für ihre Rechte einzusetzen.

Sandra Csillag ist Geschäftsführerin der Verwertungsgesellschaft Literar-Mechana.

Wahrheit gegen Freiheit. Edward Snowdens Dankesrede vom 30. August 2013

Edward Snowden hat im August 2013 den Whistleblower-Preis von Transparency International und anderen verliehen bekommen. Wir dokumentieren seine Dankesrede, die er übersandt hat, mit freundlicher Erlaubnis von Zeit Online.

Der Whistleblower-Preis wird seit 1999 von Transparency International, der International Association Of Lawyers Against Nuclear Arms (Ialana) und der Vereinigung Deutscher Wissenschaftler vergeben. In diesem Jahr hat der ehemalige Geheimdienstmitarbeiter Edward Snowden den Preis verliehen bekommen. Snowden hat tausende Dokumente über die heimliche Überwachung von Menschen und Institutionen in aller Welt durch die NSA und verbündete Geheimdienste an die Medien weitergereicht. Er hält sich derzeit in Russland auf und fürchtet eine Rückkehr in seine Heimat, die USA. Seine Dankesrede hat er Jacob Appelbaum übermittelt, der sie am 30. August 2013 in der Berlin-Brandenburgischen Akademie der Wissenschaften in Berlin an seiner Stelle vortrug. Zeit Online dokumentierte die Rede in einer deutschen Übersetzung von Transparency International sowie im englischen Original.

„Es ist eine große Ehre, für das öffentliche Gut, das durch meinen Akt des Whistleblowings entstanden ist, gewürdigt zu werden. Aber die größere Anerkennung gebührt den Menschen und Organisationen in zahllosen Ländern auf der ganzen Welt, die Grenzen der Sprache und Geographie überwunden haben, um gemeinsam das Recht auf Information und Wissen und den Wert der Privatsphäre zu verteidigen. Nicht ich allein bin es, der von dem machtvollen Wandel hin zur Aufhebung grundlegender verfassungsmäßiger Rechte durch die Geheimdienste betroffen ist – es ist die Allgemeinheit. Nicht ich bin es, sondern Zeitungen auf der ganzen Welt, die protestieren und von den Regierungen Rechenschaft verlangen, während mächtige Behördenvertreter versuchen, von genau diesen Themen mit Gerüchten und Beleidigungen abzulenken. Nicht ich bin es, aber bestimmte mutige Verantwortliche in Regierungen weltweit, die nun neuen Schutz, neue Grenzen und neue Sicherheiten vorschlagen, mit denen zukünftige Übergriffe auf unsere Rechte und unser Privatleben verhindert werden können.

Regierungen müssen für ihre Entscheidungen Rechenschaft ablegen

Meine Dankbarkeit gilt all denen, die ihre Freunde und ihre Familie angesprochen haben, um ihnen zu erklären, warum verdachtsunabhängige Überwachung ein Problem ist. Sie gilt dem maskierten Mann auf der Straße an einem heißen Tag und der Frau mit einem Schild und einem Schirm im Regen. Sie gilt den Studenten mit Stickern für Freiheitsrechte auf ihren Laptops, und dem Jungen hinten im Klassenraum, der Internet-Memes erfindet. Alle diese Menschen erkennen, dass Veränderung mit einer einzigen Stimme beginnt, und sie alle überbrachten der Welt eine Botschaft: Regierungen müssen für ihre Entscheidungen Rechenschaft ablegen. Entscheidungen darüber, wie die Welt aussehen wird, in der wir leben. Die Entscheidung, welche Rechte und Freiheiten die Menschen haben, muss öffentlich gefällt werden, und nicht von den Regierungen im Geheimen.

Gleichwohl ist meine Freude über den Whistleblower-Preis gedämpft durch das Bewusstsein dafür, was uns heute hierher gebracht hat. Das heutige Amerika hat mit der Kombination aus schwachem rechtlichen Schutz für Whistleblower, schlechten Gesetzen, die keinen Schutz des öffentlichen Interesses vorsehen, und einer Immunitätsdoktrin für Amtspersonen, die sich weit über die Grenzen des Rechts hinaus verirren, das Anreizsystem pervertiert, das Regierungsgeheimnisse in regelt. Dies führt dazu, dass wir einen ungerechtfertigt hohen Preis für die Erhaltung des notwendigen Fundaments unserer freiheitlichen Demokratie zahlen – unserer informierten Öffentlichkeit. Denn die Wahrheit über die Mächtigen auszusprechen, hat Whistleblower ihre Freiheit, ihre Familie oder ihr Land gekostet.

Können wir von einer offenen Gesellschaft sprechen?

Diese Situation steht weder Amerika noch der Welt gut zu Gesicht. Es verlangt keine besondere Einsicht, um zu verstehen, dass eine Politik, die notwendige Warnungen mit der Bedrohung der nationalen Sicherheit gleichsetzt, unausweichlich zu Ignoranz und Unsicherheit führt. Die Gesellschaft, die in jene Falle geht, die als „Bestrafung des Überbringens schlechter Nachrichten“ bekannt ist, wird schnell merken, dass es nicht nur keine Überbringer mehr gibt, sondern dass es überhaupt keine Nachrichten mehr gibt. Es ist richtig, die Weisheit dieser Politik zu hinterfragen und die nicht beabsichtigten Anreize, die von ihr herrühren. Wenn die Strafe dafür, in böser Absicht einer ausländischen Regierung geheime Informationen zu verraten, geringer ausfällt als die Strafe dafür, in guter Absicht die Öffentlichkeit zu informieren, schaffen wir dann nicht eher Anreize für Spione als für Whistleblower? Was bedeutet es für die Öffentlichkeit, wenn wir die Gesetze zur Bekämpfung des Terrorismus gegen jene anwenden, die sich journalistisch betätigen? Können wir von einer offenen Gesellschaft sprechen, wenn wir Einschüchterung und Rache höher bewerten als Tatsachenprüfungen und Recherchen? Wo ziehen wir die Linie zwischen nationaler Sicherheit und öffentlichem Interesse, und wie können wir dieser Balance vertrauen, wenn alle, die an ihrer Überprüfung beteiligt sind, aus den Reihen der Regierung kommen?

Fragen wie diese können nur durch eine gründliche Diskussion beantwortet werden, so wie wir sie heute erleben. Wir dürfen niemals vergessen, was uns die Geschichte über zu weit gehende Überwachung lehrt, noch dürfen wir unsere Macht vergessen, solche Systeme im Sinne des Allgemeinwohls zu verändern. Der Weg, den wir gehen, ist steinig, aber er führt uns in bessere Zeiten. Gemeinsam können wir sowohl die Sicherheit als auch die Rechte zukünftiger Generationen sicherstellen.

Allen, die zu dieser Diskussion beigetragen haben, vom höchsten Beamten bis zum einfachen Bürger, sage ich Danke.

Edward J. Snowden.“

Transkribiert und übersetzt von Transparency International und Zeit Online

“It is a great honor to be recognized for the public good created by this act of whistleblowing. However the greater reward and recognition belongs to the individuals and organizations in countless countries around the world who shattered boundaries of language and geography to stand together in defense of the public right to know and the value of our privacy. It is not I, but the public who has affected this powerful change to abrogation of basic constitutional rights by secret agencies. It is not I, but newspapers around the world who have risen to hold our governments to the issues when powerful officials sought to distract from these very issues with rumor and insult. And it is not I, but certain brave representatives in governments around the world who are proposing new protections, limits and safeguards to prevent future assault on our private rights and private lives.

My gratitude belongs to all of those who have reached out to their friends and family to explain why suspicionless surveillance matters. It belongs to the man in a mask on the street on a hot day and the women with a sign and an umbrella in the rain, it belongs to the young people in college with a civil liberty sticker on their laptop, and the kid in the back of a class in high school making memes. All of these people accept that change begins with a single voice and spoke one message to the world: governments must be accountable to us for the decisions that they make. Decisions regarding the kind of world we will live in. What kind of rights and freedoms individuals will enjoy are the domain of the public, not the government in the dark.

Yet the happiness of this occasion is for me tempered by an awareness of the road traveled to bring us here today. In contemporary America the combination of weak legal protections for whistleblowers, bad laws that provide no public interest defense and a doctrine of immunity for officials who have strayed beyond the boundaries of law has perverted the system of incentives that regulates secrecy in government. This results in a situation that associates an unreasonably high price with maintaining the necessary foundation of our liberal democracy – our informed citizenry. Speaking truth to power has cost whistleblowers their freedom, family, or country.

This situation befits neither America nor the world. It does not require sophistication to understand that policy equating necessary acts of warning with threats to national security inevitably lead to ignorance and insecurity. The society that falls into the deterrent trap known in cultural wisdom as „shooting the messenger“ will quickly find that not only is it without messengers but it no longer enjoys messages at all. It is right to question the wisdom of such policies and the unintended incentives that result from them. If the penalty providing secret information to a foreign government in bad faith is less than the penalty for providing that information to the public in good faith, are we not incentivizing spies rather than whistleblowers? What does it mean for the public when we apply laws targeting terrorism against those engaged in acts of journalism? Can we enjoy openness in our society if we prioritize intimidation and revenge over fact-finding and investigation? Where do we draw the lines between national security and public interest, and how can we have confidence in the balance when the only advocates allowed at the table of review come from the halls of government itself?

Questions such as these can only be answered through the kind of vigorous public discussion we are enjoying today. We must never forget the lessons of history regarding the dangers of surveillance gone too far, nor our human power to amend such systems to the public benefit. The road we travel has been difficult, but it leads us to better times. Together we can guarantee both the safety and the rights of the generations that follow.

To all of those who have participated in this debate, from the highest official to the smallest citizen, I say thank you.

Edward J. Snowden”

Quelle: http://www.zeit.de/digital/datenschutz/2013-09/edward-snowden-whistleblower-preis-rede/komplettansicht

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 30 2013

NSA-Skandal – Chronologie der Enthüllungen

Seit Anfang Juni hält Whistleblower Edward Snowden mit seinen Enthüllungen über die Spähprogramme der Geheimdienste die Welt in Atem. Die wichtigsten Ereignisse im Überblick.

6. Juni 2013 Der Guardian und die Washington Post berichten über ein umfangreiches Überwachungsprogramm des amerikanischen Geheimdienstes NSA. Demnach hat die NSA direkten Zugriff auf die Nutzerdaten von Computerfirmen wie Microsoft, Yahoo, Google und Facebook, einschließlich gespeicherter Suchanfragen, Inhalten von E-Mails, übertragener Dateien und Live-Chats. Das Programm PRISM existiert seit 2007.

7. Juni Die US-Konzerne Microsoft und Facebook leugnen ihr Wissen über das Ausspähprogramm der NSA. US-Präsident Barack Obama verteidigt PRISM als Mittel im Kampf gegen den Terror. Er verweist auf die gerichtliche Überwachung des Programms durch den sogenannten FISA-Court. Auch der britische Geheimdienst GCHQ soll von den NSA-Daten profitiert haben.

8. Juni Die NSA verrät Details zu PRISM. US-Geheimdienstchef James Clapper bestätigt dabei die Darstellung der US-Internetkonzerne. Unterdessen legt der Guardian nach und veröffentlicht weiteres Beweismaterial.

9. Juni Edward Snowden ist der Whistleblower. Der 29 Jahre alte IT-Techniker Snowden hat das NSA-Überwachungsprogramm PRISM öffentlich gemacht. Der Guardian enthüllt seinen Informanten auf dessen ausdrücklichen Wunsch. Snowden hält sich in Hongkong auf, um der US-Justiz zu entgehen.

14. Juni Die USA erheben Anklage gegen Snowden wegen Spionage und Diebstahls von Regierungseigentum. Ihm drohen bis zu 30 Jahre Haft.

16. Juni Der britische Geheimdienst GCHQ soll 2009 die Teilnehmer des G-20-Gipfels in London ausgespäht haben. So seien falsche Internetcafés eingerichtet worden, um Teilnehmer auszuhorchen, berichtet der Guardian unter Berufung auf Snowden.

17. Juni Snowden stellt sich den Fragen der Guardian-Leser. Er behauptet, dass die Geheimagenten an die Daten jeden Nutzers herankommen.

18. Juni Nach Angaben von NSA-Chef Keith Alexander wurden durch PRISM weltweit etwa 50 Anschläge verhindert. Dies sagt er in einer Anhörung im US-Kongress.

19. Juni Beim Besuch von US-Präsident Oba­ma in Berlin protestieren etwa 200 Menschen gegen die US-Überwachungsprogramme. Bundeskanzlerin Angela Merkel (CDU) fordert Verhältnismäßigkeit und ­Balance bei der Ausspähung, räumt jedoch ein: „Das Internet ist für uns alle Neuland.“

20. Juni Die NSA hört offenbar Telefone ohne Gerichtsbeschluss ab. US-Bürger können Dokumenten zufolge, die der Guardian enthüllt, in gerichtlich ungenehmigte Abhöraktionen geraten.

21. Juni Der britische Geheimdienst zapft den globalen Internetverkehr an. Der GCHQ wertet dem Guardian zufolge unter dem Codenamen Tempora große Mengen an persönlichen Daten aus, die mit dem US-Geheimdienst NSA ausgetauscht werden.

23. Juni Edward Snowden fliegt von Hongkong nach Moskau. Von dort aus will er Medienberichten zufolge in ein Land weiterreisen, das ihm Asyl gewährt. Im Gespräch sind Island und Ecuador. Snowden reist mit einem Dokument der ecuadorianischen Botschaft in London, das offenbar auf Drängen von Wikileaks-Gründer Julian Assange ausgestellt wurde.

24. Juni Posse um Snowdens Aufenthalt in Moskau. Nach stundenlangen Spekulationen über einen Flug des Whistle­blowers nach Kuba fliegt die Maschine ohne Snowden ab. Es bleibt unklar, wo er sich stattdessen aufhält.

25. Juni Russlands Präsident Wladimir Putin beendet das Rätselraten um Snowdens Aufenthaltsort. Er bestätigt, dass sich Snowden im Transitbereich des Moskauer Flughafens Scheremetjewo aufhält. Russland werde ihn nicht an die USA ausliefern.

28. Juni Unter dem Projektnamen Stellarwind sammelt die NSA seit Jahren Metadaten von Telefon- und Internetverbindungen, darunter auch E-Mails. Das belegen neue Dokumente, die der Guardian unter Berufung auf Snowden enthüllt.
29. Juni Die NSA spioniert offenbar gezielt die Europäische Union aus. Das geht aus geheimen Dokumenten hervor, die Snowden dem Magazin Der Spiegel vorgelegt hat.

30. Juni Die NSA überwacht angeblich massenhaft Telefon- und Internetverbindungsdaten in Deutschland. Das soll aus internen Dateien des Geheimdienstes hervorgehen, die dem Nachrichtenmagazin Der Spiegel vorliegen. Monatlich werden demnach 500 Millionen E-Mails, SMS oder Chats in Deutschland bespitzelt. Anfang August stellt sich heraus, dass der BND die Quelle für die Daten ist und die Verbindungsdaten seiner Auslandsaufklärung übermittelt.

2. Juli Der Fall Snowden weitet sich zu einer diplomatischen Affäre aus. Boliviens Staatspräsident Evo Morales muss mit seiner Maschine aus Moskau kommend in Wien notlanden, weil mehrere europäische Länder ihm die Überflugrechte verweigern. Es wird fälschlicherweise vermutet, dass Snowden an Bord ist. Unterdessen beantragt Snowden Asyl in 21 Ländern. Die deutsche Bundesregierung lehnt das Ersuchen noch am selben Tag ab.

3. Juli Die deutschen Sicherheitsbehörden und die Bundesregierung haben nach eigenen Angaben keine Kenntnis über die Überwachung des deutschen Internetverkehrs durch die US-Geheimdienste.

4. Juli Auch Frankreich überwacht offenbar nicht nur Ausländer, sondern auch seine eigenen Bürger systematisch. Wie die französische Tageszeitung Le Monde berichtet, sammelt der französische Geheimdienst DGSE (Direction Générale de la Sécurité Extérieure) Metadaten von Telefonaten, E-Mails und aus sozialen Medien und wertet sie aus, um Verknüpfungen zwischen Teilnehmern zu analysieren.

5. Juli Die Präsidenten von Nicaragua und Venezuela bieten Snowden Asyl an. Die rechtliche Konfrontation mit den USA suchen beide Staatschefs nicht, sie sprechen von humanitären Gründen.

12. Juli Edward Snowden nimmt das Asylangebot von Russland an. Mit Hilfe von Human Rights Watch will Snowden während eines temporären Asyls in Russland seine Reise nach Lateinamerika vorbereiten. Venezuela und Nicaragua haben dem Whistleblower Asyl angeboten. Einem Bericht des Guardian zufolge soll Microsoft mit der NSA und dem FBI zusammengearbeitet haben, um bestimmte Produkte für PRISM zugänglich zu machen. Ziel sei gewesen, „Daten vor der Verschlüsselung einzusammeln“.

15. Juli Nach seinem Besuch in den USA zur Aufklärung der NSA-Affäre erntet Bundesinnenminister Hans-Peter Friedrich (CSU) viel Kritik. Einem Medienbericht zufolge soll es bei dem Besuch auch darum gegangen sein, die weitere Zusammenarbeit zur Nutzung der PRISM-Daten zu sichern.

16. Juli Yahoo feiert einen Etappensieg gegen PRISM. Ein US-Gericht hat entschieden, dass die US-Regierung Details zu einem Verfahren vor einem FISA-Gericht preisgeben muss. In dem Verfahren hatte sich Yahoo gegen die Preisgabe von Kundendaten an die NSA gewehrt.

17. Juli Die NSA gibt eine noch ausgedehntere Suche zu. Vor dem US-Justizausschuss räumen Mitarbeiter der NSA ein, dass weitaus mehr Menschen von ihren Überwachungsmaßnahmen betroffen sind als bisher bekannt. Ex-US-Präsident Jimmy Carter verteidigt den Whistleblower Snowden.

17. Juli Die Bundesregierung weist Berichte zurück, wonach die Bundeswehr in Afghanistan auf das PRISM-Programm der NSA zugreifen kann. Es handle sich um ein gleichnamiges Programm des US-Militärs, das zur Einsatzkoordinierung genutzt werde.
19. Juli Die USA verlängern die Überwachung von Telefonverbindungsdaten. Ein zuvor geheimer Beschluss des Foreign Intelligence Surveillance Court dazu wurde freigegeben.

20. Juli Einem Medienbericht zufolge setzen die deutschen Geheimdienste die NSA-Software Xkeyscore ein. BND und Verfassungsschutz bestätigen anschließend, die Software, mit der Suchanfragen eines Verdächtigen ermittelt werden können, lediglich zu testen. Eine millionenfache Weitergabe von Daten an die NSA gebe es nicht.

24. Juli Die US-Behörden fragen angeb­lich nach den Master-Keys für SSL-Ver­bindungen. Einem Medienbericht zu­folge werden vor allem kleinere Unternehmen unter Druck gesetzt, damit diese Generalschlüssel für SSL-Verschlüs­se­lung herausrücken. Konzerne wie Google­ und Facebook sollen dabei aber angeblich nicht mitspielen.

24. Juli Im US-Kongress scheitert ein Antrag knapp, die Überwachungsaktivitäten der NSA einzuschränken. Mit 217 zu 205 Stimmen – bei zwölf Enthaltungen – lehnen die Abgeordneten des Repräsentantenhauses den Antrag des Republikaners Justin Amash und des Demokraten John Conyers ab.

27. Juli Unter dem Motto „#StopWatchingUs“ gehen in deutschen Städten tausende Bürger auf die Straße, um gegen die flächendeckende Überwachung durch Programme wie PRISM zu demonstrieren. Die Demonstranten danken Edward Snowden in Sprechchören und zeigten sich von deutschen Politikern tief enttäuscht.

31. Juli Der Guardian veröffentlicht ausführliche Dokumente zu Spähprogramm Xkeyscore. Demnach erlaubt das NSA-Programm den Zugriff auf „fast alles, was ein typischer Nutzer im Internet so macht“. Dabei greifen die NSA-Analysten auf Milliarden Daten zu, die wegen der schieren Menge teilweise nur 30 Tage gespeichert werden können.

2. August Die Bundesregierung setzt eine Kooperationsvereinbarung mit ausländischen Geheimdiensten aus dem Jahr 1968 außer Kraft. Die westlichen Alliierten hatten in der Bundesrepublik Deutschland Sonderrechte erhalten, was mit der Sicherung ihrer Truppen mit geheimdienstlichen Mitteln begründet worden war.

4. August Der BND bestätigt die Weitergabe von Millionen Metadaten an die NSA. Die Daten stammten aus der Auslandsaufklärung und basierten auf einer 2002 getroffenen Vereinbarung. Vor der Weiterleitung würden die Daten „in einem gestuften Verfahren um eventuell darin enthaltene personenbezogene Daten deutscher Staatsangehöriger bereinigt“. Der BND ist damit offenbar die Datenquelle, die angeblich millionenfach Daten deutscher Bürger an die NSA liefert.

7. August Die Kooperation zwischen BND und NSA bei der Fernmeldeaufklärung im bayerischen Bad Aibling geht auf eine Vereinbarung aus dem Jahr 2002 zurück. Nach Angaben der Bundesregierung unterzeichnete der damalige Kanzleramtschef Frank-Walter Steinmeier (SPD) am 28. April 2002 ein „Memorandum of Agreement“, auf dessen Basis der BND nun monatlich Millionen Verbindungsdaten aus der Auslandsaufklärung an die NSA weiterleitet.

9. August Die Provider Lavabit und Silent Circle löschen alle Kunden-E-Mails. Damit wollen die Betreiber verhindern, dass die Geheimdienste einen Zugriff auf die verschlüsselt abgespeicherten Mails erhalten. Auch Whistle­blower Edward Snowden benutzte Lavabit.

12. August Deutschland und die USA verhandeln über ein No-Spy-Abkommen. Zudem hätten US-amerikanische und britische Geheimdienste versichert, sich an „Recht und Gesetz in Deutschland“ zu halten, sagt Kanzleramtsminister Ronald Pofalla (CDU) nach einer Sitzung des Parlamentarischen Kontrollgremiums.

15. August Die NSA verstößt bei der Kommunikationsüberwachung in tausenden Fällen gegen die gesetzlichen Vorschriften. Das geht aus internen Berichten hervor, die die Washington Post veröffentlicht. Demnach werden die Agenten auch angewiesen, ihre Berichte an die US-Aufsichtsbehörden zu schönen.

18. August Der Lebenspartner des Enthüllungsjournalisten Glenn Greenwald, David Miranda, wird auf dem Londoner Flughafen Heathrow neun Stunden lang festgehalten. Die Polizei beruft sich auf den Terrorism Act 2000 und beschlagnahmt die komplette elektronische Ausrüstung Mirandas. Dieser hatte sich in Berlin mit der US-Filmemacherin Laura Poitras getroffen, die zusammen mit Greenwald an dem Archiv von Edward Snowden arbeitet.

20. August Der Chefredakteur der Tageszeitung Guardian berichtet, dass die Redaktion vom britischen Geheimdienst bereits im Juni 2013 gezwungen wurde, Festplatten und ein Notebook mit den Unterlagen von Edward Snowden zu zerstören. Dies soll unter Aufsicht witzelnder Geheimdienstler geschehen sein. Schon zuvor wurde massiver Druck auf die Redaktion ausgeübt.

24. August Der Guardian berichtet, dass die NSA an US-Internetunternehmen seit 2011 Millionenbeträge an Schadenersatz gezahlt hat. Grund ist ein Urteil aus dem Jahr 2011, wonach Firmen Ansprüche für den Aufwand geltend machen können, der durch die Anforderungen der Überwacher entsteht. Da der Guardian unter Druck der britischen Regierung steht, will das Medium in Zukunft enger mit der New York Times zusammenarbeiten.

25. August Nicht nur Einrichtungen der EU-Kommission, sondern auch die Zentrale der Vereinten Nationen soll von der NSA abgehört worden sein. Dem US-Geheimdienst ist es laut Spiegel gelungen, die Verschlüsselung der internen Videokonferenzanlage zu hacken.

29. August Die US-Geheimdienste geben Milliarden Dollar jährlich für Überwachungsprogramme und Entschlüsselungstechniken aus. Das geht aus dem geheimen Haushaltsentwurf für 2013 hervor, den die Washington Post veröffentlicht. Das geheime Budget enthält auch Angaben zu den Schwerpunkten sowie Defiziten der Geheimdienstaufklärung.

6. September Die NSA ist in der Lage, verschlüsselte Datenübertragungen im Internet zu knacken. Dazu nutzt sie offenbar große Rechenkapazitäten, arbeitet mit Herstellern zusammen, um Hintertüren zu platzieren, und schwächt gezielt Verschlüsselungsstandards. Das berichten mehrere Medien unter Berufung auf Unterlagen von Edward Snowden.

7. September Der US-Geheimdienst NSA kann sich Zugang zu Nutzerdaten auf Smartphones verschaffen. In den Unterlagen von Edward Snowden, auf die sich das Nachrichtenmagazin Der Spiegel beruft, ist ausdrücklich von Apples iPhone, Blackberry-Geräten und Googles Android die Rede. Demnach ist es der NSA möglich, Kontaktlisten, den SMS-Verkehr, Notizen und Aufenthaltsorte des Besitzers auszulesen.

8. September Dem US-Geheimdienst NSA ist es offenbar gelungen, in die Netzwerke großer Unternehmen und ausländischer Regierungen einzudringen. Einem Medienbericht zufolge gehören zu den Überwachungszielen der Suchmaschinenkonzern Google, der brasilianische Ölkonzern Petrobras, das französische Außenministerium und der Finanzdienstleister Swift.

10. September Das National Institute of Standards and Technology (NIST) rät von der Nutzung des Zufallszahlenstandards Dual_EC_DRBG ab, nachdem aus den Dokumenten von Edward Snowden bekannt wurde, dass der Algorithmus eine mögliche Hintertür der NSA enthält. Der Standard soll nun neu überprüft werden.

20. September Der britische Geheimdienst GCHQ soll den halbstaatlichen belgischen Telekommunikationsanbieter Belgacom gehackt haben. Zu den Großkunden der Belgacom gehören unter anderem Institutionen wie die EU-Kommission, der Rat der Mitgliedstaaten und das Europaparlament. Sie hatten im Zusammenhang mit Edward Snowdens Enthüllungen zur NSA eine interne Untersuchung veranlasst, einen Angriff festgestellt und Anzeige gegen unbekannt erstattet.

24. September Die brasilianische Präsidentin Dilma Rousseff nutzt die Vollversammlung der Vereinten Nationen, um im Beisein von US-Präsident Barack Oba­ma die bekanntgewordenen Spähattacken der US-Geheimdienste auf ihr Land anzuprangern. Es sei ein Bruch des internationalen Rechts, sich auf diese Weise in die Angelegenheiten anderer Staaten einzumischen, sagt die Präsidentin des größten südamerikanischen Landes in ihrer Rede.

27. September Das größte Rechenzentrum der NSA in Utah soll bereits in Betrieb gegangen sein. Allerdings hat der US-Auslandsgeheimdienst bei der Inbetriebnahme seines neuen Datenzentrums offenbar mit technischen Schwierigkeiten zu kämpfen. Einem Medienbericht zufolge soll es in den vergangenen 13 Monaten regelmäßig Vorfälle gegeben haben, bei denen durch Überspannungen in der Stromversorgung Geräte zerstört wurden.

30. September In einer Anhörung des EU-Parlaments wird eine Rede von Edward Snowden verlesen. Auch der frühere hochrangige NSA-Mitarbeiter Mitarbeiter Thomas Drake gibt ein Statement ab. Er verweist auf das „krankhafte Bedürfnis“ der Stasi, alles wissen zu wollen. Er habe sich niemals vorstellen können, dass die USA die Stasi als Vorbild für ihre Überwachungsprogramme benutzen würden.

2. Oktober Die Gerichtsakten über den Rechtsstreit zwischen den US-Behörden und dem Maildienst Lavabit werden veröffentlicht. Demnach wollte Lavabit-Gründer Ladar Levison die Metadaten von Edward Snowdens Account an das FBI liefern, jedoch nicht den Master-SSL-Key herausrücken.

6. Oktober Der Bundesnachrichtendienst (BND) lässt sich offenbar seit mindestens zwei Jahren das Anzapfen von Kommunikationsleitungen deutscher Internetprovider genehmigen. Einem Medienbericht zufolge führt der BND 25 Internet Service Provider auf, von deren Leitungen er am Datenknotenpunkt DE-CIX in Frankfurt einige anzapft. Betroffen sind demnach auch die deutschen Internetprovider 1+1, Freenet, Strato AG, QSC, Lambdanet und Plusserver.

15. Oktober Die NSA greift massenhaft E-Mail-Adressen und Kontakte aus Buddy-Listen ab. Täglich sollen es mehrere hunderttausend Daten sein, wie aus Dokumenten aus dem Bestand von Edward Snowden hervorgeht. Die NSA kooperiert dabei mit ausländischen Geheimdiensten und Telekommunikationsfirmen.

23. Oktober Die NSA hat offenbar ein Mobiltelefon von Bundeskanzlerin Angela Merkel abgehört. Weil ein entsprechender Verdacht dem BSI und dem BND plausibel erscheint, beschwert sich Merkel in einem Telefonat bei US-Präsident Barack Obama. Die US-Regierung behauptet, „dass die USA die Kommunikation von Kanzlerin Merkel weder überwachen noch überwachen werden“.

27. Oktober Der US-Geheimdienst NSA soll nach einer internen Überprüfung die Handyüberwachung von Bundeskanzlerin Angela Merkel im Sommer dieses Jahres beendet haben. Wie das Wall Street Journal unter Berufung auf Regierungsbeamte berichtet, ordnete US-Präsident Barack Obama die Revision der US-Geheimdienstpraktiken an und erfuhr erst dadurch von dem Spähangriff auf Merkel sowie auf 35 weitere internationale Spitzenpolitiker.

28. Oktober Ein Sprecher des Auswärtigen Amtes betont in Berlin vor Journalisten, dass gegen die vom Spiegel aufgedeckte Spionage aus der US-Botschaft der Hauptstadt kaum vorgegangen werden könne. Nach Angaben des Justizministeriums befasst sich die Bundesanwaltschaft inzwischen mit dem Fall.

28. Oktober Der britische Premierminister David Cameron warnt die Medien vor weiteren Enthüllungen über Geheimdienstaktivitäten. Er ziehe es vor, mit den Zeitungen zu reden, statt sie vor Gericht zu holen, dies sei aber nur schwer zu vermeiden, wenn die Ratschläge der Regierung nicht beherzigt würden.

29. Oktober Die US-Geheimdienste gehen im Streit über ihre Spionagepraktiken in die Offensive. Die Europäer selbst hätten Millionen Daten an die NSA geliefert. Auch spähten sie amerikanische Politiker aus, sagen die Geheimdienstchefs in einer Anhörung im US-Kongress.

30. Oktober Laut Dokumenten von Edward Snowden verschaffen sich NSA und GCHQ direkten Zugang zu den internen Clouds von Google und Yahoo. Sie zapfen die Leitungen zwischen den Rechenzentren an. Die Aktion läuft unter den Namen Muscular und Windstop.

31. Oktober Der Grünen-Bundestagsabgeordnete Hans-Christian Ströbele trifft sich überraschend mit Edward Snowden in Moskau. In einem mehrstündigen Gespräch geht es um die Frage, unter welchen Bedingungen Snowden bei einer deutschen Staatsanwaltschaft oder einem Untersuchungsausschuss des Bundestages aussagen würde. Am nächsten Tag präsentiert Ströbele der Presse einen Brief Snowdens an die Bundesregierung.

22. November Die NSA hat im vergangenen Jahr in einem streng geheimen Papier den starken Ausbau ihrer Spähbefugnisse und Analysefähigkeiten angestrebt. Ein wichtiges Ziel in den Jahren 2012 bis 2016 soll darin bestehen, Verschlüsselungstechniken zu knacken.

11. November Um den belgischen Provider Belgacom zu attackieren, nutzt der britische Geheimdienst GCHQ ausgefeilte Methoden. Opfer wurden Nutzer von LinkedIn.

Foto: privat

Foto: privat

Friedhelm Greis, geboren 1966, studierte Theologie, Spanisch, Philosophie und Journalistik in Trier, Mainz und Bolivien. Von 2000 bis 2003 Redakteur für Wirtschaft und Politik bei der ­Netzeitung in Frankfurt und Berlin. Bis 2005 Journalist und freier Autor in New York und Berlin. Von 2006 bis 2012 Herausgeber und Redakteur bei den Nachrichtenagenturen ddp und dapd in Berlin. Seit 2013 Redakteur Netzpolitik bei Golem.de. Zahlreiche Publikationen zu Kurt Tucholsky und zur Weltbühne.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 28 2013

Willkommen in der Sackgasse: Das Leistungsschutzrecht für Presseverlage

Welche Auswirkungen wird das Leistungsschutzrecht für Presseverlage für Verleger, IT-Dienstleister, Nutzer und Journalisten haben? Bei den Antworten auf häufige Fragen zeigt sich: Das neue Recht wird kaum einen Nutzen haben, dafür aber viel Schaden anrichten.

Der deutsche Gesetzgeber hat 2013 nach langer Diskussion ein neues Leistungsschutzrecht für Presseverleger beschlossen. Letztlich haben die Presseverleger gegen den massiven Widerstand der Wirtschaft, Wissenschaft und Zivilgesellschaft einen Teilsieg errungen. Das Gesetz ist am 1. August in Kraft getreten. Es herrscht viel Unsicherheit darüber, was es bedeutet, wer betroffen ist und was die Betroffenen jetzt tun können oder sollten. Der Gesetzestext enthält eine Vielzahl vager Begriffe und allerhand Ungereimtheiten.
Was ist das Leistungsschutzrecht?

Das Leistungsschutzrecht wird in einem neuen Abschnitt des Urheberrechtsgesetzes geregelt. Es findet sich zukünftig in den Paragrafen 87f-87h. Jeder, der ein Presseerzeugnis herstellt, ist fortan ein Presseverleger, dem das Recht zusteht. Presseerzeugnisse in diesem Sinne sind nicht nur Zeitungen, Zeitschriften oder Webseiten von Verlagen. Auch Betreiber von journalistischen Blogs oder Webseiten können nach dem neuen Gesetz Verleger sein und damit Leistungsschutzrechte haben. Ob das so ist, hängt davon ab, ob die jeweilige Publikation der gesetzlichen Defini­tion eines Presseerzeugnisses entspricht.

Nach der Gesetzesbegründung (PDF) sind das Veröffentlichungen, in denen regelmäßig journalistische Beiträge erscheinen und die „als überwiegend verlagstypisch anzusehen sind“. Reine Nachrichtenzusammenstellungen – gemeint sind wahrscheinlich Pressespiegel oder reine Linklisten – sind ebenso wenig Presseerzeugnisse wie ausschließlich Werbezwecken oder der Kundenbindung dienende Informationsquellen. Das belässt eine Grauzone, die in langwierigen Prozessen durch die Rechtsprechung geklärt werden muss. Vor allem der Begriff „verlagstypisch“ wird im Gesetz mit keinem Wort erläutert.

Klar dürfte sein, dass Blogs, in denen regelmäßig journalistisch publiziert wird, Presseerzeugnisse sind. Damit dürften bekannte Blogs wie zum Beispiel netzpolitik.org oder stefan-niggemeier.de ebenso Presseerzeugnisse sein, wie die Angebote von Spiegel Online, welt.de oder Heise Online. Auch die Nachrichtenseiten von öffentlich-rechtlichen Rundfunkunternehmen wie tagesschau.de oder heute.de fallen unter diese Defini­tion. Presseerzeugnisse können nach der Gesetzesbegründung auch der reinen Unterhaltung dienen. Somit dürfte das Leistungsschutzrecht auch für Angebote gelten, die sich der politischen Satire verschrieben haben, wie etwa den Postillon. Voraussetzung ist, dass sie in gewisser Weise Angeboten von Verlagen ähneln. Was das genau bedeutet, ist unklar. Ob hierfür ein redaktioneller Ablauf mit mehreren Personen erforderlich ist oder das Merkmal lediglich erfordert, dass regelmäßig Beiträge veröffentlicht werden, liegt im Auge des Betrachters und unterliegt im Zweifel der Entscheidungsmacht der Gerichte.

Was tun, wenn man weiterhin gefunden werden will?

Ob sie es wollen oder nicht – die Inhaber der Leistungsschutzrechte stehen nun vor einer Herausforderung. Werden sie nicht aktiv, laufen sie Gefahr, in Suchmaschinen oder News-Aggregatoren nicht mehr oder nur noch unter Anzeige nackter Links gelistet zu werden. Denn das Leistungsschutzrecht schreibt den Anbietern solcher Dienste vor, dass sie Rechte einholen müssen, wenn sie Auszüge aus dem Presseerzeugnis (Snippets) anzeigen wollen. Ob und unter welchen Umständen die Regelung greift, ist unklar. Das Recht anbieterseitig einfach zu ignorieren, wäre dennoch unklug. Denn Inhaber dieses Rechts können mit Abmahnungen, Verfügungsverfahren und Klagen gegen unbefugte Nutzungen vorgehen. Und nicht jeder kann es sich leisten, sein Vorgehen in Gerichtsverfahren zu verteidigen.

Google hat bereits reagiert. Wer zukünftig in Google News gelistet sein will, muss dies durch eine elektronische Erklärung bestätigen – auch wenn er zuvor bereits gelistet war. Darin erklärt der Webseitenbetreiber, dass seine Veröffentlichungen weiterhin bei Google News erscheinen sollen und er dafür kein Geld verlangt. Viele – auch große – Verlage haben sich bereits angemeldet. Die wenigen, die sich dagegen entschieden haben, tauchen seit dem 1. August bei Google News nicht mehr auf.

Dieses Verfahren bezieht sich ausdrücklich nur auf Google News und nicht auf die allgemeine Suchfunktion. Hier soll offenbar alles beim Alten bleiben. Heißt: Es gibt kein Geld für Snippets, aber man bleibt weiterhin gelistet. Wie sich andere Anbieter von Suchmaschinen und News-Aggregatoren verhalten werden, ist bislang unklar. Yahoo hat sich in seiner Nachrichtensektion von Snippets verabschiedet. Hier werden nur noch reine Links ohne Vorschautext angezeigt.

Hieran zeigt sich, dass es zu Googles Vorgehensweise kaum attraktive Alternativen gibt. Der Suchanbieter kann journalistische Angebote großflächig aus seinem Index werfen; versuchen, um das Leistungsschutzrecht herumzukommen; abwarten, bis er verklagt wird oder von einer zukünftigen Presseverleger-Verwertungsgesellschaft aufgefordert wird, Lizenzverträge zu unterzeichnen und zu zahlen. Oder er zeigt – wie Yahoo – einfach gar keine Vorschautexte mehr an. Ob eine solche Suchfunktion dann noch einen Nutzen für den Suchenden hat (und sich dementsprechend für den Anbieter lohnt), ist allerdings mehr als fraglich.

screenshot_yahoo_kreutzer

Screenshot: Links ohne Vorschautext bei Yahoo News.

Verwertungsgesellschaft für Presseverleger als Allheilmittel?

Die Verlegerverbände planen, ihre Rechte in eine Verwertungsgesellschaft einzubringen. Ähnlich der GEMA im Musikbereich könnten hier Dienstanbieter die notwendigen Rechte erwerben. Voraussetzung ist, dass alle Presseverleger Mitglied der Verwertungsgesellschaft sind, also mit ihr Wahrnehmungsverträge abschließen. Dass dadurch sämtliche Unwägbarkeiten ausgeräumt werden können, ist aber unwahrscheinlich. Das Leistungsschutzrecht kann, muss aber nicht von einer Verwertungsgesellschaft wahrgenommen werden. Selbst wenn ein spezialisierter Anbieter eines News-Aggregationsdienstes einen Lizenzvertrag mit der Verwertungsgesellschaft geschlossen hat, läuft er Gefahr, von Presseverlegern, die keine Mitglieder sind, abgemahnt und verklagt zu werden. Eine praktikable One-Stop-Shop-Lösung wird damit nicht erzielt.

Disclaimer und Erklärungen auf der Webseite als Lösung?

Das schadet vor allem den vielen Inhalte-Anbietern, die plötzlich gegen ihren Willen Leistungsschutzrechte besitzen. Die meisten Anbieter von journalistischen Blogs oder Verlagswebseiten werden schließlich wollen, dass ihre Angebote weiterhin indexiert, gefunden und mit Snippets in Suchmaschinen angezeigt werden. Verschiedene große Seiten haben sich bereits durch Erklärungen dafür ausgesprochen, à la: „Wir möchten gern weiterhin indexiert und auch unter Verwendung von Snippets gelistet werden.“ Solche Hinweise haben den Vorteil eines klaren Statements. Sie haben aber den Nachteil, dass sie von den Software-Bots der Suchmaschinen nicht ausgelesen werden können. Suchmaschinen-Anbieter können schwerlich tausende von Webseiten per Hand auf solche Hinweise untersuchen und entscheiden, wer wie gelistet wird. Es bedürfte technischer Lösungen, die bislang jedoch nicht in Sicht sind.

Hauptadressat: Suchmaschinen

Adressaten des Leistungsschutzrechts sind zunächst die Anbieter von Suchmaschinen. Das sind die großen Unternehmen wie Google, Yahoo und Microsoft, aber auch die unzähligen Anbieter kleiner Suchmaschinen. Hier ist die einzige Grenze dadurch gesetzt, dass der Anbieter gewerblich handeln muss. Dieses Merkmal ist aber – wie auch sonst im Urheberrecht – im Zweifel eher weit zu verstehen. Dass tatsächlich Gewinne gemacht werden, wird nicht erforderlich sein, auch nicht, dass der Anbieter eine GmbH oder eine andere juristische Person ist. Ob einzelne Werbebanner für eine Gewerblichkeit ausreichen, werden letztlich die Gerichte klären müssen.
Suchfunktionen auf der eigenen Webseite

Weiterhin ausgenommen sind – laut Gesetzesbegründung – webseiteninterne Suchfunktionen. Offen ist dabei aber, ob in die eigene Webseite implementierte Suchfunktionen („powered by Google“), mit denen man neben dem eigenen Datenbestand auch allgemein im Web suchen kann, hierunter fallen. Genauer gesagt stellt sich die Frage, ob in solchen Fällen der Webseitenbetreiber zum Suchmaschinenanbieter wird oder ob sich etwaige Ansprüche auf den Suchmaschinenbetreiber (zum Beispiel Google) beschränken. Eine Antwort gibt es darauf derzeit nicht. Im Zweifel wird es sich bis auf Weiteres empfehlen, solche Funktionen zu deaktivieren.

Horizontale Suchdienste und soziale Netzwerke als Adressaten

Neben vertikalen Suchdiensten, die das ganze Netz indexieren, sollen auch horizontale Dienste vom Leistungsschutzrecht betroffen sein. Gemeint sind themenspezifische Suchfunktionen wie vor allem News-Aggregatoren. Das Gesetz nennt sie „Dienste, die Informationen ähnlich [wie Suchmaschinen, Anm. des Autors] aufbereiten“. Auch diese Formulierung eröffnet großen Interpretationsspielraum. In der Gesetzesbegründung ist die Rede von „systematischen Zugriffen“ und Diensten, die nach „Art einer Suchmaschine ihre Treffer generieren“. Hiermit ist lediglich gesagt, dass nur automatisch operierende Suchtechnologien unter das Leistungsschutzrecht fallen. Wer Quellen manuell auswählt, zum Beispiel Linklisten erstellt, braucht sich darum nicht zu kümmern.

Wie verhält es sich aber beispielsweise mit Anbietern von sozialen Netzwerken wie Facebook oder Twitter? Immerhin können auch in sozialen Netzwerken themenbezogene Suchen durchgeführt werden. Ob diese Funktionen suchmaschinenartig sind, werden die Gerichte entscheiden müssen. Hier werden sich im Zweifel die Anbieter der Netzwerke herumstreiten müssen. Dass ein Facebook-Nutzer, der Links mit Snippets postet, darunter fällt, ist wohl auszuschließen. Er betreibt keine Suchmaschine oder ähnlichen Dienst.

Achtung: Es ist unmöglich, das Leistungsschutzrecht einzuhalten!

Weiß man, dass man eine Suchmaschine oder einen ähnlichen Dienst in diesem Sinne betreibt, gehen die wirklich schwierigen Fragen erst los. Denn eines sollte deutlich sein: Es ist derzeit für einen Suchdienst unmöglich, das Leistungsschutzrecht einzuhalten, also Rechte für die Anzeige von Snippets einzuholen. Das würde erfordern, mit allen Anbietern von Webseiten, die nach der Definition des Gesetzes Presseerzeugnisse sind, einzeln Verträge zu schließen. Abgesehen davon, dass es keine zentrale Stelle für die Lizenzierung gibt, dürfte diese Vorgehensweise daran scheitern, dass es unmöglich herauszufinden ist, welche Webseiten unter den Begriff des Presseerzeugnisses fallen.

Die einzige Strategie ist – und das macht die Ironie dieser Gesetzesnovellierung besonders deutlich –, sich um das Leistungsschutzrecht herumzudrücken. Mit anderen Worten: Den Anbietern von Suchdiensten bleibt nur übrig, ihre Angebote so zu gestalten, dass sie nicht unter das neue Recht fallen.

Wie können Vermeidungsstrategien aussehen?

Möglich ist zunächst, pauschal jede Publikation, die entfernt an ein Presseerzeugnis erinnert, auszulisten. Naheliegender wird der Versuch sein, die Suchergebnisse so auszugestalten, dass sie gar nicht vom Leistungsschutzrecht betroffen sind. Das Gesetz schließt „nackte Links“ aus. Wie jedem bekannt sein dürfte, sind sie jedoch als alleiniges Suchergebnis unnütz.

Weil das so ist, hat der Gesetzgeber selbst einen Vermeidungsmechanismus geschaffen. In einer letzten Iterationsschleife (vulgo: Schnellschuss) hat er schließlich davon Abstand genommen, jede Art Snippet zu schützen. Sinngemäß heißt es im Gesetz: Das Leistungsschutzrecht ist irrelevant, wenn nur der Link sowie eine „knappe, aber zweckdienliche“ Beschreibung in Form einzelner Worte oder „kleinster Textausschnitte“ angezeigt werden. Nur wer mehr anzeigen will, läuft in das Dilemma, sich unmöglich rechtskonform verhalten zu können.

Was aber ist ein kleinster Textausschnitt? Der Bundestag konnte sich nicht einigen, dies konkreter zu fassen, die Begründung beschränkt sich auf die vage Erläuterung:

Die Empfehlung soll sicherstellen, dass Suchmaschinen und Aggregatoren ihre Suchergebnisse kurz bezeichnen können, ohne gegen Rechte der Rechteinhaber zu verstoßen. [...] Einzelne Wörter oder kleinste Textausschnitte, wie Schlagzeilen, zum Beispiel ‚Bayern schlägt Schalke’, fallen nicht unter das Schutzgut des Leistungsschutzrechts. Die freie, knappe, aber zweckdienliche Beschreibung des verlinkten Inhalts ist gewährleistet. Suchmaschinen und Aggregatoren müssen eine Möglichkeit haben, zu bezeichnen, auf welches Suchergebnis sie verlinken.

Andere Juristen vertreten, dass die elf bis fünfzehn Worte des durchschnittlichen Snippets in der allgemeinen Google-Suche die Grenze des gesetzlichen Vermeidungsmechanismus darstellen. Wieder andere sagen, dass ein Snippet immer ein „kleinster Teil“ ist. Und schließlich gibt es die Meinung, dass die Beurteilung des „kleinsten Teils“ von der Länge des Beitrags abhängt, auf den verlinkt wird. Damit wäre die zulässige Länge eines Snippets Einzelfallfrage, was wiederum den Tod effizienter, automatisierter Suchdienstleistungen bedeuten würde.

Angesichts der Entstehungsgeschichte des gesetzlichen Vermeidungsmecha­nismus ist meines Erachtens davon auszugehen, dass der Gesetzgeber Snippets in der derzeit üblichen Länge vom Leistungsschutzrecht ausnehmen wollte. Momentan kann aber niemand diese Frage mit hinreichender Sicherheit beantworten. Der Gesetzgeber hat ein neues Betätigungsfeld für Anwälte und Gerichte geschaffen. Man kann nur hoffen, dass dies unter den großen Anbietern wie Google und Springer ausgetragen wird und nicht auf dem ­Rücken der kleinen.

Bedeutung für Journalisten

Das Leistungsschutzrecht kann für Journalisten in zweierlei Hinsicht bedeutsam sein. Einerseits stellt sich die Frage, ob sie hierdurch einen Nachteil erleiden könnten, zum Beispiel weil sie daran gehindert werden, ihre Beiträge ein zweites Mal zu verwerten. Zum anderen ist zweifelhaft, ob sie von etwaigen Einnahmen der Verleger profitieren können.

Der Gesetzgeber hat versucht, jegliche beeinträchtigende Wirkung für Journalisten auszuschließen. Auf der einen Seite sind sie – sofern sie nicht ausnahmsweise eine Suchmaschine oder einen News-Aggregator betreiben – nicht Adressat der Ansprüche. Sie müssen also zumindest für ihre eigenen Blogs und Webseiten keine Rechte einholen oder sich mit Vermeidungsstrategien beschäftigen.

Andererseits kann das Recht nach dem Gesetzeswortlaut nicht „zum Nachteil des Urhebers [...] geltend gemacht werden“. Was das bedeuten soll, ist unklar. So wäre es gerade für freie Journalisten ein Nachteil, wenn ein Verlag, für den sie schreiben, die Einwilligung für Google News nicht abgibt. Denn dann würden ihre Beiträge dort nicht gelistet und sie würden Aufmerksamkeit und Reichweite verlieren. Dass ein Journalist aus diesem Grund einen Verlag dazu zwingen könnte, sich bei Google News anzumelden, ist aber höchst unwahrscheinlich. Wahrscheinlicher ist, dass es sich bei der Formulierung um ein Relikt aus einer früheren Gesetzesversion handelt, die in der überarbeiteten Fassung nicht entfernt wurde.

Auch in Bezug auf die Einnahmeseite der Journalisten sind noch viele Fragen offen. Der Gesetzgeber hat immer wieder hervorgehoben, dass auch die Urheber wirtschaftlich vom Leistungsschutzrecht profitieren sollen. Im Gesetz heißt es daher, dass die Urheber an der Vergütung „angemessen zu beteiligen“ sind. Auch hierüber wird man sich trefflich streiten. Kommt es wie prognostiziert, werden ohnehin keine Einnahmen erzielt. Selbst wenn das aber der Fall sein sollte, haben verlagsnahe Juristen bereits eine Antwort: Im Zweifel wird Beteiligung der Urheber bei Null liegen.

Fazit

Andere als die Anbieter von Suchmaschinen und Aggregatoren sind durch das Leistungsschutzrecht nicht betroffen. Es kann also – ohne Rücksicht auf die neuen Regelungen – weiterhin gebloggt, verlinkt und zitiert werden – natürlich nur in dem vom Urheberrecht gesetzten Rahmen.

Im Vorfeld waren sich fast alle unabhängigen Beobachter der Causa Leistungsschutzrecht einig: Das neue Recht wird kaum einen Nutzen haben, aber viel Schaden und Rechtsunsicherheit verursachen. Genau diese Folge ist jetzt eingetreten. Zwar hat sich der Gesetzgeber überzeugen lassen, den Anwendungsbereich so klein zu halten, dass er kaum noch feststellbar ist. Wenn man bedenkt, dass am Anfang zur Debatte stand, mehr oder weniger jede berufstätige Person, die gesamte deutsche Wirtschaft und jeden Blogger mit dem Leistungsschutzrecht zu belasten, ist dies immerhin ein Erfolg.

Dennoch: Das nunmehr in Kraft tretende Rudiment wird nichts als Kollateralschäden anrichten. Google hat mit seinen Maßnahmen schon jetzt deutlich gemacht, dass es sich nicht dazu zwingen lässt, für Snippets zu bezahlen. Andere Dienstanbieter werden vorwiegend auf Vermeidungsstrategien setzen. Dabei werden sie mit ihren offenen Fragen und der damit einhergehenden Rechtsunsicherheit allein gelassen.

Die einen wissen nicht, ob und wie sie zukünftig noch über Suchtechnologien auffindbar sind und wie sie es anstellen sollen, dass ihre Reichweite und Publizität nicht beschädigt wird. Die anderen werden an der Frage verzweifeln, wie sie ihre Dienste rechtskonform – wohlgemerkt abseits vom Leistungsschutzrecht! – ausgestalten sollen. Sie werden auslisten, nur noch nackte Links anzeigen, ihre Dienste einstellen oder gar nicht erst auf den deutschen Markt kommen. Die Lose-Lose-Situation, die ich schon lange vorher prognostiziert hatte, hat sich damit in vollen Zügen realisiert.

foto_till-kreutzerTill Kreutzer ist Rechts­anwalt, Rechtswissenschaftler und Publizist. Er lebt in Berlin. Er ist Partner beim iRights.Lab und Anwalt bei iRights.Law. Foto: Jana Pofalla


.
Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

December 27 2013

Netzpolitik in Europa: Vor und nach Edward Snowden

2013 war ein Jahr der Wende, für Europa wie alle Staaten weltweit. Erinnert sich noch jemand an die Zeit bevor Edward Snowden an die Öffentlichkeit trat? Für die Zukunft ist zu erwarten, dass die internationale Gemeinschaft die technische Verwaltung des Internets neu konstruieren muss.

Edward Snowden, der ehemalige Mitarbeiter der National Security Agency (NSA) beziehungsweise der NSA-Auftragnehmerin Booz Allen Hamilton, hat mit der Weitergabe von Dokumenten über zahllose Überwachungsprogramme das Jahr 2013 in zwei Hälften geteilt – davor und danach. Die EU-Debatte um Datenschutz und Vorratsdatenspeicherung, die Cloud-Debatte, all das hat eine Prä- und eine Post-Snowden-Phase. Was bedeutet das für Netzpolitik in Europa?

Netzpolitik vor Snowden

Mehr Zusammenarbeit zwischen der EU und den USA und der Verhandlungsbeginn für ein ambitioniertes Abkommen über den Freihandel zwischen beiden, das stand noch Anfang des Jahres auf dem Programm. Heikle Themen wie die Unterschiede im Urheberrecht und beim Datenschutz wurden als lösbar bezeichnet. Eine harte Ausdehnung der schleppenden EU-Datenschutzreform auf US-Datenersuchen (Artikel 42) war aber schon zuvor aus dem Textentwurf für die neue Datenschutzverordnung, die die Richtlinie von 1995 ersetzen soll, verschwunden. Immerhin, die Gemeinschaft sollte einen einheitlichen Datenschutz bekommen.

Ende Mai gab das Europäische Parlament grünes Licht für die Freihandels-Verhandlungen und kündigte an, sie intensiv zu begleiten. Das Parlament muss dem Abkommen unter dem Namen Transatlantic Trade and Investment Partnership (TTIP) am Ende zustimmen. Mitverhandeln darf es aber nicht. Die mangelnde Transparenz solcher Verhandlungen ist für manche ein Ärgernis. Bei den Beratungen über das Verhandlungsmandat im EU-Ministerrat setzte sich Frankreich mit Beschränkungen für den Kultur- und Mediensektor durch.

Die Reform des Urheberrechts in der EU kam dieses Jahr kaum voran. Die Bürgerrechtsinitiative European Digital Rights (EDRI) bezeichnete die Ende des Jahres auslaufende Initiative „Lizenzen für Europa“ als Fehlschlag. Zehn Monate Arbeit und Treffen hätten letztlich keine innovativen Modelle für einen vereinfachten Zugang zu digitalen Inhalten erbracht.

Es gab aber einen Hoffnungsschimmer, dass im Urheberrecht international doch noch etwas bewegt werden kann: Bei einer lange vorbereiteten Konferenz der World Intellectual Property Organisation (WIPO) in Marrakesch sprangen auch die urheberrechtskonservativen Europäer über ihren Schatten – und stimmten nach langem Zerren einer neuen, globalen Schrankenregelung für Blinde und Sehbehinderte zu. Sie erlaubt es, Bücher in Formate zu überführen, die für blinde und sehbehinderte Menschen lesbar sind.

Auftritt Edward Snowden

Am 10. Juni 2013 veröffentlichte der britische Guardian ein Interview mit dem Whistleblower Edward Snowden, nachdem erste Berichte über die Speicherung von Verkehrsdaten und die Netzüberwachung mittels des Geheimdienstprogramms PRISM aufgetaucht waren. Seitdem ist der Strom der Enthüllungen nicht abgerissen. Experten wie der britische Kryptografie-Experte Bruce Schneier warnen, dass man – trotz der noch lange nicht vollständig ausgewerteten Informationen über PRISM, Bullrun, Muscular, Egotistical Giraffe, Fox Acid, Ferret Cannon, Mineral Eyes, Black Heart und wie die Schnüffelprogramme auch immer heißen – am Ende dennoch vieles nicht wissen würde. Welche Krypto-Algorithmen, die uns sicherer machen sollen, sind nicht ganz so sicher? Welche Zufallszahlen nicht ganz so zufällig?

Schon zehn Mal tagte der Innenausschuss im Europaparlament, um sich wenigstens im Ansatz einen Überblick über die Spionage zu machen, nicht zuletzt darüber, welche der Geheimdienste der Mitgliedsländer mit der NSA im Bett liegen. Natürlich hatte die EU-Datenschutzverordnung nach Snowden Hochkonjunktur. Dabei reguliert die Verordnung erst einmal nur die Datensammelwut von Unternehmen. Jener Artikel 42, der klarstellen soll, dass Nicht-EU-Unternehmen belangt werden können, wenn sie EU-Gesetze verletzen, um ihren Diensten im eigenen Land ungefilterten Zugang zu Daten zu geben, feierte seine Wiederauferstehung. Im Parlament forderten selbst konservative Politiker verschärfte Regeln als einzig mögliche Antwort auf das System der massenhaften Überwachung.

Die Kommission – wie auch viele EU-Unter­nehmen – verlegte sich nach Snow­den auf Werbung für eine EU-Cloud. Mit viel Verspätung trifft sich Ende des Jahres endlich eine von der Kommission einberufene Expertengruppe, die überlegen soll, ob es so etwas wie transparente Cloud-Verträge geben könnte. Wie viel davon Werbung für den Standort Europa ist und wie weit es den Nutzern hilft, wenn sie sehen, wo ihre Daten verarbeitet und gespeichert werden, das muss man noch sehen.

Jörg Ziercke ist noch nicht verrentet

So manche Datenschutzexperten sind trotz Rückenwind durch die Snowden-Enthüllungen nicht restlos überzeugt von den Ergebnissen beim Datenschutz: zu bürokratisch, zu viele Lücken für staatliche Überwachung, mangelhafte Regelungen für die pseudonyme Nutzung. Dazu kommt, dass die EU-Mitgliedsstaaten im Ministerrat schon wieder einen Gang runter geschaltet haben – es wird eng mit einer Verabschiedung vor der nächsten Europawahl im Mai 2014.

Aber was kann man erwarten, wenn EU-Mitgliedsländer wie Deutschland sich einerseits gemeinsam mit der brasilianischen Regierung bei den Vereinten Nationen für globale Datenschutzregeln stark machen – andererseits auf Bundesebene die Umsetzung der anlasslosen Vorratsdatenspeicherung betreiben? Was kann man erwarten, wenn der Chef des Bundeskriminalamtes Jörg Ziercke noch bei der Herbsttagung seiner Behörde in Wiesbaden die Betreiber und Nutzer von Tor – eines Anonymisierungsdienstes – registrieren wollte? Vielleicht sprechen die in den Dezember verschobenen Schlussanträge des Europäischen Gerichtshofes zur Grundrechtsfestigkeit der Vorratsdatenspeicherung doch noch ein vernichtendes Urteil. Und vielleicht geht Jörg Ziercke ja mal in Pension.

Der vielleicht blamabelste Schlingerkurs, dem EU-Kommissarin Neelie Kroes gefolgt ist, betrifft das Thema Netzneutralität. Artikel 23 im EU-Gesetzespaket „Vernetzter Kontinent“, das noch rasch vor Ende der Legislaturperiode vorgelegt wurde, öffnet dem Zwei-Klassen-Netz Tür und Tor. Man muss sich fragen: Müssen die Länder wie Slowenien oder die Niederlande, die strenge Netzneutralitätsgebote eingeführt haben, ihre Gesetze nun zurücknehmen?

Vielleicht aber macht uns ein Land wie Brasilien mit seinem Grundrechte-Katalog für die digitale Welt Marco Civil noch vor Jahresende vor, wie das funktioniert mit der Netzneutralität. Nicht, dass eine brasilianische Regierung gefeit wäre gegen Schlingerkurse: Lobbyversuche von Unternehmen hatten den Marco Civil seit 2011 ausgebremst. Dass er nun wieder auf dem Plan steht, dafür zeichnet Edward Snowden mit verantwortlich.

Aufschlag bei globaler Governance des Netzes

Es ist zu erwarten, dass Brasilien auch beim kommenden Internet Governance Summit die Frage aufbringen wird, ob sich die internationale Gemeinschaft andere Regeln bei der technischen Verwaltung des Internets geben muss. Die EU hat sich abgesehen von wenigen Ausnahmen in diesem Bereich an die USA gehängt. Im kommenden Jahr könnte aber vieles neu aufgerollt werden: die besondere Rolle der USA bei der Aufsicht über die Kernfunktionen bei der Internetverwaltung, die Rolle der US-Behörde National Institute of Standards and Technology (NIST) bei der Standardisierung von Krypto-Algorithmen, schließlich auch die Frage, wohin sich das „Multi-Stakeholder“-Modell der Internet Governance und die Rollen von Regierungen, Wirtschaft und Zivilgesellschaft darin entwickeln.

Foto: Privat

Foto: Privat

Monika Ermert, München,­ arbeitet als freie Journa­listin für den Heise-Verlag und verschiedene deutschsprachige und internationale Medien. Schwerpunkt ihrer Arbeit sind technische und rechtliche Aspekte der Kommunikation im Internet.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 23 2013

Redtube erwirkt einstweilige Verfügung, Impressums-Abmahnungen, Tagesschau-App

Redtube erwirkt eine einstweilige Verfügung im Streit um Porno-Streaming-Abmahnungen, das Oberlandesgericht Nürnberg sieht Massenabmahnungen zur Impressumspflicht als unzulässig, die Tagesschau-App ist nach dem Urteil in der Berufungsinstanz erlaubt. Außerdem im Wochenrückblick: NSA-Überwachung, Internet-Ausschuss, Onlinehändler und Rundfunkbeitrag.

Redtube-Abmahnungen weiter im Fokus

Die Abmahnungen von Nutzern der Streaming-Seite Redtube sorgen weiter für Wirbel. Wie die Frankfurter Rundschau berichtet, soll die Streamingseite Redtube vor dem Landgericht Hamburg eine einstweilige Verfügung gegen das abmahnende Unternehmen „The Archive AG“ erwirkt haben. Danach soll das Landgericht Hamburg „The Archive AG“ weitere Abmahnungen wegen Streamings auf Redtube vorläufig untersagt haben. Das LG Köln hat derweil in einer Pressemitteilung darauf hingewiesen, dass einzelne Kammern des Gerichts nicht mehr an ihrer Rechtsauffassung festhalten, dass Streaming offensichtlich Urheberrechte verletzt. Sogar die Aufhebung einzelner Auskunftsbeschlüsse zu IP-Adressen von Redtube-Nutzern werde in Erwägung gezogen.
Die Frankfurter Rundschau zu der einstweiligen Verfügung.
Die Pressemeldung des LG Köln.
iRights.info-Interview mit Malte Stieper: Die Rechtslage ist nicht so unklar, wie es scheinen mag

OLG Nürnberg zum Rechtsmissbrauch durch Massenabmahnungen

Das Versenden von 199 Abmahnungen innerhalb von acht Tagen ist ein Indiz für eine missbräuchliche Massenabmahnung. Das hat das Oberlandesgericht Nürnberg Anfang Dezember entschieden. In dem konkreten Fall hatte ein IT-Unternehmen knapp 200 Abmahnungen wegen Impressumsverstößen bei Facebook verschickt. Die Masse der Abmahnungen lasse den Schluss zu, dass es dem Unternehmen dabei nicht primär um die Unterlassung von Rechtsverstößen, sondern um den Ersatz der Kosten und ggf. um Vertragsstrafezahlungen gehe, so das Gericht. Die Abmahnungen seien daher rechtsmissbräuchlich und unzulässig.
Weiter bei Heise Online.
iRights.info: Schutz der eigenen Webseite vor Abmahnungen

OLG Köln: Tagesschau-App ist zulässig

Das Oberlandesgericht Köln hat vergangene Woche entschieden, dass die App der Tagesschau vom Rundfunkauftrag der ARD gedeckt ist. Die App sei lediglich eine andere Übertragungsform der Internetseite tagesschau.de und kein eigener presseähnlicher Rundfunkdienst. Hintergrund des Verfahrens ist eine wettbewerbsrechtliche Klage mehrerer Verlage. Das Landgericht Köln hatte im September 2012 entschieden, dass die App mit Stand 15. Juni 2011 gegen den Rundfunkstaatsvertrag verstößt und damit wettbewerbsrechtlich unzulässig sei. Diese Entscheidung wurde nun vom OLG Köln aufgehoben. Das Gericht hat jedoch die Revision beim Bundesgerichtshof zugelassen.
Zur Pressemeldung des OLG Köln.

US-Gericht: NSA-Überwachung wahrscheinlich verfassungswidrig

US-Bundesrichter Richard Leon hat das millionenfache Speichern von Telefondaten ausführlich kritisiert und vorläufig als verfassungswidrig einstuft. Die Überwachungspraxis des NSA verstoße gegen das 4. Amendment der US-Verfassung. Der Richter erklärte jedoch gleichzeitig, er erwarte einen Einspruch der Regierung. Auch ein Sprecher des Justizministeriums erklärte sich von der Rechtmäßigkeit der Datenspeicherung überzeugt. Die Entscheidung erging im Wege des einstweiligen Rechtsschutzes, ein Urteil in der Hauptsache sowie möglicherweise Urteile der höheren Instanzen bleiben auch in diesem Fall abzuwarten. Bisher wurden Klagen gegen Überwachungsaktivitäten von US-Gerichten stets abgewiesen.
Weiter bei der LTO.

Vor und zurück beim „Internet-Ausschuss” im Bundestag

Von „Schwierigkeiten” schreibt Netzpolitik.org, von einem „grandiosen Fehlstart” spricht Konstantin von Notz auf „Grün Digital”: In der vergangenen Woche ist die Gründung eines eigenen Internet-Hauptausschusses im Bundestag gescheitert. Nachdem Netzpolitiker verschiedener Fraktionen am Dienstag voreilig die Gründung des Ausschuss „Internet und Digitale Agenda (AIDA)” verkündet hatten, hieß es schon kurz danach: Kommando zurück, einen solchen Ausschuss wird es vorerst nicht geben. Grund: Im Normalfall spiegeln die Hauptausschüsse den Zuschnitt der Bundesministerien. Ein eigenes Ministerium für „Internet und Digitale Agenda” gibt es aber nicht, nur ein gewisses Kompetenzwirrwarr bei der Netzpolitik. In dieser Situation hat die Regierungskoalition die Entscheidung über den neuen Ausschuss erst einmal vertagt – auf frühestens Februar.
Bericht in der Onlineausgabe der Welt.

Bundesfinanzministerium: Nachweispflichten für Onlinehändler werden verschärft

Ab dem 1. Januar 2014 gelten strengere Nachweispflichten für Warensendungen innerhalb der EU. Grenzüberschreitende Lieferungen von Unternehmen innerhalb der EU sind grundsätzlich umsatzsteuerfrei. Diese Steuerfreiheit genießt jedoch nur, wer mittels einer so genannten „Gelangensbestätigung” des Abnehmers oder einem vergleichbarem Beleg (beispielsweise einer Spediteursbescheinigung) nachweisen kann, dass die Lieferung tatsächlich ans Ziel gelangt ist. Bisher ermöglichte eine Übergangsregelung einen einfacheren Nachweis. Die Neuregelung soll helfen, Steuerhinterziehungen, insbesondere durch die Einschaltung von Scheinfirmen in einer Lieferkette, vorzubeugen.
Zur Meldung bei Heise Online.
Anforderungen des Bundesfinanzministerium im Detail.

KEF: Rundfunkbeitrag kann ab 2015 gesenkt werden

Ab 2015 könnte der Rundfunkbeitrag zur Finanzierung des öffentlich-rechtlichen Rundfunks um monatlich 73 Cent gesenkt werden. Das hat die Kommission zur Ermittlung des Finanzbedarfs der Rundfunkanstalten (KEF) vergangene Woche vorgeschlagen. Die KEF ermittelt den finanziellen Bedarf der Rundfunkanstalten, an dem sich die Höhe des Rundfunkbeitrages orientiert. Schon Anfang Dezemberwurde bekannt, dass durch Umstellung der Rundfunkgebühr auf den neuen Rundfunkbeitragvoraussichtlich zu erheblichen Mehreinnahmen führt, die an die Beitragszahler weitergegeben werden müssen.
Die Details bei Spiegel Online.

 

Dieser Wochenrückblick wurde von Adrian Schneider und Franziska Dockhorn verfasst. Lizenz: CC BY-NC-SA.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl