Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 03 2014

Landgericht Köln revidiert Redtube-Beschluss, Accountbindung, Usedsoft-Entscheidung

Das Landgericht Köln revidiert einen Beschluss zur Herausgabe der Nutzerdaten für die Redtube-Abmahnungen, die Videospielfirma Valve darf nach einem Urteil an nicht übertragbaren Accounts festhalten, das ganze Urteil im Fall „Usedsoft II“ liegt jetzt vor. Außerdem im Wochenrückblick: Prosieben-Sat.1-Übernahme, Schufa-Daten und Nobelpreisnominierung für Edward Snowden.

Landgericht Köln entscheidet über Beschwerde bei Redtube-Abmahnungen

Im Zusammenhang mit der Redtube-Abmahnwelle hat das Landgericht Köln entschieden, dass ein Beschluss über die Herausgabe von Anschlussdaten rechtswidrig war. Dies wurde am Montag aufgrund einer Pressemitteilung des Gerichts (PDF) bekannt. Nach der Begründung des Gerichts hätten die Antragsteller keine offensichtliche Rechtsverletzung glaubhaft gemacht. Diese sei nach Ansicht des Gerichts jedenfalls beim Streaming aus einer nicht offensichtlich rechtswidrigen Quelle nicht gegeben. Weiterhin deutete das Gericht an, dass möglicherweise für weitere Verfahren ein Verwertungsverbot bestehen könnte. Ob es zu einem solchen jedoch überhaupt jemals kommen wird, ist aufgrund der massiven rechtlichen Zweifel an den Abmahnungen äußerst fraglich.
Zur Pressemitteilung des LG Köln.
Ein Kommentar auf telemedicus.info.
iRights.info: Landgericht Köln revidiert: Herausgabe von Redtube-Nutzerdaten war nicht rechtmäßig

Landgericht Berlin entscheidet zum Fall VZBV gegen Valve

Das Landgericht Berlin hat diese Woche seine Entscheidung im Fall VZBV gegen Valve verkündet. Das Gericht entschied, dass Valve seinen Nutzern nicht die Möglichkeit einräumen muss, ihre bei Steam gekauften Spiele weiterverkaufen zu können. In der mündlichen Verhandlung am 14. Januar 2014 ließ das Gerichts bereits durchscheinen, dass es die Klage des Verbrauchenzentrale Bundesverband gegen die Valve Corp. (Az. 15 O 56/13) abweisen wird. Es deutete an, die Grundsätze der Usedsoft-Rechtsprechung des EuGH nicht auf Computerspiele anzuwenden seien. Die genauen Entscheidungsgründe liegen jedoch noch nicht vor.
Zur Meldung auf spielerecht.de.
Telemedicus mit weiteren Hintergründen.
iRights.info: Let’s-play-Videos, gebrauchte Spiele, virtuelle Gegenstände: Was darf ich mit gekauften Games machen?

BGH: Usedsoft II im Volltext veröffentlicht

Der Bundesgerichtshof hat diese Woche in dem Fall des Weiterverkaufs von gebrauchten Software-Lizenzen durch das Unternehmen Usedsoft sein zweites Urteil vom Sommer letzten Jahres veröffentlicht. Vorausgegangen war dem die Usedsoft-Entscheidung des Europäischen Gerichtshofs. Dieser hatte dort entschieden, unter welchen Voraussetzungen bei Software im Online-Vertrieb Erschöpfung eintreten kann. Der BGH hatte sich nun mit dieser Rechtsprechung auseinander zu setzen und die Sache an das Oberlandesgericht München als Berufungsgericht zurück zu verweisen. Dieses muss den konkreten Fall nun erneut mit den Vorgaben des BGH und des Europäischen Gerichtshofs umsetzen.
Telemedicus mit einer ausführlichen Besprechung.
Das Urteil im Volltext in unserer Datenbank.

Springer hätte Prosieben-Sat.1 Media übernehmen dürfen

Das Bundesverwaltungsgericht hat diese Woche entschieden, dass die Bayerische Landeszentrale für Neue Medien es dem Springer-Konzern nicht hätte untersagen dürfen, die Prosieben-Sat.1 Media AG zu übernehmen. Dies geht aus einer Pressemitteilung des Gerichts hervor. Demnach sei die Beurteilung falsch gewesen, dass die Übernahme zu einer vorherrschenden Meinungsmacht geführt hätte. Die zwar schon starke Stellung auf dem Fernsehmarkt nach Zuschauerzahlen wäre durch die starke Stellung Springers auf einem medienrelevanten verwandten Markt zwar verstärkt worden – der Maßstab für die Beurteilung sei jedoch gemessen an den zu erreichenden Schwellenwerten nicht so hoch.
Zur Pressemitteilung des Gerichts.
Mehr dazu auf urheberrecht.org.

Bundesgerichtshof: Schufa muss Gewichtung ihrer Daten nicht preisgeben

Am Dienstag hat der Bundesgerichtshof entschieden, dass die Wirtschaftsauskunftei Schufa darüber Auskunft zu erteilen hat, welche personenbezogenen, kreditrelevanten Dateien in ihre Berechnung der Wahrscheinlichkeitswerte zur Kreditwürdigkeit eines Betroffenen eingeflossen sind. Darüber hinaus besteht jedoch kein Auskunftsanspruch für die Betroffenen. Insbesondere muss die Schufa die Gewichtung der Daten und damit ihre genauen Formeln zum Kredit-Scoring nicht angeben. Die Klägerin vertrat die Meinung, dass die von der Beklagten erstellten Datenübersicht nach Paragraf 34 des Bundesdatenschutzgesetzes nicht den gesetzlichen Anforderungen entsprach. Ihr wurde zuvor die Finanzierung eines Automobilkaufs infolge einer unrichtigen Auskunft der Schufa verwehrt.
Die Pressemitteilung des BGH.

Snowden für Friedensnobelpreis nominiert

Zwei Politiker der norwegischen Sozialistischen Linkspartei haben den bekannten Whistleblower Edward Snowden für die Vergabe des Friedensnobelpreises nominiert. Dies berichtete heise.de Mitte der Woche. Nach der Begründung haben die Enthüllungen über den NSA-Überwachungsskandal zu einer stabileren und friedlicheren Weltordnung beigetragen. Außerdem wurde bekannt, dass Snowden vom Europarat zur Aufarbeitung der Massenüberwachung eingeladen wurde.
Zur Nachricht bei heise.de.

Dieser Wochenrückblick wurde von Sebastian Telle und Diana Spikowius verfasst. Lizenz: CC BY-NC-SA.

December 10 2013

Export von Überwachungstechnologie wird stärker reguliert

Sie heißen Finfisher, Hacking Team oder Trovicor und ihr Geschäft boomt: Überwachungstechnologien aus dem Westen sind Exportschlager und ein Milliardengeschäft. Der Markt wächst rasant und bislang weitgehend unkontrolliert. Dem hat die internationale Staatengemeinschaft vergangene Woche einen ersten Riegel vorgeschoben.

Am 4. Dezember gaben die 41 Mitgliedsländer des Wassenaar-Abkommens für Exportkontrollen von konventionellen Waffen und doppelverwendungsfähigen Gütern und Technologien bekannt, Überwachungstechnologien in die Liste der kontrollierten Exportgüter mit aufzunehmen.

Das Abkommen besteht seit 1996 und ist das wichtigste internationale Vertragswerk zur Kontrolle und Begrenzung von Rüstungsexporten. Die darin vereinbarten Kontrollaufgaben werden von einem ständigen Büro in Wien koordiniert. Zu den Mitgliedsländern gehören alle führenden Industrienationen, darunter die USA, Russland, Japan, Frankreich und Deutschland. Neben Rüstungsgütern regelt es auch den Export sogenannter Dual-Use-Güter wie Telekommunikations- und Navigationstechnologie. Auch bestimmte starke Kryptographietechnik unterliegt in den am Abkommen teilnehmenden Staaten Kontrollen, etwa der Dual-Use-Verordnung der EU.*

In der Stellungnahme (PDF) von vergangenem Mittwoch erkennen die Mitgliedsländer erstmals an, dass auch Überwachungstechnologie „unter bestimmten Bedingungen der internationalen und regionalen Stabilität und Sicherheit abträglich sein kann“, wie es in der Erklärung heißt. Nichtregierungsorganisationen, darunter Privacy International und Reporter ohne Grenzen, begrüßten dies mit vorsichtigem Optimismus. „Das ist auf jeden Fall ein Schritt in die richtige Richtung“, sagt Hauke Gierow, Referent für Informationsfreiheit im Internet bei Reporter ohne Grenzen. Die Organisation weist seit langem darauf hin, dass Überwachungstechnologie westlicher Firmen zunehmend von repressiven Regime zur Unterdrückung von Journalisten, Menschenrechtlern und Dissidenten genutzt wird (PDF).

Entscheidungsstau oder schnelle Reaktion

In der Erklärung sind Technologien zur Überwachung, Informationsbeschaffung und Systeme zur Überwachung IP-basierter Netzwerke als die Bereiche benannt, die zukünftig der Kontrolle unterliegen werden. Welche Produkte dadurch konkret auf der Liste landen werden und mit welchen technischen Spezifikationen, ist allerdings noch unklar. „Wir warten jetzt noch auf die Details der Implementierung, denn darauf wird es am Ende ankommen“, schränkt Gierow ein. Und das könnte eine Weile dauern. Denn die Beschlüsse müssen in Brüssel vom EU-Parlament umgesetzt werden. „Aber derzeit hängen dort noch die Änderungen der letzten zwei Jahre fest“, sagt Gierow.

Dass es mit dem nötigen politischen Willen auch sehr viel schneller gehen kann, beweist derzeit Frankreich. Die Französische Regierung hat als Reaktion auf die Beschlüsse in Wien schon jetzt festgelegt, dass Hersteller von Überwachungstechnologien in Zukunft Exportgenehmigungen für ihre Produkte brauchen. „Das könnte die Bundesregierung ja auch machen“, sagt Gierow. Wie dringend eine schnelle Regulierung des Marktes nötig ist, zeigt die wachsende Zahl an Fällen, in denen Sicherheitstechnologie von repressiven Regime gegen die Bevölkerung eingesetzt wird. „In Syrien zum Beispiel war deutsche Technologie im Einsatz, in Libyen wurden Produkte einer französischen Firma gefunden, in Ägypten gab es ein Angebot von der Firma Gamma Fin Fisher“, sagt Gierow.

Dass die neuen Exportkontrollen Überwachung und Repression effektiv verhindern werden, ist zwar unwahrscheinlich, denn viele Länder gehören nicht zum Abkommen, und bereits vorhandene Technologie wird auch weiterhin genutzt werden. Aber der bislang vollkommen intransparente Handel stünde damit erstmals offiziell unter Beobachtung.

*Update, 13.00: In einer früheren Version dieses Artikel stand, dass starke Kryptographie allgemein dem Abkommen unterliegt. Diese Aussage wurde korrigiert.

December 09 2013

Tor bleibt Geheimdiensten ein Dorn im Auge

Der Kampf um die Anonymisierungssoftware Tor ist ein stetes Wettrennen, bei dem die Geheimdienste immer wieder aufholen, das System bislang aber nie ganz knacken konnten. 

Das Anonymisierungstool TOR ist über die Jahre vielfach ausgezeichnet worden. So gewann das Tor Project im Jahr 2011 den Preis der Free Software Foundation. Wichtiger jedoch sind die Finanziers, die sich das Projekt über die Jahre sicherte: Von Google über die Knight Foundation bis hin zur amerikanischen National Christian Foundation – sie alle sahen in der Mission des Projekts, Internetnutzern das Recht auf Anonymität und freien Internetzugang zu verschaffen, ein unterstützenswertes Vorhaben. Die wohl bemerkenswerteste Auszeichnung hingegen wurde hinter verschlossenen Türen ausgesprochen, wie Whistleblower Edward Snowden enthüllte: „Tor stinkt“, heißt es in einer Präsentation des Geheimdienstes NSA.

Das heißt: Selbst die Schnüffler, die über Jahre unbemerkt Angela Merkels Handy und internationale Glasfaserverbindungen ausspioniert und Verschlüsselungsstandards sabotiert haben, konnten dem Open-Source-Projekt nicht alle Geheimnisse entreißen. Dabei wird das Projekt bis heute von der US-Regierung mitfinanziert.

Das Netzwerk war einst mit Unterstützung der US-Regierung geschaffen worden, um beispielsweise Dissidenten in China und Iran Zugriff auf das Internet zu verschaffen und gleichzeitig ihre Identität vor den staatlichen Zensoren zu verbergen. Gleichzeitig diente die Verschlüsselungsinfrastruktur auch als Untergrund-Netz, in dem Kriminelle zunehmend florierende Geschäfte machten.

Das Grundprinzip der Software ist das sogenannte Onion-Routing: Gleich den Schalen einer Zwiebel wird eine verschlüsselte Verbindung über die anderen gelegt. Oder anders ausgedrückt: Das dezentrale Netzwerk schickt den Datenverkehr so lange hin und her, bis der Ursprung für Mitlauscher nicht mehr festzustellen ist. Doch das alleine reicht nicht aus, um die eigene Identität sicher zu verstecken: Denn wenn ein Angreifer in den Datenstrom hineinsieht, nachdem dieser das Tor-Netzwerk verlassen hat, sieht er weiterhin identifizierende Informationen.

Vorsicht: Mitleser

Wer zum Beispiel eine E-Mail per Tor verschickt, legt weiterhin seine Absenderadresse offen. Wer sein Passwort über Tor versendet, sollte darauf achten, dass die Verbindung verschlüsselt ist. Bereits 2007 machte der Schwede Dan Egerstad Schlagzeilen, weil er aus dem Datenstrom von mehreren Tor-Exit-Nodes – also den Kupplungen zwischen dem Tor-Netz und dem normalen Internet – die E-Mail-Zugangsdaten von hundert Behörden und Diplomaten extrahiert hatte.

Die Dezentralität des Tor-Netzwerkes ist gleichzeitig Stärke und Angriffspunkt. Wenn Geheimdienste selbst Tor-Server betreiben oder den Datenverkehr der bestehenden Server überwachen, können sie trotzdem nicht den Ursprung der Datenpakete ermitteln. In den von Snowden offengelegten Dokumenten erklären die NSA-Spezialisten klar und deutlich: „Wir werden niemals fähig sein, alle Tor-Nutzer jederzeit zu deanonymisieren.“

Doch gleichzeitig liefert das Papier eine ganze Reihe an Möglichkeiten, wie die Identität der Tor-Nutzer aufgeklärt werden kann. Zum Beispiel kann der Datenstrom nach Cookies durchsucht werden, die wiederum Rückschlüsse auf die Identität eines Nutzers geben. Explizit erwähnen die Analysten dabei die Google-Tochter Doubleclick, die auf fast jeder kommerziellen Webseite ihre Cookies hinterlässt. Wird der gleiche Cookie auf einer unverschlüsselten Verbindung wiederentdeckt, liegt die Identität des Tor-Nutzers offen.

Die Tor-Entwickler sehen in dem Papier jedoch keine verschärfte Gefahr: „Wir haben immer noch viel Arbeit vor uns, um Tor gleichzeitig sicher und einfacher nutzbar zu machen – aber die NSA-Präsentation stellt uns vor keine neuen Herausforderungen“, erklärt Tor-Projektleiter Roger Dingledine. So legt das vom Projekt selbst vertriebene Tor-Browser-Bundle erst gar keine Cookies an – daher kann die NSA diese Informationen auch nicht aus dem Datenstrom fischen.

Doch wie Kryptografie-Expterte Bruce Schneier erläuterte, kommt die NSA mittlerweile auch ohne solche Cookies aus. Die Attacken der NSA waren zum Teil deutlich ausgefeilter. Screenshots der Auswertungssoftware Xkeyscore legen nahe, dass die Geheimdienstleister Tor-Nutzer routinemäßig überwachen – so sie denn eine Gelegenheit bekommen.

Drogenmarktplatz und andere verborgene Dienste

In den vergangenen Jahren machte Tor nicht mehr nur als Hilfsmittel für Demokratiebewegungen oder Regimegegner von sich reden, sondern auch als Sammelpunkt krimineller Aktivitäten. So machte der nur über Tor erreichbare Drogenmarktplatz Silk Road seit 2011 Schlagzeilen, weil er es schaffte, den Drogenfahndern ein Schnippchen zu schlagen. Dass der mutmaßliche Betreiber Ross William Ulbricht Anfang Oktober 2013 schließlich doch gefasst werden konnte, lag nach vorliegenden Informationen nicht an einer Schwachstelle im Tor-Netzwerk. Den Ermittlern war eine verdächtige Sendung an Ulbrichts Privatadresse aufgefallen. Seinen Briefkasten konnte Ulbricht nicht mit Tor verschlüsseln.

Anders jedoch liegt der Fall bei Freedom Hosting, einem Dienstleister für verborgene Dienste im Tor-Netzwerk, der zum einen Angebote wie Marktplätze für gestohlene Kreditkarten und Kinderpornografie beherbergt haben soll, zum anderen auch Dienste wie den anonymisierten E-Mail-Dienst Tor Mail. Freedom Hosting wurde im August 2013 bei einer internationalen Aktion zerschlagen, die offenbar von der US-Bundespolizei FBI angeführt wurde; der mutmaßliche Betreiber Eric Eoin Marques wurde in Irland verhaftet.

Doch statt die Server nur lahmzulegen, gingen die Strafverfolger augenscheinlich weiter. So bekamen Nutzer der Dienste zuerst eine Fehlermeldung angezeigt, dass die Dienste Wartungsarbeiten unterzogen würden. Beim Aufruf der Seite luden die Nutzer aber ein Javascript-Programm herunter, das auf eine Sicherheitslücke in der von Tor verwendeten Version des Firefox-Browsers zielte.

Nach Analysen der Attacke scheint klar: Sie diente dazu, so viele Nutzer wie möglich zu enttarnen. Obwohl bis heute keine konkreten Schritte gegen identifizierte Tor-Nutzer bekannt wurden – das bloße Besuchen eines Tor-Service kann nur schwerlich als Straftat gewertet werden – waren viele Nutzer verunsichert. Trotzdem stieg die Nutzung des Tor-Netzwerkes nach dem Bekanntwerden der Attacken deutlich an; allerdings war zumindest ein Teil davon auf eine Schadsoftware zurückzuführen, die auf das Anonymisierungsnetzwerk zur Kommunikation zurückgriff.

Nutzer bleiben identifizierbar – zumindest in der Theorie

Mögen die Geheimdienste in ihren Bemühungen um Tor nur mäßig erfolgreich gewesen sein, gibt es neue Gründe zur Besorgnis: Ein neues Forschungspapier vom US-Sicherheitsforscher Aaron Johnson legt nahe, dass durch eine geschickte Analyse des Datenverkehrs der Tor-Nutzer über sechs Monate 80 Prozent der Nutzer identifiziert werden konnten.

foto_Kleinz_sw_opt

Foto: Oliver Kleinz

Tor-Projektleiter Dingledine gesteht das Problem ein – bezweifelt aber, dass die Geheimdienste schon in der Lage waren, diese Methode auszunutzen. „Der britische Geheimdienst GCHQ hat in der Vergangenheit einige Tor-Relays betrieben, aber ihre Zahl und Betriebsdauer genügte nicht für die beschriebene Attacke“, erklärt er. Durch neue Sicherheitsmechanismen will Tor diese Attacken zumindest erschweren.

Torsten Kleinz ist freier Journalist und schreibt seit über zehn Jahren darüber, was das Netz und die Welt zusammenhält.

 

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 05 2013

Brigitte Zypries: „Natürlich kann ein Deutschlandnetz nicht die eine Antwort auf den NSA-Skandal sein”

Brigitte Zypries, ehemals Justizministerin in der rot-grünen und großen Koalition, spricht im Interview über die Aussichten bei der Netzpolitik in der neuen. 

iRights.info: Der NSA-Abhör­skandal hat die netzpolitische Debatte 2013 geprägt. Überraschen Sie die Enthüllungen?

Brigitte Zypries: Ja, in ihrem Ausmaß schon. Hätte mich jemand im Sommer gefragt, ob ich mir vorstellen kann, dass das Handy eines Regierungschefs über Jahre hinweg abgehört wird, hätte ich das wohl verneint.

iRights.info: Wie verhindern Sie, dass es Schwarz-Rot den Amerikanern einfach gleichtut, und eine eigene Infrastruktur zur massiven Internetüberwachung aufbaut?

foto_brigitte-zypries-web

Brigitte Zypries (SPD) war von 2002 bis 2009 Bundesjustizministerin. Die SPD berief Zypries bei den Vorbereitungen zur Großen Koalition zur Verhandlungsführerin in der Unterarbeitsgruppe „Digitale Agenda“. Foto: Studio Kohlmeier

Brigitte Zypries: Niemand in Deutschland will eine Überwachung à la NSA, das ist unbestritten – und auch der geschäftsführende Innenminister hat das erkannt. Was wir als Konsequenz überlegen müssen, ist, ob wir in Deutschland und Europa nicht deutlich mehr IT-Infrastruktur aufbauen können, die uns technologisch unabhängiger macht von US-amerikanischen Anbietern. So verstehe ich beispielweise den Vorschlag für ein Deutschlandnetz der Telekom oder die Idee, Internetanbieter künftig zu verpflichten, Datenverkehr in Europa ausschließlich über europäische Netze zu leiten.

iRights.info: Besteht nicht die Gefahr, dass das Internet nun in nationale Einzelnetze fragmentiert wird?

Brigitte Zypries: Natürlich kann ein Deutschlandnetz nicht die eine Antwort auf den NSA-Skandal sein, es ist bestenfalls akute Notwehr und vermittelt auf den ersten Blick auch eine Sicherheit, die es so wohl nicht einlösen kann. Notwendig ist vielmehr eine ganze Reihe von Maßnahmen: Selbstbeschränkung und bessere Kontrolle der Geheimdienste, Stärkung von IT-Sicherheit, Schaffung vertrauenswürdiger Kommunikationsinfrastrukturen, Verschlüsselungsmaßnahmen und Ähnliches. Dabei kann man am Ende überlegen, ob bei all diesen Maßnahmen gegebenenfalls auch Möglichkeiten des nationalen oder europäischen Routings einen Beitrag leisten können. Zur Abschottung oder Fragmentierung des Internets dürfen sie aber nicht führen.

iRights.info: Sie haben sich stets gegen Diskriminierungen eingesetzt. Eröffnet die Datensammelwut im Netz künftig der Diskriminierung neue Möglichkeiten – etwa wenn digitale Profile die sexuelle Ausrichtung einzelner Personen verraten?

Brigitte Zypries: Natürlich ermöglichen die – bewusst oder unbewusst – im Netz hinterlassenen Daten auch neue Möglichkeiten des Missbrauchs und der Diskriminierung. Ich sehe zwei Dinge, die wir dagegen tun müssen: Zum einen muss jeder Nutzer möglichst sparsam und verantwortungsvoll mit seinen Daten umgehen. Das setzt voraus, dass sich jede und jeder aufgeklärt und medienkompetent im Internet bewegt. Zum anderen darf es natürlich nicht sein, dass Daten missbräuchlich verwendet werden – auch deshalb ist es so wichtig, dass wir endlich eine ordentliche EU-Datenschutzgrundverordnung auf europäischer Ebene verabschieden.

iRights.info: Nach der Bundestagswahl waren Teile der Netzgemeinde resigniert, weil die Wähler die Bundesregierung für ihren Beschwichtigungskurs in der NSA-­Affäre nicht abgestraft haben. Werden die Bedeutung der Netzpolitik und der Einfluss von Netzaktivisten überschätzt?

Brigitte Zypries: Es ist vielleicht verwunderlich, dass sich die Sorgen der Bürger über den Umgang ihrer Daten nicht unmittelbar im Wahlverhalten widergespiegelt haben – festzustellen ist aber durchaus ein verändertes Surf- und Nutzungsverhalten vieler User im Netz.

Dass die Netzpolitik durchaus einen hohen Stellenwert genießen muss, zeigt sich schon daran, dass es in den Koalitionsverhandlungen eine eigenständige Arbeitsgruppe „Digitale Agenda“ gibt. Im Übrigen spielen die digitalen Themen in so ziemlich allen Arbeitsgruppen eine Rolle. Und das ist auf jeden Fall eine Veränderung zu den Verhandlungen 2005, die ich ja auch mitgemacht habe.

iRights.info: In der letzten Großen Koalition startete die damalige Familienministerin Ursula von der Leyen eine Initiative gegen Kinderpornografie im Internet. Könnte unter Schwarz-Rot die Idee ein Comeback erleben, bestimmte Internetseiten zu sperren?

Brigitte Zypries: Es ist kein Geheimnis, dass ich nie ein großer Fan dieser Initiative von Frau von der Leyen war. Natürlich bin ich strikt gegen Kinderpornografie und für deren Bekämpfung vor allem auch im Internet. Ich halte Netzsperren jeglicher Art aber für das falsche Mittel, um gegen Kinderpornografie oder auch Urheberrechtsverletzungen vorzugehen. Und ich bin sicher: Diese Idee wird kein Comeback erleben.

iRights.info: Wie bewerten Sie das Problem massenhafter Urheberrechtsverletzungen im Netz und würde es hier unter Schwarz-Rot neue gesetzliche Maßnahmen ­geben?

Brigitte Zypries: Es ist natürlich nicht richtig, wenn Filme oder Musik illegal im Netz angeboten werden und damit die Rechte der Urheber verletzt werden. Deshalb brauchen wir einen fairen und gerechten Interessenausgleich zwischen Urhebern, Verwertern und Nutzern. Wir müssen die Urheber bei ihrer Rechtsdurchsetzung in der digitalen Welt unterstützen – und sie sollen für ihre Leistungen auch angemessen vergütet werden. Filterung von Inhalten oder gar Warnhinweise, die in diesem Zusammenhang immer wieder diskutiert werden, halte ich aber für falsch.

iRights.info: Verwertungsgesellschaften wie die VG Wort oder die GEMA kämpfen derzeit an vielen juristischen Fronten. Sehen Sie Reformbedarf?

Brigitte Zypries: Der Bundestag hat sich in der vergangenen Legislaturperiode sehr intensiv mit einer Petition zur GEMA beschäftigt. Der Petitionsausschuss hat festgestellt, dass die GEMA vor allem sozialer werden muss – und die Bundesregierung aufgefordert, dies entsprechend gesetzlich zu verankern. Wir werden uns also sicher auch in dieser Legislatur wieder mit den Verwertungsgesellschaften befassen.

iRights.info: Welche netzpolitische Bilanz wollen Sie in vier Jahren ziehen?

Brigitte Zypries: Ich fände es gut, wenn „Software made in Germany“ ein nachgefragtes Label wäre, wenn die Menschen ausschließlich die bis dahin entwickelten Plattformen für den Kauf von Filmen, Büchern und Musik nützen würden.

iRights.info: Sollen die Menschen ein deutsches Facebook und ein deutsches Google nutzen?

Brigitte Zypries: Ich möchte den Menschen nicht vorschreiben, was sie im Internet nutzen. Ich fände es nur gut, wenn auch Angebote von deutschen Unternehmen wieder öfter echte Alternativen etwa zu Google und Co wären. Es ist schade, dass viele den Datenschutz bei Facebook als zu schlecht beklagen, die deutschen alternativen Produkte wie etwa Schülervz aber mangels Kunden schließen mussten.

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon, beim Apple iBookstore oder bei Beam.

November 29 2013

Börsenverein: Offen verstecker Streit um Open Access

Ein heftiger Streit über den Umgang von Wissenschaftsverlagen mit Open Access bewegt derzeit den Börsenverein des deutschen Buchhandels. Die als Positionspapier formulierte Anregung, mit der Wissenschafts-Community neue Wege beim freien Zugang zu gehen, sorgt für Widerspruch.

Auslöser der Kontroverse ist ein Positionspapier (PDF), das der Verleger-Ausschusses des Börsenvereins vor gut einer Woche per Pressemitteilung veröffentlichte. Deklariert als „Meinung“, plädieren darin die Verfasser für einen „Neuanfang“ bezüglich der Rolle der Verlage beim „Zugang zu wissenschaftlichen Informationen“. Viele Verlage seien bereits in der Realität angekommen, würden Open Access als Publikationsmodell nutzen, heißt es in dem Papier, das zugleich fünf Herausforderungen an die Branche formuliert, etwa betreffend Qualitätssicherung und Referenzierbarkeit, Open Access in den Geisteswissenschaften und sinnvoller Finanzierungsmodelle.

Von diesen Formulierungen wie auch von der Veröffentlichung des Papiers selbst – es erschien anlässlich des zehnten Jahres der Berliner Erklärung zu Open Access  – zeigten sich einzelne Börsenvereinsmitglieder überrascht bis überrumpelt. Sie erklärten die Position als nicht abgestimmte Einzelmeinung, monierten eigenmächtiges Vorgehen. Das berichtete die FAZ am vergangenen Freitag (allerdings nur in der Druckausgabe). Mehr noch: Der Hamburger Verleger Manfred Meiner forderte wegen des vermeintlich isolierten Vorgehens des Verleger-Ausschuss-Vorsitzenden Matthias Ulmer öffentlich dessen Rücktritt.

Putschversuch und drohende Spaltung?

Dies veranlasste die FAZ dazu, von einem Putschversuch und drohender Spaltung des Börsenvereins zu schreiben. Seitdem sind der Börsenverein und seine Publikationsplattform Börsenblatt darum bemüht, den Streit auf der formalen Ebene zu lösen und die Diskussion intensiver inhaltlich zu führen. In mehreren Beiträgen und Kommentaren auf der Börsenblatt-Website  meldeten sich Beteiligte und Mitglieder zu Wort. So vermutet beispielsweise Meiner, dass der Verleger-Ausschuss dafür eintrete, Open Access solle künftig ohne Alternative bleiben. Dies wäre eindeutig eine „Kehrtwende in der Sache“, so Meiner.

Von einer solchen Verordnung zu Open Access oder auch Gleichschaltung sei überhaupt nicht die Rede, entgegnet dem der Geschäftsführer des De-Gruyter-Verlages, Sven Fund, in einem Interview mit dem Börsenblatt:

„Für mich ist die entscheidende Frage, welche Grundhaltung Verleger einnehmen: bestandswahrend oder kundenorientiert. Denn es ist die Nachfrage der Kunden – also beispielsweise der Bibliotheken –, die Open-Access-Publikationen wünschen.“

Seiner Auffassung nach sei Open Access auch keineswegs von der Verlagsgröße abhängig:

„Auch kleinere Verlage entscheiden sich für diesen Weg, weil sie sehen, wie sich die Marktbedingungen verändern. Auch sie fragen sich, wie man am besten mit der Wissenschaftler-Community und den Wissenschaftsorganisationen zusammenarbeitet. Open Access ist weltweit eine Realität der Wissenschaftskommunikation, je nach Disziplin wichtiger oder weniger wichtig. Von ihrem Verband können die Verleger Offenheit für Kundenbedürfnisse und die Innovationsfähigkeit ihrer Branche erwarten. Genau das hat der Verlegerausschuss in seiner ,Opinion‘ zum Ausdruck gebracht.“

Doch auch diese Stellungnahme des De-Gruyter-Chefs blieb nicht ohne Widerspruch. Kommentatoren werfen Fund ein aggressives Vorgehen in der Wissenschafts-Community vor. Er versorge sich durch Verlagszukäufe mit Erstveröffentlichungslizenzen zu Projekten, die maßgeblich durch Forschungsgelder finanziert seien – zum Nachsehen kleiner Verlage. Gleichwohl sind wieder andere Kommentatoren der Überzeugung, auch kleine Verlage müssten Open Access praktizieren, weil sie sonst mehr und mehr von der Wissenschaftsgemeinde ignoriert würden

Meinungsbildungsprozess in Verband und Öffentlichkeit führen

Mit einem weiteren Versuch, diese Wogen zu glätten, meldete sich vor drei Tagen der erst kürzlich ins Amt gewählte Vorsteher des Börsenvereins, Heinrich Riethmüller, per Pressemitteilung zu Wort. Dort verteidigt er zwar das Papier des Verleger-Ausschusses als eine „der Zukunft zugewandte Positionierung“. Doch er will die Veröffentlichung offenbar nicht als eine Art Dekret verstanden wissen, sondern als Anregung zur Diskussion über neue Wege, die Verlage gehen sollten:

 „Der Verband muss bei der Formulierung dieses neuen Weges den unterschiedlichen Wissenschaftsfakultäten mit ihren spezifischen Interessen Rechnung tragen. Diesem Anspruch sind wir beim Thema Open Access bisher nicht vollständig gerecht geworden. Jetzt kommt es darauf an, dass wir den Meinungsbildungsprozess in großer Offenheit und Sachlichkeit im Verband und der Öffentlichkeit weiter führen“, so Riethmüller.

Allerdings: öffentlich findet die Diskussion bisher nur auf der Website des Börsenvereins beziehungsweise des Börsenblatts statt. Anfragen von iRights.info an die Protagonisten des Streits blieben bisher alle unbeantwortet. Die Pressesprecherin des Börsenvereins, Claudia Paul, teilte uns mit, dass sich der Börsenverein zu Open Access in einem internen Diskussionsprozess befinde und es deshalb dazu öffentlich nichts zu sagen gebe.

November 20 2013

AOL vs. „People Plus”: Wie frei sind Schnittstellen?

Weil sie falschen Gebrauch von einer Schnittstelle gemacht hätten, hat AOL die Macher des Programms „People Plus” abgemahnt. „People Plus” greift auf die Datenbank „Crunchbase” zu. Die aber ist unter Creative Commons lizenziert.

„People Plus“ ist eine App, auf die man wahrscheinlich nur in Kalifornien kommen kann. Wer auf Anlässen in der Tech-Welt nicht weiß, mit wem er gerade warum redet, dem zeigt sie auf der Datenbrille an: Das ist Venturekapitalist Tim Chang vom Mayfield Fund – zum Beispiel. Zusätzlich gibt es Funktionen wie „Find investors nearby“ („Investoren in der Nähe finden“). Wenn man so will: Das Modell Linkedin plus Augmented Reality, was im Reklamevideo so aussieht:

Um Antworten auf die Fragen „Who am I talking to? Why are we talking?“ zu finden, durchsucht das Programm unter anderem Check-Ins bei Veranstaltungen, aber auch Unternehmensdatenbanken wie Crunchbase, einem Seitenprojekt von Techcrunch, das wie das Blog selbst seit 2010 zu AOL gehört. Über die Nutzung der Datenbank gibt es jetzt einen Lizenzstreit: Zwar hat Crunchbase seine nach dem Wikipedia-Prinzip aufgebaute Datenbank unter Creative Commons gestellt, People Plus darf sie also gemäß den Bedingungen der Lizenz (Namensnennung) ohne Rückfrage verwenden.

Nutzungsbedinungen vs. Creative-Commons-Lizenz

Die API – also die technische Schnittstelle – zur Datenbank aber hat Crunchbase mit Nutzungsbedingungen versehen, die die Freiheiten der Creative-Commons-Lizenz de facto wieder aufheben. Crunchbase behält sich darin vor, Nutzungen zu überprüfen, die „mehr konkurrierend als komplementär” sind („CrunchBase reserves the right to continually review and evaluate all uses of the API, including those that appear more competitive than complementary in nature.”)

So hat People Plus Anfang November Anwaltspost von AOL bekommen und soll die Nutzung der Crunchbase unterlassen. Doch soweit es um Nutzungsrechte geht, sagen die Creative-Commons-Lizenzen in der Langfassung: Zusätzliche Beschränkungen über die Lizenz hinaus sind ungültig – nur im Einzelfall können Änderungen per „schriftlicher Vereinbarung“ getroffen werden:

This License constitutes the entire agreement between the parties with respect to the Work licensed here. (…) Licensor shall not be bound by any additional provisions that may appear in any communication from You. This License may not be modified without the mutual written agreement of the Licensor and You.

Folgt man dem Beitrag eines Entwicklers bei Hackernews, war die API zunächst für alle Nutzer offen – eine Registrierung mit zusätzlichen Vereinbarungen sei erst später eingeführt worden.

CC bleibt CC

In einem Statement gegenüber „Wired” räumt Creative-Commons-Chefjuristin Diane Peters ein, dass Unternehmen zwar Nutzungsbedinungen für APIs festlegen können, sie weist aber darauf hin, dass bereits veröffentlichte Inhalte dennoch nicht zurückgezogen werden können. Was draußen ist, ist draußen – so lässt sich der Grundsatz umschreiben, dass ein per Creative Commons erteiltes Nutzungsrecht nicht nachträglich zurückgezogen werden kann. AOL könnte jetzt zwar die Lizenz ändern, aber Daten, die schon freigegeben wurden, blieben trotzdem frei.

Landet der Streit vor Gericht, könnte eine der Fragen lauten: Lässt sich die Nutzung von Datenbanken von der Nutzung der Schnittstellen abgrenzen, über die eben diese Datenbanken ausgelesen werden? Im Moment sieht es allerdings so aus, als wollten sich AOL und die People-Plus-Macher ohne Gerichte einig werden. People Plus hat die Nutzung der API vorerst eingestellt, ohne aber die alten Daten aus seinem Dienst zu entfernen. Techcrunch und dem Crunchbase-Projekt wiederum stünde es wohl schlecht zu Gesicht, sich gerichtliche Scharmützel mit Startups zu liefern.

Deutlich macht der Streit vor allem, dass der Eigentümer AOL augenscheinlich Nutzungen der Datenbank verbieten will, um einen potenziellen Konkurrenten auszubremsen, der die Daten auf neue Weise verwendet – während das Unternehmen sich unter dem Motto „Disrupt AOL!” zugleich für seine „Open Philosophy” rühmt. Zu versuchen, „Disruption” von außen mit Zusatzvereinbarungen zur Creative-Commons-Lizenz zu verhindern, ist aber wenig Erfolg versprechend – die Lizenz soll neue Nutzungen schließlich gerade ermöglichen.

November 04 2013

BGH zu Unterlassungserklärungen, Tell-a-friend-Funktion, Titelschutz bei Apps

Wer eine Unterlassungserklärung abgibt, erkennt damit nicht gleich Anspruch und Kosten an,  Tell-a-friend-Funktionen sind Werbung eines Unternehmens – zwei Entscheidungen des Bundesgerichtshofs der letzten Woche. Außerdem im Wochenrückblick: Titelschutz bei Apps, „No-Spy”-Abkommen, Drosseltarife und Facebook vs. ULD.

Bundesgerichtshof: Unterlassungserklärung ist keine Anerkenntnis

Wer aufgrund einer Abmahnung eine Unterlassungserklärung abgibt, erklärt damit nicht das Anerkenntnis des Unterlassungsanspruchs. Das hat der Bundesgerichtshof Ende September entschieden. Die Entscheidung ist vergangene Woche im Volltext erschienen. Hintergrund der Entscheidung war ein wettbewerbsrechtlicher Streit. Die Klägerin hatte die Beklagte wegen rechtswidriger Werbung abgemahnt. Die Beklagte gab eine Unterlassungserklärung ab, zahlte aber die Anwaltskosten für die Abmahnung nicht. Die Klägerin meinte nun, mit der Abgabe der Unterlassungserklärung habe die Beklagte die Forderung der Abmahnkosten und den Unterlassungsanspruch anerkannt. Dem erteilte der BGH eine Absage: Ein Anerkenntnis liege nur dann vor, wenn der Abgemahnte dies förmlich erklärt. Auch dann wenn eine Unterlassungserklärung nicht mit dem Zusatz „ohne Anerkennung einer Rechtspflicht” abgibt, erkennt er demnach den Unterlassungsanspruch nicht an.
Das Urteil des BGH im Volltext.

Bundesgerichtshof: Tell-a-Friend-Funktion ist Spam

Der Bundesgerichtshof hat vergangene Woche ein Urteil veröffentlicht, in dem er sich mit der Zulässigkeit von Tell-a-Friend-Funktionen befasst. Mit Hilfe dieser Funktion können Nutzer einer Webseite über ein Formular Empfehlungsemails an Dritte verschicken. Diese E-Mails sind als Werbung des Unternehmens anzusehen, das die Tell-a-Friend-Funktion anbietet, so der BGH. Die E-Mail habe den Zweck, Dritte auf die entsprechende Webseite aufmerksam zu machen und sei damit Werbung des Unternehmens. Der Versand ist damit nur rechtmäßig wenn der Dritte in den Empfang eingewilligt hat.
Das Urteil im Volltext.
Besprechung der Entscheidung von Thomas Stadler.

Landgericht Hamburg zum Titelschutz für Apps

Der Name einer App kann als Werktitel geschützt sein. Das hat das Landgericht Hamburg Anfang Oktober entschieden, wie vergangene Woche bekannt wurde. Hintergrund: Der Anbieter von „wetter.de” sah sich durch die App „wetter DE” in seinen Rechten verletzt. Der Name seiner App sei als Werktitel geschützt. Im konkreten Fall lehnte das Landgericht Hamburg einen solchen Titelschutz zwar ab, generell sei der Name einer App aber als Werktitel schutzfähig.
Die Hintergründe bei socialmediarecht.

NSA-Skandal: „No-Spy-Abkommen“ in Planung

Schon Anfang 2014 soll es ein Abkommen gegen Spionage zwischen Deutschland und Amerika geben. Darauf habe sich eine Delegation des Kanzleramts vergangene Woche mit US-Präsident Obama geeinigt, wie die FAS berichtet. Kritik an den Plänen kam vor allem aus dem Europäischen Parlament. Der Europaabgeordnete der Grünen Jan Philipp Albrecht äußerte die Befürchtung, mit der deutsch-amerikanischen Sonderlösung solle die Aufregung über die Aktivitäten der NSA gedämpft werden, ohne an der Massenüberwachung etwas zu ändern. Der Text des Abkommens soll in den nächsten Wochen ausgehandelt werden.
Weiter bei FAZ.net.

Landgericht Köln: Telekom darf Drosseltarif nicht als Flatrate verkaufen

Die Drosselung von Internetanschlüssen ab einem gewissen Transfervolumen durch die Telekom ist in seiner jetzigen Form rechtswidrig. Das hat das LG Köln letzte Woche entschieden. Hintergrund war eine Unterlassungsklage der Verbraucherzentrale NRW. Das Gericht schloss sich der Ansicht der Verbraucherschützer an und erklärte die entsprechenden Klauseln in den AGB der Telekom für unwirksam. Hauptargument: Wird ein Festnetzanschluss als „Flatrate” angeboten, darf der Verbraucher erwarten, diesen auch unbegrenzt nutzen zu dürfen. Generell ist die Drosselung von Internetanschlüssen damit also nicht vom Tisch. Das Landgericht Köln hat jedoch klargestellt, dass ein gedrosselter Internetanschluss auch als solcher bezeichnet werden muss.
Ausführliche Besprechung des Urteils bei Telemedicus.

Facebook-Fanpages: ULD geht in Berufung

Anfang Oktober hat das Verwaltungsgericht Schleswig entschieden, dass das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) den Betrieb von Facebook-Fanpages nicht verbieten darf. Das ULD hat gegen die Entscheidung letzte Woche nun Berufung eingelegt. Das Urteil habe die grundrechtliche Schutzpflicht des Staates für das Recht auf informationelle Selbstbestimmung nicht ausreichend beachtet. Der Streit geht damit vor das Oberverwaltungsgericht Schleswig-Holstein.
Zur Pressemeldung des ULD.

 

Lizenz dieses Artikels: CC BY-NC-SA.

October 28 2013

Ausschreibung: Ideen, Konzepte und Lösungen für „Privatheit in der E-Society”

Bei der „Integrata-Stiftung für humane Nutzung der Informationstechnologie” läuft noch bis Ende des Jahres eine Ausschreibung für den jährlich von der Stiftung vergebenen Preis. Dieses Jahr werden Vorschläge und Lösungen zum Thema „Privatheit” gesucht.

In der Ausschreibung (PDF) heißt es:

Privatheit ist einerseits notwendige Voraussetzung für die Autonomie des Individuums in einer demokratischen Zivilgesellschaft. Andererseits ist sie durch die aktuelle Entwicklung auf bisher unvorstellbare Weise bedroht. Dieser Konflikt ist sichtbar unter anderem in Bereichen wie:

  • Zunehmend virtualisierte Erwerbsumgebungen
  • Virtuelle Identitäten wie z.B. in social media
  • Nutzerorientiertes Identitätsmanagement
  • Energieinformations- und Energieversorgungssysteme (smart grids, smart metering)
  • Gesundheits- und Altersgerechte Assistenzsysteme

Wir fragen uns: Wie kann Privatheit in der E-Society gewahrt bleiben? Auf welche Weise sollten virtuelle Identitäten geschützt werden? Gesucht werden dafür Vorschläge, Konzepte und Lösungen für den Einsatz von Informationstechnologie, um Privatheit von physischer und virtueller Identität auf humane und gemeinwohlorientierte Weise in der E-Society zu gewährleisten.

Der Preis ist mit 10.000 Euro verbunden und kann auch auf mehrere, maximal drei Träger aufgeteilt werden. Damit lassen sich zwar keine Welten bewegen, aber zumindest Konzepte und Lösungen weiterverfolgen und -entwickeln. Was genau unter die Ausschreibung fällt, kann bei der Stiftung erfragt werden, dort auch mehr zu den Teilnahmemodalitäten.

Bei der letzten Runde unter dem Titel „Mehr Lebensqualität” wurden abgeordnetenwatch.de und das Informationsregister des Landes Bremen ausgezeichnet.

SAP darf Lizenzhandel nicht verbieten, Youtube-Konverter, Depublikationspflicht

Das Landgericht Hamburg urteilt für den Weiterverkauf von SAP-Lizenzen sowie gegen den Konverter youtube-mp3.org, Amazon haftet nach einem weiteren Urteil nicht für die Inhalte von E-Books. Außerdem im Wochenrückblick: Depublizierung, Datenschutz-Grundverordnung, Überwachungsaffäre und CETA-Abkommen.

Landgericht Hamburg kippt Weiterverkaufsverbot von SAP-Lizenzen

Das Softwareunternehmen SAP kann den Weiterverkauf gebrauchter Softwarelizenzen nicht AGB-rechtlich verbieten. Das hat das Landgericht Hamburg am Freitag entschieden (Az. 315 O 449/12). SAP stellt den Weiterverkauf gebrauchter Lizenzen in seinen AGB unter Zustimmungsvorbehalt. Dagegen wandte sich Gebrauchthändler Susensoftware vor dem Landgericht Hamburg. Mit Erfolg: Nach Ansicht des Landgericht Hamburg ist die Klausel mit der jüngeren EuGH-Rechtsprechung zum Erschöpfungsgrundsatz nicht vereinbar. Der Erschöpfungsgrundsatz besagt, dass die Weiterveräußerung von Vervielfältigungsstücken zulässig ist, die einmal in Verkehr gebracht wurden. Anders als etwa beim Weiterverkauf von Datenträgern wie DVDs und CDs war zuvor nicht klar, ob auch nichtkörperliche Programmkopien unter den Erschöpfungsgrundsatz fallen. Der EuGH hatte jedoch 2012 im Fall Usedsoft den Handel mit Gebrauchtlizenzen für zulässig erklärt.
Zur Meldung bei Telemedicus.
iRights.info: EuGH-Urteil zu Gebrauchtsoftware – Eine revolutionäre Entscheidung für die Informationsgesellschaft

Landgericht Hamburg: Youtube-MP3-Konverter rechtswidrig

Das Landgericht Hamburg hat den Betrieb des Youtube-Konverters „Youtube-MP3” untersagt. Das teilte der Bundesverband Musikindustrie (BVMI) mit. Von jedem Video, das Nutzer erstmalig luden, speicherte der Dienst die MP3-Datei ab – statt für jede Anfrage das MP3 live zu erstellen. Für künftige Nutzeranfragen musste „Youtube-MP3” nur noch den Download bereitstellen. Drei Plattenfirmen hatten Verstöße gegen Paragraf 16 und 19a Urheberrechtsgesetz moniert und Recht bekommen. BVMI-Geschäftsführer Drücke: „Unter dem Deckmantel der Privatkopie wird vorgegaukelt, alles gehe mit rechten Dingen zu, obwohl der Nutzer – ohne es zu wissen – defacto eine illegale Downloadplattform in Anspruch nimmt.”
Zur Meldung bei urheberrecht.org.
iRights.info: Youtube-MP3: Mitschneidedienste müssen bei der Technik aufpassen

Länder wollen die Pflicht zum Depublizieren abschaffen

Die öffentlich-rechtlichen Sendeanstalten sind seit dem Zwölften Rundfunkänderungsstaatsvertrag verpflichtet, Fernseh- und Hörfunksendungen in der Regel nach sieben Tagen aus den Mediatheken zu entfernen. Die Länder wollen diese Pflicht zum „Depublizieren” nun offenbar aufheben: „Wir würden gerne auf die Sieben-Tage-Frist verzichten”, sagte die rheinland-pfälzische Ministerpräsidentin Malu Dreyer (SPD), die die Medienpolitik der Länder koordiniert. Der Verband der Zeitungsverleger BDZV zeigte sich laut heise online entspannt. Dort sei es am wichtigsten, dass der öffentlich-rechtliche Rundfunk keine presseähnlichen Angebote unterhält. Von Beginn an stand die begrenzte Verweildauer öffentlich-rechtlicher Inhalte unter Kritik.
Zur Meldung bei heise online.

Urheberrecht: Amazon haftet nicht für die Inhalte von E-Books

Der Online-Versandhändler Amazon haftet nicht für Inhalte der dort verkauften E-Books. Das hat das Oberlandesgericht München entschieden. Ein E-Book sei insofern mit einem „normalen” Buch im Laden vergleichbar. Dort würde auch niemand gegen den Buchhändler vorgehen, der es vertreibt, so das Oberlandesgericht. Die Enkelin hielt als Erbin die Rechte an Werken ihres Großvaters Karl Valentin. Dieser hatte seinerzeit einen Sketch namens „Buchbinder Wanninger” erdacht. Ein E-Book auf Amazon enthielt Teile dieses Sketches. Dagegen ging die Erbin vor und mahnte Amazon ab. Der Verkaufsriese entfernte zwar das E-Book, gab jedoch keine Unterlassungserklärung ab, weswegen der Fall vor Gericht landete. Dieses entschied nun zugunsten Amazons.
Zur Meldung bei Spiegel Online.

LIBE-Ausschuss gibt grünes Licht für Datenschutzreform

Der LIBE-Ausschuss hat den Kompromissvorschlag für die Datenschutzgrundverordnung mit großer Mehrheit angenommen. Bereits letzte Woche zeichnete sich ein Vermittlungserfolg beim EU-Parlament in Sachen Datenschutzgrundverordnung ab. Der Ausschuss und insbesondere Berichterstatter Jan-Phillipp Albrecht hatten mehrere Tausend Änderungsanträge zu insgesamt 105 Kompromissvorschlägen zusammengefasst. Der Ausschuss erteilte gleichzeitig ein Mandat, auf eine erste Lesung im Parlament zu verzichten. Albrecht kann nun direkt mit dem „Trilog” mit EU-Rat und EU-Kommission beginnen. Man wolle das Vorhaben beschleunigen, um die Reform noch vor den Neuwahlen 2014 abzuschließen.
Zur Meldung bei heise online.

NSA-Roundup: Merkel-Handy, Swift-Abkommen, nationale Netze

Die NSA hat das Mobiltelefon von Bundeskanzlerin Merkel offenbar seit 2002 überwacht. Regierungssprecher Steffen Seibert bestätigte entsprechende Informationen des ARD-Hauptstadtstudios. Nachdem die deutsche Regierung sich zum NSA-Überwachungsskandal bislang eher bedeckt hielt, leitete CDU-Mann und Kanzleramtsminister Pofalla nun erneut Ermittlungen ein, nachdem er die NSA-Affäre bereits für beendet erklärt hatte. Außerdem wurde bekannt: Obama soll seit 2010 informiert gewesen sein; auch die US-Botschaft in Berlin war offenbar involviert.
Zum Bericht auf tagesschau.de.

Als Reaktion auf die NSA-Affäre fordert das EU-Parlament nun ein Aussetzen des Swift-Abkommens. Swift regelt den Austausch von Bankdaten mit den Amerikanern. Sozialdemokraten, Grüne und Liberale hatten gefordert, das Abkommen auszusetzen und damit die Übermittlung der Daten an die USA zu stoppen. Die Abstimmung hierzu wurde mit 280:254 Stimmen angenommen. Die Forderung ist allerdings nicht bindend.
Zum Bericht bei netzpolitik.org.

EU-Kommissarin Neelie Kroes ist gegen die Errichtung nationaler Netze. Nachdem kürzlich die Telekom ein rein innerdeutsches E-Mail-Netz vorschlug, um ausländischen Geheimdiensten das Ausspionieren von Daten erschweren, spricht sich Kroes im Spiegel nun dagegen aus: „Wir können den globalen Markt nicht erobern, wenn wir unsere Daten in nationalen Grenzen einsperren”, so Kroes.
Zum Bericht bei Spiegel Online.
Zur Chronik des gesamten NSA-Skandals auf tagesschau.de.

CETA: EU und Kanada einigen sich auf Freihandelsabkommen

Die EU und Kanada haben sich auf ein Freihandelsabkommen geeinigt. Es handele sich um „eine politische Einigung über die wichtigsten Punkte eines umfassenden Wirtschafts- und Handelsabkommens (Comprehensive Economic and Trade Agreement – CETA)”. Explizit regeln will man auch die Anerkennung von Urheber- und Markenrechten. Das entsprechende Kapitel lege insgesamt hohe Maßstäbe für den Schutz der Rechte des geistigen Eigentums fest. Man müsse nun die technischen Einzelheiten erörtern, um einen rechtsgültigen Text fertig zu stellen.
Zur Pressemitteilung der EU-Kommission.

Lizenz dieses Artikels: CC BY-NC-SA.

October 24 2013

Apple Mavericks: Der diskrete Zwang zur Cloud

Wer Apples neues Betriebsystem Mavericks installiert, hat vermutlich auch ein Konto in der iCloud, so dass eine kleine Änderung sich leicht übersehen lässt: Zwar werden Musik, Filme und alles andere weiter über iTunes verwaltet; Kontakte, Kalenderdaten und Mailkonten aber lassen sich nicht mehr lokal mit mobilen Geräten synchronisieren. Auch dafür ist nun nur noch iCloud zuständig – oder eben, wenn man will, Alternativdienste wie das Google-Adressbuch, der zugehörige Kalender oder eigene Server. Auf Googles Android-Plattform ging das ohnehin nie lokal. Nun hat Apple den lokalen „Sync Services”-Dienst abgeschafft.

Was auf den ersten Blick wenig bemerkenswert scheint, ist aus zwei Gründen dennoch: Es zeigt zum einen, wie Cloud-Dienste in immer mehr Bereichen zum Standard werden. Man gibt die Daten immer seltener bewusst „in die Cloud”, sie sind ohnehin schon dort – ohne dass man als Nutzer noch abwägen müsste, ob einem das behagt: Die Macht der Standardeinstellung sorgt dafür.

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Zum anderen zeigt sich auch hier: ein iCloud-Account wird ebenso wie das Amazon- oder Google-Konto zur Eintrittskarte in digitale Ökosysteme, die geschlossene Plattformen sind. Wäre die Metapher nicht so schief, könnte man von walled clouds sprechen, die sich aus den walled gardens der Webunternehmen entwickelt haben. Interoperabilität – also mit seinen Daten ohne größere Hindernisse umziehen zu können – ist so gut wie nie vorgesehen.

Das Bemerkenswerte daran: Es sind weniger die großen Änderungen, durch die sich die geschlossenen Plattformen herausbildet haben, sondern viele kleine, diskrete Schritte: Ein plattformgebundenes E-Book hier, ein Häkchen mehr, ein Feature weniger dort: zusammen ergibt das den Lock-in-Effekt. Wer im goldenen Käfig der iCloud sitzt, hat es bequem – solange er nicht wechseln will.

Dabei wäre für einen Blick aus dem Käfig Anlass genug: Welche Regeln für die Clouds gelten werden, für die wir hier und da schon die Häkchen gesetzt haben, wird gerade verhandelt: Bei der Datenschutz-Grundverordnung in Brüssel, für die nun die Verhandlungen mit dem Ministerrat bevorstehen. Ob die Verordnung bis auf Unternehmen wie Apple durchgreift oder neue Schlupflöcher entstehen, wird sich dann erst erweisen. Auch dort sollte man auf die unscheinbaren Änderungen achten.

Reposted bykrekk krekk

October 19 2013

Verschlüsselung: Forscher wollen Truecrypt unter die Lupe nehmen

Verschlüsselungsprogramme wie Truecrypt sind spätestens seit den Überwachungsenthüllungen um NSA & Co. für breitere Kreise interessant geworden – etwa, um sensible Daten bei Cloudspeicherdiensten zu schützen. Open-Source-Programme gelten dabei zugleich als letzte Hoffnung, denn nur hier kann überprüft werden, welche Verfahren dahinterstehen und ob der Programmcode manipuliert wurde. Wie die Snowden-Enthüllungen gezeigt haben, ist gerade die konkrete Umsetzung der Verschlüsselung entscheidend.

Allerdings: Jemand muss die Programme dann auch tatsächlich überprüfen. Matthew Green, Informatikprofessor an der Johns-Hopkins-Universität und sein Forscherkollege Kenneth White rufen daher zu einem Audit für Truecrypt auf und sammeln derzeit Geld über Crowdfunding. Auf IsTrueCryptAuditedYet.com fassen sie ihr Vorhaben zusammen.

Rechtliche und technische Prüfung

Mit dem geplanten Audit verbinden sie vier Ziele: Erstens soll die von Truecrypt verwendete Lizenz daraufhin geprüft werden, ob sie mit den bei freier Software gebräuchlichen Lizenzen wie der GPL kompatibel ist. Dann könnte das Programm etwa bei Linux-Systemen gleich mitgeliefert werden. Zweitens soll der Prozess verbessert werden, in dem aus dem Programmcode das ausführbare Programm erstellt wird. Das „Ubuntu Privacy Remix Team” hatte hier bereits auf mögliche Risiken hingewiesen.

Neben weiteren Fehlerbehebungen soll dann viertens die gesamte Codebasis einer Kryptoanalyse unterzogen werden, Green und White wollen Sicherheitsfirmen dafür gewinnen. Tatsächlich sind die eigentlichen Urheber von Truecrypt unbekannt, wie Green in einem Blogpost schreibt. Zugleich legt er Wert darauf, dass er lediglich mögliche Probleme aufzähle, die auch jedes andere Programm betreffen könnten:

Let me be clear: I am not implying anything like this. Not even a little. The ‘problem’ with Truecrypt is the same problem we have with any popular security software in the post-September–5 era: we don’t know what to trust anymore.

Wieviel von den Plänen letztlich umgesetzt wird, steht noch nicht fest; ein festes Crowdfunding-Ziel haben die Forscher nicht festgelegt. Aktuell haben sie bereits gut 41.000 Dollar gesammelt. Die Wahl sei auf Truecrypt gefallen, weil das Programm weit verbreitet sei und zu den wenigen Lösungen gehöre, die auch von durchschnittlichen Anwendern leicht bedient werden können.

August 21 2013

Github, die GPL und die Wirren der Open-Source-Lizenzen

Ein Großteil an Code wird von Entwicklern ohne Lizenz ins Netz gestellt, etwa bei Github. Das birgt bereits Probleme, doch dahinter steckt eine weitere Entwicklung: Auch Copyleft-Modelle wie das der GPL setzen ein starkes Urheberrecht voraus. Beides ist für viele Entwickler zu unflexibel und damit nicht mehr attraktiv, so Armin Ronacher.

Die General Public License (GNU GPL) war lange der Eckpfeiler der Open-Source-Bewegung – zumindest konnte man diesen Eindruck gewinnen. Bei genauerem Hinsehen bestand die Open-Source-Welt seit jeher aus vielen Lizenzen, die GNU GPL war nur ein kleiner Teil davon. Doch in den letzten Jahren ist immer deutlicher erkennbar, dass viele Entwickler aus verschiedenen Gründen einen offenen Hass für diese Lizenzen aufgebaut haben.

Erstaunlich ist, wie wenig heutzutage über die Lizenz diskutiert wird. Für mich ist das Thema durch Github wieder relevant geworden. Als Quelltext-Hoster ist Github momentan ein Zentrum der Open-Source-Bewegung, doch zugleich findet sich dort mehr zweckwidrig als zweckdienlich lizenzierte Software. Github hat versucht, das zu ändern und eine Lizenzauswahl eingeführt. Ich halte das für eine sehr schlechte Idee – besonders weil es das Thema GPL und alle Folgefragen wieder aufrollt.

Hier geht es daher um die Geschichte der Open-Source-Lizenzen, was sich zu verändern scheint – und darum, was wir tun können, um die Situation zu verbessern.

GPL: Was bisher passierte

Bevor die General Public License in der Version 3 (GPLv3) veröffentlicht wurde, war die GPLv2 die am weitesten verbreitete Copyleft-Lizenz. Copyleft und GNU GPL galten als eine Einheit. Die General Public License ist eine sehr restriktive Lizenz, da sie nicht lediglich eine handvoll Bedingungen festschreibt und den Rest erlaubt, sondern Rechte nach Art einer Whitelist aufführt. Aus diesem Grund wurde die Kompatibilität der GPL stets diskutiert. Bei der Frage der GPL-Kompatibilität geht es darum, eine Lizenz per Downgrade mit der GPL kompatibel zu machen. Bei den meisten Lizenzen war das möglich, aber einige Lizenzen enthalten Klauseln, die es unmöglich machen. Weit bekannt ist das Beispiel der Apache License 2.0, die durch zusätzliche Restriktionen für Patente als GPL-inkompatibel angesehen wurde, ähnlich einige Versionen der Mozilla Public License.

Als 2007 dann eine Version der GPL erarbeitet wurde, gewann die Frage der GPL-Kompatibilität ein weiteres Mal an Komplexität: Durch die Funktionsweise der GPL-Lizenzen sind verschiedene Versionen untereinander nicht kompatibel. Das ist nicht sonderlich überraschend. Sieht man sich aber an, wie das Ökosystem eigentlich funktionieren sollte und wie tatsächlich lizenziert wird, hat es enorme Auswirkungen.

Denn es gibt eine Menge Code, der je nach Betrachtungsweise entweder unter GPLv2 oder GPLv3 steht. Der Grund ist, dass Code bei GPL unter einer bestimmten Version oder „jeder späteren Version” (any later version) lizenziert werden kann. Und wie wird definiert, wie eine spätere Version aussieht? Durch die GPL selbst. Wenn ein Entwickler festlegt, dass für eine Software eine bestimmte Lizenzversion „oder jede spätere Version” gelten soll, haben Nachnutzer die Wahl: Sie können den Bedingungen der jeweiligen Version oder denen der späteren folgen.

Drei Lager in der GPL-Welt

Momentan gibt es daher drei Lager: Das erste, das bei der GPLv2 geblieben ist. Das zweite, das auf die GPLv3 hochgestuft hat. Und das dritte, in dem je nach Kontext entweder die GPLv2 oder GPLv3 genutzt wird. Ärger über die GPLv3 war am stärksten bei Linux und Busybox zu vernehmen: Beide entschieden, dass die einzig anwendbare Lizenz die GPLv2 ist. Auf der anderen Seite wurde ein Großteil des GNU-Codes vor ein paar Jahren auf GPLv3 überführt.

Das Ergebnis ist, dass GNU und Linux inzwischen in verschiedenen Welten leben. Ironischerweise steht „GNU/Linux” jetzt für einen Lizenzkonflikt. Da die meisten der GNU-Projekte unter der GPLv3 stehen und Linux immer bei GPLv2 bleiben wird, kann es kein Codesharing mehr zwischen diesen Projekten geben.

Das vermutlich größte Problem mit GPLv3 für Unternehmen ist ein Bestandteil der Lizenz, der als „Anti-Tivoisierung” bekannt ist. Ein zusätzlicher Abschnitt mit Bedingungen für den Fall, dass Software Teil eines Geräts im Consumer-Bereich wird. Im Kern wird gefordert, dass modifizierte Software auf einem unmodifizierten Gerät laufen muss. Die Lizenz verlangt, dass die Signaturschlüssel offengelegt sind und die Bedienungsanleitung Informationen darüber enthält, wie modifizierte Software installiert werden kann. Und es muss sichergestellt sein, dass modifizierte Software überhaupt auf dem Gerät läuft. Immerhin verlangt die Lizenz nicht, dass der Hersteller die Garantie dann aufrechterhalten muss.

Im Allgemeinen sind die Lizenzbedingungen damit ein großes Problem für Unternehmen. Apple zum Beispiel verkauft mit dem iPad und iPhone Geräte mit einem gesicherten Bootloader. Somit wäre es Apple unmöglich, den GPLv3-Bedingungen nachzukommen, ohne die Sicherheitssysteme komplett entfallen zu lassen. Es betrifft aber nicht nur Apple: In keinem Appstore wird man Software unter der GPLv3 finden. Die Lizenzbeschränkungen sind bei Googles Play Store und ähnlichen Vertriebssystemen ebenfalls inkompatibel zur GPLv3.

Die Anti-GPL-Bewegung

Neben diesen Entwicklungen in der GPL-Umwelt gibt es weitere. Nicht alle hatten vergleichbaren Einfluss, aber sie haben dazu geführt, dass die GPL von vielen Entwicklern in anderem Licht gesehen wird. Android und weitere Projekte versuchen mittlerweile, das ganze System der GPL loszuwerden. Android geht dabei sehr weit und bietet einen GPL-freien Userspace an. In den Lizenzinformationen wird im Grundsatz die Apache License 2.0 bevorzugt, ausgenommen davon sind etwa Kernelmodule.

Warum also gibt es plötzlich so viel Angst vor GPL? Zum Teil liegt es daran, dass GPL schon immer eine radikale Lizenz war, vor allem weil eine Rückübertragung der Rechte fehlt. Es gibt etwa eine Klausel, die als „GPLv2-Todesstrafe” bekannt ist. Sie besagt, dass jedem, der die Lizenzregeln verletzt, automatisch die Lizenz entzogen bleibt, solange nicht ausdrücklich eine neue vergeben wurde. Ohne verbindlichen Rechteinhaber aber hieße das, man müsste jeden, der am Code mitgewirkt hat, nach einer neuen Lizenz fragen.

Darüber hinaus ist mittlerweile deutlich geworden, dass einige sogar der Meinung sind, man könne der Free Software Foundation nicht trauen. Es gibt hier zwei Fraktionen: Erstens diejenigen, die an die Ideologie Richard Stallmans glauben; zweitens diejenigen, die die GPLv2 Lizenz in Ordnung finden, aber nicht mit der Richtung einverstanden sind, in die sie sich entwickelt. Linus Torvalds ist eindeutig ein Vertreter der letzteren Fraktion. Sie existiert, weil die Free Software Foundation stark in ihrer eigenen Welt gefangen ist, in der Cloud Computing Teufelszeug ist, Smartphones nichts anderes als Ortungsgeräte und Android etwas ist, dass durch die GPL verhindert werden muss. Es gibt GPL-Unterstützer, die nicht die aktuelle Sichtweise der Free Software Foundation unterstützen. Selbst einige GNU-Projekte widersprechen den Zielen von GNU und der Free Software Foundation. Das Projekt GnuTLS etwa hat sich im Dezember 2012 von GNU gelöst.

Code ohne Lizenz

Nach einer – nicht wissenschaftlichen – Untersuchung durch Aaron Williamson vom Software Freedom Law Center sind nur bei 15 Prozent aller Repositories Lizenzdateien enthalten; nur etwa 25 Prozent erwähnen die Lizenz in der Readme-Datei. Williamson untersuchte dafür 28 Prozent der ältesten Github-Repositories – nur ein Drittel aller Projekte hatte eine Copyleft-Lizenz. Von den lizenzierten Repositories stand die klare Mehrheit entweder unter MIT/BSD- oder Apache-2-Lizenz.

Das sind keine zufriedenstellenden Ergebnisse: Der Trend, Code ohne Lizenzerklärungen ins Netz zu stellen, ist bedenklich und wirft Fragen auf. Er zeigt aber weniger, dass Entwickler nichts von Lizenzen wissen als vielmehr, dass sie sie für unwichtig und vernachlässigbar erachten. Deshalb sehe ich Githubs neues Lizenzauswahl-Werkzeug als problematisch an. Beim Erstellen eines neuen Verzeichnisses erscheint jetzt ein Lizenzwahl-Dialog; nur ohne Erklärung, was die Lizenz bedeutet. „Apache v2 License”, „GPLv2” und „MIT” werden hervorgehoben. Zwei dieser Lizenzen aber – Apache und GPLv2 – sind nicht untereinander kompatibel.

Screenshot: Lizenzauswahl bei Github

Screenshot: Lizenzauswahl bei Github

Wenn aber Entwickler zuvor keine Zeit damit verbracht haben, eine Lizenz zum Repository hinzuzufügen, dann wird es jetzt dazu führen, dass sie nicht über die Konsequenzen ihrer Wahl nachdenken. Angesichts all der verschiedenen Versionen von GPL und den rechtlichen Implikationen, die mit ihnen einhergehen, fürchte ich, dass das neue Lizenzauswahl-Werkzeug die Lage nur schlechter machen wird.

Wirren der Lizenzkompatibilität

Wenn die GPL ins Spiel kommt, hört der Spaß beim Lizenzieren auf: Zu viele Dinge und Wechselwirkungen sind zu beachten. Bedenkt man die unterschiedlichen Interpretationen der Lizenz, wird es noch schlimmer.

Das aber ist nicht nur ein Problem der GPL: Auch die Apache-Softwarelizenz ist ein ziemlicher Brocken. Ich bin mir sicher, dass nicht jeder, der Code unter die Lizenz gestellt hat, die Implikationen kennt. Die MIT-Lizenz dagegen umfasst gerade einmal zwei Paragraphen und einen Gewährleistungs-Auschluss, doch hier sind die Wechselwirkungen mit verschiedenen Jurisdiktionen nicht jedem klar.

Die implizite Annahme ist, dass irgendwie amerikanisches Recht Anwendung findet, was nicht immer der Fall ist. Open-Source-Entwicklung ist international und nicht jedes Land ist gleich. Deutschland und Österreich etwa haben wenige Bestimmungen zum eigentlichen Urheberrecht und keine Mechanismen, um es zu übertragen. Stattdessen werden Nutzungsrechte übertragen, die der Rechteinhaber unterlizenzieren kann. Da das in den Lizenzerklärungen nicht vorkommt, frage ich mich manchmal, ob mir aus solchen Formalitäten noch einmal jemand einen Strick drehen kann.

Lizenzen für die Mashup-Generation

Ich glaube, zur Zeit passiert etwas Neues in meiner Generation. Und das ist vermutlich der wichtigste Grund, warum es mit der GPL bergab geht: Meine Generation will ein eingeschränkteres Urheberrecht als bisher und kürzere Schutzfristen. Interessanterweise möchte Richard Stallman genau das nicht. Ihm ist schmerzhaft bewusst, dass auch Copyleft auf Copyright basiert und daher nur mit einem starken Copyright im Rücken durchgesetzt werden kann.

Wer Software unter BSD- oder MIT-Lizenz stellt, den würde es vermutlich nicht stören, wenn das Urheberrecht abgeschafft oder stark eingeschränkt werden würde. Richard Stallmans Welt würde zusammenbrechen. Er meinte etwa, dass sich die Piratenpartei als Bumerang für die freie-Software-Bewegung herausstellen werde.

Die neue Generation aber hat eine veränderte Sichtweise auf sharing und auf Geld. Sie will das Teilen von Inhalten und Software einfach machen, aber gleichzeitig eine unabhängige Monetarisierung ermöglichen. Es ist die Generation, die Remixe bei Youtube hochlädt, die kommentierte Walkthroughs für Computerspiele erstellt und auf viele andere Weisen mit den Inhalten anderer zu arbeiten gelernt hat.

Ein Erste-Hilfe-Kasten für Lizenzen

Wir sollten darüber nachdenken, unsere Softwarelizenz-Umwelt zu vereinfachen – weil wir sonst nicht abschätzen können, was in ein paar Jahren auf uns zukommt. Die Implikationen von Softwarelizenzen zu verdeutlichen und Hilfe zu geben, um die für die jeweiligen Ziele geeignete Lizenz auszuwählen, das wäre ein interessantes Vorhaben. Dazu würden zum Beispiel Grafiken gehören, die auf Kompatibilitätsprobleme hinweisen; die klarmachen, wie sich fehlende Erklärungen von Mitwirkenden an Software auswirken; und was passiert, wenn Rechteinhaber sterben oder nicht mehr auffindbar sind.

Ich bin sicher, dass ein guter User-Experience-Designer es schaffen würde, die Lizenzgrundlagen in 10 Minuten einfach erfahrbar zu machen. Die Informationen müssten von einem Rechtsanwalt und Mitgliedern der Community kontrolliert werden, um die Folgen für das Ökosystem fundiert einzuschätzen. Im Moment glaube ich jedenfalls, dass die Lizenzauswahl bei Github eine sehr schlechte Lösung für das Problem ist, dass Code ohne Lizenz veröffentlicht wird. Womöglich ist sie sogar schädlich, solange die Auswirkungen der jeweiligen Lizenzen nicht klar sind.

Dieser Artikel ist eine gekürzte Fassung von Armin Ronachers Posting „Licensing in a Post Copyright World”. Übersetzung: Anne-Christin Mook. Lizenz: CC BY-NC-SA.

August 19 2013

Whatsapp: Wie riskant ist der Messagingdienst?

Beim Messagingdienst Whatsapp traten Datenschutzrisiken und Sicherheitsprobleme in der Vergangenheit gleich gehäuft auf. Dennoch legt der Dienst beständig an Nutzern zu. Trotz Nachbesserungen im Detail bleiben viele Fragen zum Dienst jedoch ungeklärt.

Immer wieder ist der populäre Mitteilungsdienst Whatsapp in den Schlagzeilen. Zuletzt führten massive Server-Ausfälle zu Verzögerungen beim Weitertransport von Nachrichten und Bildern. Ernster sind andere Meldungen: Ende Juli wurde bekannt, dass ein Angreifer über eine Sicherheitslücke auf Konten bei Paypal oder Google Wallet zugreifen können soll, weil Whatsapp die Daten nur teilweise verschlüsselt transportiere.

Nur wenige Tage davor sorgte eine Schadsoftware mit dem Namen „Piryanka“ für Ärger. Der Virus bahnt sich, getarnt als Kontaktaufnahme bei Whatsapp, den Weg auf Android-Geräte, wo er sich im Adressbuch einnistet und dort verbreitet. Die Nutzer hatten das vorher per scheinbar harmloser Bestätigung in Whatsapp zugelassen.

Schon im Frühjahr wiesen niederländische und kanadische Datenschützer auf eklatante Sicherheitslücken beim Anmeldeprozess hin: Diese Lücken machen es möglich, dass Dritte eine Whatsapp-Identität stehlen und missbrauchen können. Die Whatsapp-Macher reagierten weder darauf noch stellten sie ein Sicherheitsupdate zur Verfügung. Das befremdete viele Nutzer noch mehr. Einige Nutzer wanderten ab, Entwickler begannen, an Alternativdiensten zu arbeiten.

Whatsapp: Der Dienst im Überblick 

Mit Whatsapp können registrierte Nutzer über das Smartphone Nachrichten untereinander versenden. Dafür müssen sie nur den Nutzernamen oder die Telefonnummer des jeweils anderen Nutzers kennen. Das bedeutet: Man kann auch Unbekannten Whatsapp-Mitteilungen senden, denn ein Nutzer muss den Kontakt nicht bestätigen.

Die Whatsapp-Programme kommunizieren ausschließlich über eigene Server, in die sich das jeweilige Gerät per Mobilfunk- oder WLAN-Verbindung einwählt. Gruppennachrichten und Dateianhänge für Fotos oder Videos sowie Sprachnachrichten sind ebenfalls möglich. Die Gebühren für die Nutzung sind von Gerät und Betriebssystem abhängig. Android-Nutzer zahlen zwischen 67 und 90 Cent jährlich, iPhone-Nutzer 89 Cent für ein Jahr.

Zur großen Verbreitung dürfte beigetragen haben, dass der Dienst auf fast allen gängigen Systemen –  ob Smartphone oder Desktop-Rechner – erhältlich ist und nur wenige Schritte und Angaben beim Registrieren erfordert. Nach Angaben von Whatsapp haben sich weltweit mehr als 300 Millionen Nutzer registriert, in Deutschland sollen es etwa 20 Millionen sein. Einer Studie der Jugendmesse You zufolge sollen 36 Prozent der deutschen Jugendlichen den Dienst benutzen. Demnach hat der Dienst für Jugendliche zudem größere Bedeutung für den Nachrichtenaustausch als Facebook oder SMS.

Wie hält es Whatsapp mit Datenschutz und Datensicherheit?

Als Problem betrachten Kritiker, dass der Dienst regelmäßig alle Adressbuchdaten an die Whatsapp-Server in den USA übermittelt – zumindest, wenn Nutzer das nicht per Voreinstellung blockieren, was aber nur bei einigen Versionen möglich ist. Trotz der Kritik rückte Whatsapp von dieser Praxis bisher nicht ab.

Probleme mit der Datensicherheit sind beim Anmeldeprozess bekannt. Um zu überprüfen, ob sich wirklich der registrierte Nutzer und nicht ein Dritter einwählt, verknüpfte der Dienst in einer früheren Version die Logindaten lediglich mit der Gerätenummer des Telefons, wie im Frühjahr kanadische und niederländische Datenschutzbehörden herausfanden. Diese Nummer wird beispielsweise verwendet, wenn sich ein Gerät in einem WLAN-Netzwerk anmeldet. Der Administrator eines WLAN-Routers kann diese Nummer sehen. Auf diesem Weg sei es ein leichtes, eine Whatsapp-Identität anzunehmen, um beispielsweise Spam- oder Phishing-Mitteilungen zu versenden oder Passwörter einzusammeln. Dieses Problem hatte offenbar kaum Konsequenzen.

Was sagen die Nutzungsbestimmungen?

Zunächst fällt auf, dass die Nutzungsbestimmungen (Terms of Service) ebenso wie die Datenschutz-Erklärung (Privacy Notice) nur auf Englisch vorliegen. Zwar hat das Unternehmen keine Niederlassung in Deutschland und seinen einzigen Sitz in Kalifornien. Das Unternehmen spricht seine Kunden im deutschsprachigen Raum allerdings auf Deutsch an. Liegen AGB aber nur auf Englisch vor, könnten sie unwirksam sein. Das könnte für Whatsapp noch zu einem Problem werden. Ob man sich als Nutzer im Zweifel auf diese Sichtweise berufen kann, ist aber nicht sicher.

Die Bestimmungen erläutern auch, dass der Dienst auf das Adressbuch des Nutzers zugreift. Doch sie versichern, dass auf den Whatsapp-Servern nur die Telefonnummern und Nutzernamen gespeichert würden, nicht aber die tatsächlichen Namen, E-Mail-Adressen oder andere Kontaktinformationen. Um einen Kontakt anzuzeigen, werde dessen Nutzername aus der Kontaktliste auf dem Gerät des Nutzers ausgelesen. Das wäre kein Grund zur Beunruhigung, sondern üblich für derartige Apps.

Desweiteren heißt es in den Bestimmungen, dass der Dienst werbefrei sei. Das Unternehmen Whatsapp selbst nimmt für sich in Anspruch, alle persönlich identifizierbaren Informationen zur „Analyse, Weiterentwicklung und Eigenwerbung“ zu verwenden. Das Recht dafür sollen die Nutzer dem Dienstebetreiber in dem Moment einräumen, in dem sie den Dienst nutzen, um Nachrichten zu versenden. Nutzer unterwerfen sich den Gesetzgebungen des USA-Bundesstaates Kalifornien, heißt es in den Bedingungen weiter. Die Textbotschaften der Nutzer werden nach eigenen Angaben von den Servern des Unternehmens gelöscht, sobald sie zugestellt wurden. Andernfalls würden sie maximal 30 Tage gespeichert, Anhänge etwas länger.

Außerdem fällt auf: Auf Änderungen in den Datenschutzerklärungen werden die Nutzer nicht explizit hingewiesen. Sie müssen also von sich aus etwaige Neuerungen erkunden. Das wirft ein schlechtes Licht auf das Unternehmen. Die letzten Änderungen der Nutzungsbedingungen gab es im Juli 2012. Auch das verwundert: Angesichts der zahlreichen Kritikpunkte, die seitdem öffentlich wurden, könnte man als Nutzer eigentlich Nachbesserungen erwarten.

Whatsapp hat nachgebessert, aber nur teilweise

Gleichwohl tat sich etwas bei Whatsapp: Seit Frühjahr 2013 gab es eine Reihe von Updates, die den Verifizierungs-Prozess sowie Preise und Vertragslaufzeiten änderten. Die Version für Apples iOS verschwand für einige Tage aus dem Appstore und tauchte kommentarlos etwas später wieder auf, kurz nachdem die Lücke über die Gerätenummer bekannt wurde. Das sahen viele als Indiz für dezente Änderungen im Hintergrund.

Seit der Version 2.8.3 wird die Datenübermittlung via WLAN nun verschlüsselt, was das bis dahin mögliche Mitlesen unterbinden soll. Beim Registrieren versendet der Dienst nun eine SMS mit einem Bestätigungscode, den der Nutzer eingeben muss. Ein Angreifer müsste dann Zugriff auf das Mobilgerät des Opfers haben, um dessen Whatsapp-Identität zu entführen. Auch die zuvor stets aktivierte Übermittlung von Meldungen über den Online-Status und dessen Dauer lassen sich bei manchen Versionen nun von Hand einstellen oder blockieren.

Der Wurm „Piryanka“ und der mögliche Zugriff auf Paypal-Konten sind allerdings erst kürzlich aufgedeckt worden, stellen also auch bei den neuen Versionen eine Gefahr dar. Der Zugriff auf das Telefonbuch des Nutzers ist nach wie vor fest eingebaut und lässt sich zumindest bei Android-Geräten nicht unterbinden. Immerhin können das die Nutzer der iOS-Version über eine systemseitige Einstellung beeinflussen. Für Nutzer, die Wert auf Schutz ihrer persönlichen Daten legen, scheint der Dienst weiterhin nicht vertrauenswürdig genug, auch wenn sich manches mittlerweile durch individuelle Einstellungen regeln lässt.

Bewegung bei Messaging-Diensten

Wer Whatsapp benutzt, dem sollte klar sein, dass dieser Dienst einen vergleichsweise freizügigen Umgang mit den Daten seiner Nutzer pflegt. Das wird etwa an der Freigabe des Adressbuchs deutlich. Wem das nicht behagt, wird sich wohl nach Alternativen umsehen. Bei Messaging-Diensten bewegt sich in letzter Zeit ohnehin einiges. Dienste wie etwa Threema versprechen verschlüsselte Kommunikation auch für Kurznachrichten, viele weitere Projekte sind in Entwicklung: Der Dienst Hemlis des Flattr-Gründers Peter Sunde etwa oder auch whistle.im versprechen ebenfalls, es mit Datenschutz und Datensicherheit ernster zu nehmen. Abzuwarten bleibt aber, ob das auch eingelöst wird.

July 22 2013

UsedSoft, Online-Spiele, Prism

Der Bundesgerichtshof erachtet den Handel mit gebrauchten Software-Lizenzen für zulässig, verbietet Werbung für Kinder in einem Online-Rollenspiel und sieht in einem Kostüm keine Urheberrechts-Verletzung an der Figur Pippi Langstrumpf. Des Weiteren im Wochenrückblick: Das Arbeitsgericht Frankfurt äußert sich zur Länge von WLAN-Passwörtern, Bundeskanzlerin Merkel zu Prism und das Verteidigungsministerium verklagt die WAZ auf Urheberrechtsverletzung.

BGH entscheidet erneut im Streit um UsedSoft

Der Bundesgerichtshof hat vergangene Woche erneut im Streit um den Gebrauchtsoftwarehänder UsedSoft entschieden (Az. I ZR 129/08). Im Juli 2012 hatte der Europäische Gerichtshof auf eine Vorlage des BGH den Handel mit gebrauchten Software-Lizenzen unter bestimmten Voraussetzungen für zulässig erachtet. Unter anderem muss sichergestellt sein, dass die weiterverkaufte Software beim Ersterwerber nicht weiter benutzt wird. Außerdem ist der Weiterverkauf von Lizenzen nur dann zulässig, wenn diese zeitlich unbefristet gelten. Ob dies der Fall ist, muss nun das OLG München feststellen, an das der BGH den Streit zurückverwiesen hat.
Vorgeschichte und Hintergründe der Entscheidung.
Zur Pressemeldung des BGH.

BGH verbietet Werbung für Kinder in Online-Spiel

Werbeanzeigen in Online-Rollenspielen, die den Nutzer duzen und eine Bestellmöglichkeit per SMS anpreisen, richten sich gezielt an Kinder und sind in diesem Kontext unzulässig. Das hat der BGH vergangene Woche entschieden (Az. I ZR 34/12). Hintergrund des Streits war das Online-Spiel „Rules of Magic” des Softwareunternehmens Gameforge. Das Spiel funktioniert nach dem Free-to-play-Modell. Die Teilnahme am Spiel ist also kostenlos, es können aber kostenpflichtige Zusatzfeatures und virtuelle Gegenstände erworben werden. Für diese schaltete Gameforge Werbung. In den Anzeigen wurde der User geduzt, die virtuellen Güter konnten per SMS bezahlt werden. Der Verbraucherzentrale Bundesverband sah darin eine Ausnutzung der Unerfahrenheit von Kindern. Zu recht, wie der BGH nun entschied. Das Urteil ist noch nicht im Volltext veröffentlicht.
Zum Bericht bei Legal Tribune Online.

BGH zum urheberrechtlichen Schutz von Pipi Langstrumpf

Ein Karnevalskostüm von Pipi Langstrumpf verletzt nicht die Urheberrechte von Astrid Lindgren. Das hat der BGH vergangene Woche entschieden (Az. I ZR 52/12). Im Streit ging es um ein Kostüm, das von einer Supermarktkette beworben wurde. Auf den Fotos wurden ein Mädchen und eine junge Frau mit roter Perücke mit abstehenden Zöpfen, einem T-Shirt sowie Strümpfen mit rotem und grünem Ringelmuster abgebildet. Die Inhaberin der Rechte von Astrid Lindgren klagte gegen diese Werbung. Der BGH sah jedoch keine Verletzung der Urheberrechte: Zwar sei die literarische Figur Pipi Langstrumpf urheberrechtlich geschützt. Das Kostüm übernehme jedoch nur einige charakteristische Merkmale der Figur. Die Figur Pipi Langstrumpf zeichne sich aber nicht nur durch diese Äußerlichkeiten, sondern durch die Gesamtheit ihrer Darstellung inklusive der Charakterzüge aus. Für eine Urheberrechtsverletzung reiche die Nachbildung durch das Kostüm nicht aus. Ob darüber hinaus wettbewerbsrechtliche Ansprüche in Betracht kommen, muss nun das OLG Köln erneut prüfen.
Zur Pressemeldung des BGH.

AG Frankfurt zur Sicherheit von Standardpasswort bei WLAN-Router

Was muss ein Nutzer tun, um sein privates WLAN abzusichern? Mit dieser Frage hatte sich das AG Frankfurt Mitte Juni zu befassen (Az. 30 C 3078/12 (75)), wie vergangene Woche bekannt wurde. Das Gericht kam dabei zu dem Schluss: Ein personalisiertes Standardpasswort genügt, um ein WLAN ausreichend abzusichern. Hintergrund: Viele Router-Hersteller liefern ihre Geräte mit einem Standardpasswort aus, das für jedes Gerät individuell vergeben wird. Der BGH hatte ein solches werksseitiges Passwort in seiner Entscheidung „Sommer unseres Lebens” im Jahr 2010 noch für unzureichend erachtet. Anders argumentiert das AG Frankfurt: Ein vom Nutzer vergebenes Passwort sei normalerweise nicht stärker als ein 13-stelliges, werksseitig und individualisiert vergebenes Passwort.
Das Urteil im Volltext bei retosphere.de
Eine Besprechung des Urteils bei Thomas Stadler.

Bundeskanzlerin Merkel äußert sich zu PRISM

In ihrer letzten Pressekonferenz vor dem Sommerurlaub hat sich Bundeskanzlerin Merkel zu dem umstrittenen amerikanischen Abhörprogramm PRISM geäußert. Eine abschließende Beurteilung wollte Merkel jedoch noch nicht abgeben. Zwar stellte Merkel klar, „dass auf deutschem Boden deutsches Recht gelten” müsse. Der Zweck heilige nicht die Mittel und nicht alles, was technisch machbar ist, dürfe auch gemacht werden. Die Aufklärung sei aber noch nicht abgeschlossen und die Kanzlerin wolle zunächst „lieber abwarten”. Konkret stellte sie einen Acht-Punkte-Plan in Aussicht, der unter anderem weitere Aufklärungsgespräche mit den USA, die Entwicklung gemeinsamer Geheimdienststandards, einen runden Tisch zur IT-Strategie und verstärkte Aufklärung der Bürger umfasst. Unterdessen hat Innenminister Friedrich die Bürger zu mehr Datenschutz aufgerufen: Die Bürger müssten selbst mehr für die Sicherheit ihrer Daten tun. Die technischen Möglichkeiten zur Ausspähung existierten nun einmal, deshalb würden sie auch genutzt. Wie nunmehr der Spiegel berichtet, sollen auch deutsche Nachrichtendienste eine Software der NSA einsetzen.
heute.de zur Pressekonferenz von Angela Merkel.
Zum Artikel bei Spiegel Online zu den Äußerungen von Bundesinnenminister Friedrich.

Bundesverteidigungsministerium klagt gegen WAZ

Das Bundesverteidigungsministerium hat gegen die WAZ Klage vor dem Landgericht Köln eingereicht. Grund ist die Veröffentlichung von Dokumenten zum Afghanistan-Einsatz der Bundeswehr. Die WAZ hatte diese „Unterrichtungen des Parlamentes“, die als Verschlusssache eingeordnet sind, im November 2012 im Internet veröffentlicht. Im April 2013 hatte das Bundesverteidigungsministerium die WAZ-Mediengruppe aufgefordert, die internen Papiere aus dem Netz zu entfernen. Begründung: Die WAZ verstoße mit der Veröffentlichung gegen das Urheberrecht.
Zum Bericht im WAZ Recherche-Blog.
Vorgeschichte und rechtliche Hintergründen der Klage.

Lizenz dieses Artikels: CC BY-NC-SA.

July 05 2013

Open-Source-Konsole OUYA: Keine Revolution, aber Trainingslager für Entwickler

Die Spielekonsole OUYA wurde per Crowdfunding ins Leben gerufen und folgt einem Open-Source-Ansatz. Jeder kann Spiele für die Plattform entwickeln. Den Games-Markt wird sie nicht revolutionieren. Dennoch könnte sie neue Impulse setzen, von denen vor allem die etablierten Entwicklerstudios profitieren dürften.

Die Idee hinter der OUYA klingt äußerst vielversprechend: Eine Open-Source-Spielkonsole auf Android-Basis, die jedem Hobby-Entwickler die Möglichkeit gibt, Spiele zu programmieren und zu veröffentlichen. Lizenzgebühren gibt es nicht – alles, was man zum Entwickeln braucht, steckt in der Konsole selbst.

Hat man ein Spiel fertig entwickelt, lädt man es hoch. Nachdem es von den OUYA-Machern begutachtet und freigegeben wurde, kommt es in den Verkauf: Zunächst in die „Sand Box“, also die Grabbelkiste. Je mehr positives Feedback das Spiel bekommt, desto prominenter erscheint es dann im zugehörigen Onlinestore. Keine Frage: Es war noch nie so leicht für einen Entwickler, ein Spiel an die Spieler zu bringen.

Auch für viele Gamer erscheint die OUYA interessant: Der „Free to play“ genannte Ansatz gibt ihnen die Möglichkeit, sämtliche Spiele erst zu testen, bevor sie sich für oder gegen den Kauf entscheiden. Dazu kommt der niedrige Kaufpreis von 99 Dollar. Im Vergleich zu den vier- bis fünfmal so teuren Modellen von Microsoft und Sony ist das ein Schnäppchen, 119 Euro werden in Europa angepeilt. Entsprechend groß waren die Unterstützerzahlen, als es darum ging, die Konsole per Crowdfunding zu finanzieren, ebenso die Absatzzahlen direkt nach dem US-Verkaufsstart Ende Juni.

Die drei Probleme der OUYA

Doch so ganz geht die Rechnung nicht auf. Spätestens mit dem Verkaufsstart sind auch die Probleme zu Tage getreten, mit denen sich die OUYA konfrontiert sieht:

Die Hardware: Zwar konnte niemand ernsthaft erwarten, dass die OUYA den Branchenriesen Sony, Microsoft und Nintendo Konkurrenz machen würde. Aber ein wenig enttäuscht das Gebotene – bei aller optischen Eleganz – dann doch: Grafikchip, Arbeitsspeicher und Controller sind anständig, aber eben nicht mehr – so auch das bisherige Presseecho, etwa im Test bei golem.de.

Die Software: Einige bekannte Namen der Indie-Game-Szene sind auf der Plattform vetreten, der Löwenanteil der Spiele aber kommt von Kleinst-Studios oder Einzelpersonen. Es kann eben jeder für die OUYA programmieren. Doch nur weil man etwas kann, heißt das noch nicht, dass man es auch kann. Es steht zu befürchten, dass für jedes wirklich gelungene Spiel fünf halbfertige Fingerübungen und noch einmal so viele generische Klone eines altbekannten Spiels erscheinen werden. Die Suche nach den – auch jetzt schon durchaus vorhandenen – Perlen wird so äußerst mühsam, zumal ein wirklich verlässliches Bewertungssystem bislang fehlt. Die großen Studios zeigen bislang ohnehin nur wenig Interesse, Spiele für die OUYA zu veröffentlichen. Für sie fehlt der Nutzen, wenn sich auch die 15- bis 20 Mal teureren Varianten für die Xbox oder Playstation bestens verkaufen.

Die Zielgruppe: Für wen die OUYA sein soll, weiß wohl niemand so richtig. Hardcore-Gamer werden jedenfalls im Moment mit der OUYA wenig Freude haben. Die etwas mehr als 200 Spiele, die momentan angeboten werden, sind mehrheitlich charmante, aber eben auch schnell erschlossene kleinen Spielchen für zwischendurch. Echte erzählerische oder spielerische Tiefe findet sich hier bislang kaum. Das könnte sich irgendwann ändern, aber eine Garantie dafür gibt es nicht. Und für den klassischen Party-Spieler fehlen bei vielen der Spiele schlicht die Schauwerte: Zu simpel und altbacken sehen die meisten aus.

Entwickler-Spielwiese und Revival-Faktor

Bleiben die Entwickler. Die können sich auf der OUYA tatsächlich austoben. Doch ob die schlichte Zahl der hoffnungsvollen Jungprogrammierer ausreicht, um OUYA auch als Marke zu etablieren, ist fraglich. Und auch die werden im Moment noch alles andere als reich mit ihren Spielen: In den OUYA-Foren wird erfrischend offen darüber diskutiert, warum bislang noch so wenige Spiele heruntergeladen, geschweige denn gekauft wurden.

Das Problem liegt womöglich ebenfalls im „Free-to-Play“-Ansatz: Spiele mit Demo-Version verkaufen sich nur etwa halb so oft wie diejenigen ohne, so zumindest Studien der großen Spieleentwickler. Und auf der OUYA ist eben jedes Spiel umsonst anspielbar. Käufe auf Verdacht fallen somit weg. Die OUYA-Verantwortlichen werden nicht umhin kommen, sich ihre Nische im großen Spielemarkt zu suchen.

Eine Chance könnte beispielsweise im „Revival-Faktor“ liegen: Da die Grafikleistung ohnehin nicht an die der aktuellen – geschweige denn der nächsten – Konsolengeneration herankommt und die meisten Spiele optisch wie spielerisch eher unambitioniert daher kommen, wäre es naheliegend, alte Klassiker zu portieren und preisgünstig anzubieten. So könnte sich die OUYA einen Ruf als Retro-Konsole aufbauen. Mit „Final Fantasy III“ von Square Enix und „The Bard’s Tale“ von Electronic Arts ist immerhin ein Anfang gemacht. Auch SEGAs rasender Igel „Sonic“ findet sich auf der OUYA. Verhandlungen mit weiteren Publishern sollen angeblich bereits laufen.


Nische Retrogames: Hier zu sehen das Projekt „8bit Ninjas” des Entwicklers Ethan Redd

Was die OUYA-Plattform durchaus werden könnte, ist ein Trainingslager für Nachwuchs-Programmierer – und letzten Endes auch deren Sprungbrett. Die etablierten Entwickler-Studios werden genau hinschauen, was sich auf dem OUYA-Markt tut: Für sie ist er das perfekte Schaufenster für neue Ideen und Talente. Davon hätten dann wiederum auch die Gamer etwas: Viele Spiele, die sonst vielleicht nie das Licht der Welt erblickt hätten, könnten so ihren Weg auf den Bildschirm finden – allerdings nicht über die OUYA, sondern am Ende doch über die Laufwerke von Playstation und Xbox.

Dem kleinen, silbern-schwarzen Würfel OUYA könnte ein höchst undankbares Los blühen: Das eines Misserfolges, von dem dennoch alle anderen profitieren.

Christoph von Guaita, Jahrgang 1973, arbeitet als Journalist zu Computer- und Videospielen und als freier Mitarbeiter für RBB, MDR, SWR, Deutschlandradio und ARD.

April 18 2013

Geheimnisvolle Sitzung im Bundestag zum Export von Überwachungstechnologie

Am Mittwoch fand im Bundestag eine Anhörung statt, in der die Bundesregierung unter Tagesordnungspunkt 1 über „aktuelle abrüstungspolitische Entwicklungen”, unter Tagesordnungspunkt 2 über den Export deutscher Überwachungssoftware berichtete. Viel mehr als die Tagesordnung (PDF) im Unterausschusses „Abrüstung, Rüstungskontrolle und Nichtverbreitung” war nicht öffentlich, auch Abgeordnete konnten „nur mit Sicherheitsüberprüfung” teilnehmen. 

Zum anschließenden Gespräch war Christian Mihr, Geschäftsführer von Reporter ohne Grenzen geladen. Wir dokumentieren hier die schriftliche Stellungnahme von Reporter ohne Grenzen zur Sitzung. Darin heißt es:

Deutsche Überwachungssoftware und -infrastruktur werden in die ganze Welt exportiert, darunter auch in Staaten mit einem zweifelhaften Ruf in Bezug auf Pressefreiheit und andere Menschenrechte. IT-basierte Überwachungstechnologie kann Festplatten von Computern durchsuchen, verschlüsselte E-Mails mitlesen sowie Kamera und Mikrofon eines Computers oder eines Handys aus der Ferne aktivieren.

(…)

Eine zielgenaue Regulierung der Exporte ist dringend angebracht und kann ohne negative Auswirkungen auf freie Meinungsäußerung umgesetzt werden. Auch die Verfügbarkeit von Software, etwa zur Umgehung von Zensur, für Endanwender und Firmen wird nicht beeinträchtigt.

Die Bundesregierung bleibe untätig, den Export von Überwachungstechnologie zu kontrollieren:

Nach deutschem Recht wäre eine Aufnahme von Überwachungsinfrastruktur in die Anlage AL zur Außenwirtschaftsverordnung ein denkbares Kontrollinstrument. Darüber hinaus sollte die Bundesregierung unverzüglich klarstellen, ob und in welchem Ausmaß in der Vergangenheit Hermes-Exportbürgschaften für die Lieferung von Überwachungstechnologie vergeben wurden.

(…)

Die umfassendste, aus Sicht von Reporter ohne Grenzen beste, Lösung wäre eine Integration von Überwachungstechnologie in das Wassenaar-Abkommen für Exportkontrolle. Verschiedenen Quellen zufolge liegen bereits verhandelte und abgestimmte Texte vor, die einen Einschluss von Überwachungstechnologie ermöglichen würden. Diese Texte könnte die Bundesregierung kurzfristig implementieren, um so Druck auf die internationalen Partner auszuüben.

Hier die gesamte Stellungnahme als PDF.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl