Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

January 28 2014

Kann man mit dem Urheberrecht noch Geld verdienen?

Wie sollen kreative Werke geschützt werden – und wem nützt dieser Schutz? Das Urheberrecht spielt dabei als Regelungsinstrument eine zentrale Rolle. Für die Linzer Designerin Magdalena Reiter hat es allerdings als Einkommensquelle ausgedient.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Die Debatte rund um die Neugestaltung des *Urheberrechts* wird unter interessierten Kreativen heiß diskutiert. Sie kann sich dabei schnell im Kreis drehen, wenn man nicht einen größeren Bogen spannt und die viel weitreichendere, globale Diskussion rund um eine klar zu formulierende, aber schwer zu beantwortende Frage mitbedenkt: Wie wollen wir als Gesellschaft das Internet und die darin geltenden Spielregeln gestalten?

Offenheit und Schutz von Informationen in ein adäquates Maß zu bringen, ist bei der Beantwortung dieser Frage eine wichtige politische, soziale, aber auch ökonomische Aufgabe geworden, der wir die anstehenden Jahre und vielleicht Jahrzehnte widmen müssen. Eine zivilgesellschaftliche Tendenz ist dabei erkennbar: Personenbezogene Daten sind am besten by default gut geschützt, während Daten, die öffentlich getragen oder von der Öffentlichkeit bezahlt werden, dieser auch frei zur Verfügung stehen sollten.

Anders aber verhält es sich mit Daten, die die Privatwirtschaft generiert – die Perspektive ist unklar. Deswegen ist genau hier auch einer der größten Streitpunkte hinsichtlich des Urheberrechts angesiedelt: Die einen möchten eine restriktivere Durchsetzung, um ihre Inhalte besser verwerten zu können. Die anderen plädieren für eine Lockerung, um den heutigen Bedingungen zeitgemäß gerecht zu werden.

Prinzipiell verspricht das Urheberrecht den Rechteinhabern, dass sie für eine Zeit lang die Verwendungs- und Verwertungsrechte exklusiv innehaben. Es macht so temporäre Monopole in wirtschaftlicher Hinsicht möglich. Das wiederum soll gewährleisten, bereits entstandene Arbeit abzugelten, und die Einnahmen in weitere Entwicklungen investieren zu können. Hinsichtlich der wirtschaftlich prekären Situation, in der die Mehrheit der Kreativen steckt, ist eine Sicherstellung von Einnahmequellen ein notwendiges Bestreben. Doch die Rechnung geht nicht so einfach auf: „Urheberrechtsmärkte sind ‘Winner takes all’-Märkte[1],“ so der Kulturökonom Paul Stepan (PDF),„die zu einer sehr ungleichen Einkommensverteilung führen. Wenige Spitzenverdiener und noch weniger Spitzenverdienerinnen stehen einer breiten Masse aus wenig bis nichts Verdienenden gegenüber.“

Kreative haben es doppelt schwer mit dem Recht

Jene Kreative, die aus ihren Ideen verkaufbare Produkte produzieren, Start-ups gründen, oder die Nutzungsrechte ihrer Werke verkaufen können, haben es in doppelter Hinsicht nicht einfach mit dem gängigen Recht. Denn im Fall einer Verletzung des Urheberrechts sind es gerade Einzelpersonen und kleine Unternehmen, die es schwer haben, ihre Rechte – vor allem gegenüber den Großen – durchzusetzen.

Zudem wird momentan auf EU-Ebene diskutiert, die Netzneutralität, wie wir sie kennen, zu beschneiden. Das wiederum hieße, dass es zukünftig erlaubt sein könnte, Exklusivrechte von Internetprovidern käuflich zu erwerben. Solche Szenarien können unterschiedlich ausschauen: Die Internetgeschwindigkeit könnte auf gewissen Seiten erhöht oder gedrosselt werden. Zugangspakete zu großen Diensten wie Facebook oder Netflix könnten angeboten werden, die einen Zugang zu Blogs oder kleinen Websites – ja gar dem Rest des Internets – nicht beinhalten. Auch hier wird eines deutlich: Die bereits Erfolgreichen, die für solche Vorteile bezahlen können, haben eine deutlich höhere Chance, noch erfolgreicher zu werden, während es Nischenmärkte, kleine und neue Unternehmen noch schwieriger haben werden, ihre Inhalte und Produkte weiterzugeben, geschweige denn zu verkaufen.

Um es auf den Punkt zu bringen: Es sind die großen Player und wenige kreative Sternchen, denen gewisse Rechtslagen inklusive dem Urheberrecht monetär in die Hände spielen. In der Praxis zeigt sich also: Das Urheberrecht ist kein gutes Werkzeug zum auskömmlichen Wirtschaften.

Warum plädieren Kreative für ein restriktiveres Urheberrecht?

Kreative spüren diese Entwicklungen schon heute deutlich, obwohl sie zukünftig noch drastischer ausfallen könnten. Dennoch werden nicht selten diese negativen Konsequenzen auf das Internet geschoben, in dem (Urheber-)Recht und Gesetz nicht gelten soll. Wenn aber nur wenige vom Schutz ihres geistigen Eigentums profitieren können, warum sollte die große Masse an Kreativen für ein noch restriktiveres Urheberrecht plädieren?

Was auf den ersten Blick vielleicht paradox klingt, wird darum für immer mehr Kreative zur alltäglichen Methode: Damit sie unter fairen Bedingungen arbeiten können, geben sie einen Teil ihrer exklusiven Rechte auf, um den Pool an Wissen und Informationen zu vergrößern[2], die im Internet ohne gesetzlichen Grauschleier zirkulieren dürfen. Es sind meist die selben, die es schätzen, wenn ihre Inhalte geteilt und auf vielen unterschiedlichen Blogs und Websites gefunden werden können. Das hilft ihnen, Bekanntheit zu erlangen. Das mag momentan noch einige erfolgreiche KünstlerInnen hervorbringen, doch auch das Ringen um Aufmerksamkeit ist früher oder später ein harter Kampf für Kreative.

Langfristig müssen deswegen Einkommensquellen anders gesichert werden: Kreative Dienstleistungen müssen fair bezahlt werden. Eine solche Wertschätzung muss sich in Kollektivverträgen und Mindestlöhnen widerspiegeln. Zudem ist es notwendig, dass es weiterhin und vermehrt staatliche Förderungen gibt für lokale und zeitgenössische Kunst und Kultur, die nicht den Anspruch hat, verwertbar zu sein. Und schließlich müssen kulturelle Diversität gefördert und Monopolbildung gebremst werden – möglich ist das durch eine Lockerung des Urheberrechts.

[1] Rosen, Sherwin, The Economics of Superstars, in: The American Economic Review 71/5 (1981) 848-858

[2] An dieser Stelle empfehle ich den Vortrag von Leonhard Dobusch zur Kampage Recht auf Remix, den er anlässlich des 30c3 vor wenigen Wochen gehalten hat.

Magdalena Reiter arbeitet als Designerin. Ihr theoretischer Schwerpunkt liegt auf Open Design. Dazu bloggt sie auf MAKE DESIGN OPEN. Mit diesem Hintergrund arbeitet sie zudem für die CREATIVE REGION Linz & Upper Austria, die OPEN COMMONS_LINZ und in der Open Knowledge Foundation Austria.

January 11 2014

Storytelling im Netz: Das Jahr eins nach Snow Fall

Für Geschichtenerzähler begann das Jahr bereits am 20. Dezember 2012 in den USA: An diesem Tag stellte die New York Times „Snow Fall – The Avalanche at Tunnel Creek“ online. Ein Meilenstein, der zum Vorbild wurde. In Deutschland sind Verlage nur in Ausnahmefällen bereit, in neues Storytelling zu investieren.

Das Feature erzählt die Geschichte von 16 Ski- und Snowboardfahrern, die sich an einem Februartag des Jahres 2012 aufmachen zum Gipfel des Cowboy Mountain in den Kaskaden, etwa 120 Kilometer östlich von Seattle. Abfahren wollen sie nicht über das Skigebiet Stevens Pass, sondern über den Tunnel Creek, auf dem Rücken des Cowboys. Doch was als eine traumhafte Abfahrt durch unberührten Pulverschnee beginnt, endet in einem Fiasko. Die Gruppe wird von Schneemassen in den Abgrund gerissen.

Was die New York Times daraus gemacht hat, ist ein Meilenstein im Multi­media-Storytelling. In sechs Kapiteln protokolliert der Reporter John Branch­ das Geschehen. Nicht allein in einer ausführlichen Reportage, die detailliert den Hergang schildert, sondern auch in Videointerviews mit den Beteiligten. Mit Animationen, bei denen man zur Orientierung im Gelände sanft über die Berggipfel gleitet, als säße man in einem Segelflugzeug. Mit animierten Grafiken, die die Entstehung von Lawinen beschreiben. Mit Videomaterial aus einer an einem Skihelm befestigten Go-Pro-Kamera. Mit animierten Wetterkarten. Und mit der Darstellung einer Lawine, der man in Echtzeit beim Abgehen zusehen kann. Vielmehr: muss.

Ältere Projekte wirkten wie eine Leistungsschau

All das ist integriert in eine Technik, die die einzelnen Elemente jeweils erst offenbart, wenn sie an der Reihe sind. Der Leser … nein. Der Zuschauer … trifft es auch nicht. Am ehesten noch: Der Bestauner scrollt abwärts, folgt dem Lauf des geschriebenen Textes und sieht dabei zu, wie Animationen und Bilder ins Blickfeld hineingleiten und wieder verschwinden. Immer tiefer wird er auf diese Weise hineingezogen in eine Erzählform, deren Anfänge in den 1940er-Jahren liegen. Beim Parallax-Scrolling werden verschiedene Ebenen so kunstvoll miteinander verwoben, dass das Ergebnis mehr ist als die Summe seiner Einzelteile.

Damit markiert das Jahr 2013 eine Zäsur. Hinter uns liegt eine Zeit, in der viele mit den Möglichkeiten des multimedialen Erzählens experimentiert haben. Der überragende Wert des Netzes besteht darin, dass jede Geschichte genau die Form findet, die am besten zu ihr passt. Doch viele Projekte wirkten in der Vergangenheit weniger wie eine sinnvoll aufgebaute Erzählung als wie eine Leistungsschau, bei der Journalisten, Filmer und Programmierer demonstrieren wollten, was jeweils in ihnen steckt. Bei „Snow Fall“ dagegen werden Text, Ton, Fotografie, Animation, Grafik und Bewegtbild virtuos miteinander verwoben. Schon vorher gab es Projekte, die sich dieser Technik bedient hatten. Erst durch „Snow Fall“ wurde sie einem weltweiten Publikum bekannt.

Jede Geschichte hat ein angemessenes Gefäß

Doch bei aller Begeisterung: Das Projekt fordert sein Publikum auch ziemlich heraus. Will man sich dem Stück mit der gebotenen Aufmerksamkeit widmen, muss man dabei die Zeit investieren, die man auch für einen guten Dokumentarfilm braucht. Wer kann und will sich die nehmen, tagsüber im Büro, abends mit dem Laptop auf den Oberschenkeln? Die Geschichte wurde zwar bald darauf auch als E-Book veröffentlicht und verwandelte sich damit gewissermaßen in das Pendant zur Single-Auskopplung eines Musik-Albums. Doch in der Ipad-Version schnurrt das Feature zusammen auf die Substanz des Textes. Von dem Zauber der Multimedialität bleibt nichts übrig.

Auch das ist eine Erkenntnis dieses Jahres: Die Instrumente sind inzwischen ausgereift, um jede Geschichte in das ihr angemessene Gefäß zu gießen. Doch wir haben noch nicht die passenden Geräte, um das Ergebnis in einer Weise zu präsentieren, dass sie auch den vollen Zauber ausbreiten können.

Und trotzdem war zu spüren, dass „Snow Fall“ einen Standard gesetzt hatte. Nur wenige Monate später stellte der Guardian „Firestorm“ ins Netz. Das Feature erzählt die Geschichte einer Feuersbrunst, die Anfang Januar über Tasmanien wütete. Internationale Berühmtheit erlangte die Katastrophe durch ein Foto, das Tammy Holmes zeigt, die mit ihren fünf Enkelkindern unter einem Steg im Wasser kauert. Eingehüllt ist die Szenerie in das surreale Orange des Feuers. „Firestorm“ erzählt die Geschichte hinter diesem Bild – in einer so dramatischen und direkten Weise, dass man beinahe das Gefühl bekommt, selbst vor Ort gewesen zu sein.

In Deutschland setzen einzelne Web-Pioniere die Standards

Sieht man sich in Deutschland nach solchen Leuchttürmen um, steht man schnell im Dunkeln. Im Sommer veröffentlichte Zeit Online die liebevoll produzierte Hommage an die Tour de France zu deren hundertjährigem Jubiläum. Mit schön geschriebenen Porträts dreier Autoren, Filminterviews mit den Protagonisten, Videos aus der Tour-Geschichte und hübschen Ideen wie einer animierten Zeitleiste, auf der man sich mit einem Schieber durch die Evolution der Rennräder bewegen kann. Das Projekt ist ein guter Beweis dafür, dass es in Deutschland nicht am Talent und der Leidenschaft der Kreativen liegt, dass so wenig Innovatives entsteht – sondern an der Weigerung vieler Verlage, zu investieren.

Es sind hierzulande immer noch vor allem Web-Pioniere wie Uwe H. Martin, die die Standards setzen. Jahrelang hatte der Fotograf aus Hamburg über die tragische Situation indischer Baumwollbauern recherchiert, die die Kommerzialisierung des Saatguts zu Tausenden in den Selbstmord treibt. Auf eigene Kosten und mit der Hilfe von Stipendien hatte Martin sie besucht und interviewt.

KillingSeeds from Uwe H. Martin on Vimeo.

In diesem Jahr erlebte er gleich in zweifacher Hinsicht, dass sich das Durchhalten gelohnt hat. Nicht nur kaufte das Magazin Geo seine Filme, Fotos und eine Reportage und verarbeitete das Material unter anderem zu der beeindruckenden Ipad-Reportage „Der Stoff, der über das Leben entscheidet“. Martin gewann damit auch zwei Preise: den „Salus-Medienpreis“ und den „Deutschen Medienpreis Entwicklungspolitik“, bei dem er auch Teams öffentlich-rechtlicher Sender aus dem Rennen warf. Und was nicht minder schön ist: Geo bezahlte dafür sogar ein seriöses Honorar. Das ist in Deutschland immer noch eine Nachricht.

Finanzierung bleibt wackelig

Das beweist das Projekt der Filmemacherin Lela Ahmadzai, die in Afghanistan aufgewachsen ist. In dem aufwühlenden, knapp sechs Minuten langen Film „Stille Nacht“ zeigt sie die Gesichter hinter dem Amoklauf des Amerikaners Robert Bales. Am 11. März 2012 erschoss der Sergeant in Kandahar 16 Menschen. Der Film, zu dem es auch eine Website gibt, die die Hintergründe der Tat beleuchtet, stellt einen Bauern vor, der seine Mutter, seine Frau und sechs Kinder verlor. Und zeigt einen Sohn, der eine Nacht lang neben der Leiche seines Vaters kauerte. Fertig wurde er zum Jahrestag des Massakers.

Stille Nacht from 2470media on Vimeo.

Inhaltlich ist er von einer Intensität, ästhetisch von einer Kunstfertigkeit, dass man die Augen nicht abwenden kann. Die Produktionsfirma 2470media, die den Film gemeinsam mit Ahmadzai produziert hatte, schlug den Film vergeblich mehreren Verlagsportalen als redaktionellen Beitrag an. Damit er wenigstens ein breites Publikum findet, entschied sie sich schließlich, ihn kostenlos zur Verfügung zu stellen. Dieses Angebot nahmen mehrere Portale an. Wie man unter solchen Umständen wegweisende Webprojekte entwickeln kann, ist ein Geheimnis, das die Verlage vielleicht im kommenden Jahr lüften werden.

In der ursprünglichen Version dieses Textes und in der Printausgabe stand, dass der Film auch Zeit Online angeboten worden sei, wo er als „Netzfilm der Woche“ präsentiert wurde. Diese Information ist falsch. Wir bitten, den Fehler zu entschuldigen.

foto_kai-schaechteleKai Schächtele, 39, ist Journalist und Buchautor aus Berlin. 2011 war er gemeinsam mit Christian Frey mit dem Blog wintermaerchen2010.com zur Fußball-WM in Südafrika für den „Grimme Online Award“ nominiert. Die Tickets für die WM in Brasilien sind bereits gebucht. Foto: Thomas Duffé.

 


Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

January 08 2014

Datenschutzregelungen können über Erfolg und Misserfolg eines Unternehmens entscheiden

Joel Kaczmarek, Herausgeber des Online-Magazins Gründerszene, kennt die Befindlichkeiten der deutschen Start-up-Branche gut. Damit sie von Regulierungen nicht ausgebremst werden und die Politik ihre Probleme besser versteht, brauchen die Gründer massiv mehr Lobbyismus.

iRights.info: Welche wirtschaftliche Relevanz oder Bedeutung kommt Start-ups national und international zu?

Joel Kaczmarek: Was Start-ups an Arbeitsplätzen schaffen und an Umsatz erzeugen, ist signifikant. Firmen wie Wooga, Researchgate, Zalando, Rebuy oder weitere aus der Internet-Branche, beschäftigen jeweils hunderte von Leuten. Zalando hat in Berlin 350 Arbeitsplätze geschaffen und einen Entwicklerstandort in Dortmund etabliert. Zalando hat gerade einen Halbjahresumsatz von 809 Millionen bekannt gegeben, am Ende erwirtschaftet das Unternehmen wahrscheinlich 1,8 Milliarden Euro oder mehr – und damit ist es nicht mehr so weit weg von der großen Industrie.

iRights.info: Worin sehen die Gründerfirmen die wichtigsten Hürden für die digitale Wirtschaft?

Joel Kaczmarek: Die Grundfrage dazu ist vorab: Wo wird eine Regulierung überhaupt entschieden? Bei vielen Themen sind wir ganz schnell bei EU-Regelungen, und da gibt es unter Gründern viel Unsicherheit. Im Augenblick beobachten sie mit Argusaugen die europäische Richtlinie zum Einsatz von Cookies. Cookies erfassen, wo der Nutzer herkommt, wie lange er auf der Seite bleibt, was er sich anguckt, wie schnell er wieder abspringt und so weiter.

Wenn man diese Daten weitergehend auswertet, vielleicht sogar zum Nutzen des Kunden, muss man ihn mittlerweile erst darüber informieren, so die geltenden EU-Regelungen. Und tatsächlich wird jetzt auf Webseiten immer öfter Folgendes oben eingeblendet: „Wir setzen Cookies, um für Sie das Einkaufserlebnis zu verbessern, ist das für Sie in Ordnung? Ja oder nein?“ Der Cookie arbeitet trotzdem, aber eigentlich muss der Nutzer das bestätigen.

So eine Vorschrift kann für agile Start-up-Unternehmen angesichts massiver Skalierung schnell relevante Dimensionen annehmen.

iRights.info: Die EU-Cookie-Richtlinie als Genickbrecher für ein Start-up?

Joel Kaczmarek: Ja, auf jeden Fall. Zalando beispielsweise berücksichtigt mittlerweile sogar die jeweilige Wetterlage für seine Marketing- und Verkaufsaktivitäten. Zalando ist eine extrem datengesteuerte Firma. Und wenn man solchen Firmen Regelungen vorsetzt, dass sie, wenn sie dieses und jenes erheben erheben wollen, erst die Nutzer fragen müssen, muss man kein Prophet sein, um vorherzusagen, dass sich dies als Bremsfaktor darstellt.

Es ist doch so: Wenn man 1.000 Nutzer fragt, ob man bei ihnen Cookies setzen darf, dann sagen vermutlich 700 Nein, oder auch 400. Das sind aber 400, die einem vorher Daten geliefert und sich gar nicht daran gestört haben, weil es ihnen in der Regel keinen Schaden bereitet. Im Gegenteil, es geht bei Cookies eher darum, das Angebot so zuzuspitzen, dass es den Kunden einen Nutzen bringt.

Das alles bedeutet, solche Datenschutzregelungen können über Erfolg und Misserfolg eines jungen Unternehmens entscheiden. Sie wirken sich definitiv auf den Start-up-Alltag aus. Aber von derlei Umständen im Netz hat die Politik viel zu wenig Ahnung. Ich war Teil der Delegation, mit der Kanzlerin Merkel kürzlich einige Berliner Start-ups besuchte. Und als sie bei der Online-Wissenschafts-Plattform Researchgate war, erkundigte sie sich, wo deren Server stünden – und war wenig begeistert zu hören, dass sie in San Antonio stehen. Das ist die Flughöhe, auf der Start-ups wahrgenommen werden.

iRights.info: Sie meinen, da ist Ihnen die Politik zu oberflächlich?

Joel Kaczmarek: Was ich damit sagen will: Die Politik hört zu und macht sich Gedanken, aber die Durchdringungstiefe ist relativ gering. Zugleich haben Internet-Unternehmen in Deutschland eine ziemlich schlechte Lobby. Auf Europa bezogen ist das Standing und die Sichtbarkeit in Ermangelung einer geschlossenen Lobby noch deutlich schlechter.

iRights.info: Die Start-ups haben also Lobbyismusbedarf?

Joel Kaczmarek: Massiv sogar. In Sachen eigener Interessenvertretung sind sie in einer Amateur- oder Kreisliga unterwegs. Als sich Philip Rösler, der damalige Wirtschaftsminister, mit Peter Thiel zusammensetzte, einer Größe aus dem Silicon Valley, und mit ihm eine Gesprächsrunde initiierte, stellten die Start-ups keine besonders kenntnisreichen Fragen, sondern benahmen sich eher wie Groupies. Dabei saßen sie mit Volksvertretern und Experten zusammen, mit denen man viel ernsthafter reden sollte.

Zumindest hat sich mit dem Verband Deutscher Start-ups nun eine Interessenvertretung herausgebildet. Dieser widmet sich vielen Themen und hat auch Datenschutz-Fragen wie die Cookie-Richtlinie auf der Agenda. Aber der Verband ist noch jung und muss sein Können noch beweisen.

iRights.info: Gibt es neben Cookies noch weitere netzpolitische Themen für Start-ups?

Joel Kaczmarek: Es gibt diese Debatte, die der Axel-Springer-Verlag mit dem Leistungsschutzrecht angestoßen hat: Darf Google Teile meines Contents nutzen, um Angebote zu schalten, von denen Google dann profitiert? Hier stoßen alte und neue Industrien aufeinander. Meiner Beobachtung nach ist das Leistungsschutzrecht für Start-ups keine sinnvolle Regelung.

Man hat als Internet-Unternehmen eine große Abhängigkeit von Google. Deswegen bekommen alle suchmaschinenbezogenen Themen eine Relevanz für Start-ups. Wenn ein Großteil des Besucherstroms über Google kommt – bei manchen Unternehmen sind es 60 Prozent und mehr –, muss man sich überlegen, wie man vorgeht und welche Regelungen geschaffen werden sollten.

Hinzu kommen Probleme auf Detail- und mittlerer Ebene: Welche Einwilligungen muss man geben oder bekommen, wenn man einen Newsletter versenden will? Administrative Themen, die den Verbraucherschutz betreffen, sind relevant. Internetgeschäft heißt vor allem, den Kostenapparat eines realen Ladens zu sparen und zugleich eine hohe Erreichbarkeit zu gewährleisten.

Die Kunst besteht darin, Geld dafür auszugeben, damit möglichst viele Nutzer auf die Seite kommen – aber diese Ausgabe muss geringer sein als der daraus abgeleitete Umsatz. Alles, was den Nutzerstrom an irgendeiner Stelle der Wertschöpfungskette beeinflusst, sprich Google, sprich Datenerhebungen, Datenweiterverarbeitung und -verwertung, spielt eine Rolle.

iRights.info: Ist Netzneutralität für Start-ups ein Thema?

Joel Kaczmarek: Die Netzneutralität ist sogar ziemlich wichtig für Start-ups. Das zeigte sich in der Frage der Drosselung von Datenraten, welche die Telekom angestoßen hatte…

iRights.info: …und die ihr das Landgericht Köln zunächst untersagte.

Joel Kaczmarek: Aus Nutzersicht ist das eine kontroverse Thematik. Und es irritierte viele zurecht, wie wenig die Politik darauf eingegangen ist. Wenn es dann auf die Mobilverbindungen durchschlägt, dann werden auch Firmen wie Zalando unruhig. Die generieren ja Downloadvolumen und wollen nicht, dass ihnen gedrosselte Kunden weglaufen, weil die Bilder zu lange laden.

Im Grunde geht es für Internet-Start-ups sehr oft um das große Ganze, um alle Fragen der Netzpolitik. Also um Abhörskandale, Datenschutzregularien, Google, die Datenkrake, das böse Facebook, das immer alle Daten klaut und den Datenschutz nicht beachtet, und so weiter.

Start-ups geraten oft in den Image-Sog der amerikanischen Unternehmen, die ein anderes Datenschutzverständnis haben. Dazu kommt die derzeit um sich greifende Verunsicherung bezüglich der Online-Kommunikation. Das alles wirkt sich auf das Wirtschaften im Internet nicht unbedingt positiv aus.

iRights.info: Könnten und sollten sich die Start-ups in Deutschland oder Europa von der amerikanischen Attitüde emanzipieren und mit einer Identität jenseits der US-Klischees positionieren? Etwa mit heimischen Infrastrukturen und mehr Datenschutz-Sensibilität?

Joel Kaczmarek: Die deutschen E-Mail-Anbieter haben das mit dem Label „PRISM-sicher“ als Qualitätsmerkmal versucht. Deutschland hat den Ruf besonders datenschutz-sensibel zu sein, das könnte die Kennzeichnung „Made in Germany“ neu aufladen. Es könnte eine Chance sein, sich öffentlich zu positionieren, aber ich glaube nicht, dass dies ausreichen würde.

Denn wie wettbewerbsfähig ist ein Unternehmen dann? Durch die Aufwendungen für Daten- und Verbraucherschutz entstehen Wettbewerbsnachteile. Ob die Nutzer solche Dienste dann so gut annähmen, dass die Nachteile durch Nachfrage und Umsatz wieder aufgehoben würden, bliebe abzuwarten. Ein Kodex oder Gütesiegel ist aus Verbrauchersicht begrüßenswert, aber ob sie aus wirtschaftlicher Sicht sinnvoll sind, ist eine andere Frage.

Nehmen wir beispielsweise Studivz versus Facebook. Studivz hatte sich damals als besonders aufmerksam in Sachen Datenschutz präsentiert und auch dem Jugendschutz mehr Gewicht gegeben. Facebook hingegen nahm das von vornherein lockerer, hat seine Jugendschutz-Regeln jüngst sogar weiter entschärft. Das Ergebnis dieses Wettstreits ist bekannt.

iRights.info: Beschäftigen sich Start-ups ausreichend mit digitalwirtschaftlichen und netzpolitischen Themen? Oder legen sie mehr oder weniger los und reagieren auf Rückmeldungen?

Joel Kaczmarek: Eher letzteres. Es gibt ja die Devise: „Lieber um Verzeihung bitten als um Erlaubnis“. Die findet oft ihre Anwendung, weil es im Zweifelsfall Ärger spart. Man kann das verstehen, weil die allermeisten Start-ups damit beschäftigt sind, zu überleben. Sie müssen erstmal zu Kapital kommen, dann ein tragfähiges Geschäftsmodell entwickeln. Start-ups haben eigentlich weder Zeit noch Sinn für solche Themen. Die sind für ihr Geschäft zwar zentral, aber aus ihrer Sicht erst zwei Schritte später zwingend.

Foto: Gründerszene

Foto: Gründerszene

Joel Kaczmarek ist seit Mai 2013 Herausgeber von Gründerszene, einem Onlinemagazin über und für die Start-up-Branche und zu Entrepreneurship. Davor war er etwa vier Jahre dessen Chefredakteur. Das Magazin Gründerszene gehört zur 2008 gegründeten Vertical Media GmbH, einem Fachverlag für Onlinemedien, der auch das englischsprachige Magazin Venturevillage herausgibt.

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

November 20 2013

AOL vs. „People Plus”: Wie frei sind Schnittstellen?

Weil sie falschen Gebrauch von einer Schnittstelle gemacht hätten, hat AOL die Macher des Programms „People Plus” abgemahnt. „People Plus” greift auf die Datenbank „Crunchbase” zu. Die aber ist unter Creative Commons lizenziert.

„People Plus“ ist eine App, auf die man wahrscheinlich nur in Kalifornien kommen kann. Wer auf Anlässen in der Tech-Welt nicht weiß, mit wem er gerade warum redet, dem zeigt sie auf der Datenbrille an: Das ist Venturekapitalist Tim Chang vom Mayfield Fund – zum Beispiel. Zusätzlich gibt es Funktionen wie „Find investors nearby“ („Investoren in der Nähe finden“). Wenn man so will: Das Modell Linkedin plus Augmented Reality, was im Reklamevideo so aussieht:

Um Antworten auf die Fragen „Who am I talking to? Why are we talking?“ zu finden, durchsucht das Programm unter anderem Check-Ins bei Veranstaltungen, aber auch Unternehmensdatenbanken wie Crunchbase, einem Seitenprojekt von Techcrunch, das wie das Blog selbst seit 2010 zu AOL gehört. Über die Nutzung der Datenbank gibt es jetzt einen Lizenzstreit: Zwar hat Crunchbase seine nach dem Wikipedia-Prinzip aufgebaute Datenbank unter Creative Commons gestellt, People Plus darf sie also gemäß den Bedingungen der Lizenz (Namensnennung) ohne Rückfrage verwenden.

Nutzungsbedinungen vs. Creative-Commons-Lizenz

Die API – also die technische Schnittstelle – zur Datenbank aber hat Crunchbase mit Nutzungsbedingungen versehen, die die Freiheiten der Creative-Commons-Lizenz de facto wieder aufheben. Crunchbase behält sich darin vor, Nutzungen zu überprüfen, die „mehr konkurrierend als komplementär” sind („CrunchBase reserves the right to continually review and evaluate all uses of the API, including those that appear more competitive than complementary in nature.”)

So hat People Plus Anfang November Anwaltspost von AOL bekommen und soll die Nutzung der Crunchbase unterlassen. Doch soweit es um Nutzungsrechte geht, sagen die Creative-Commons-Lizenzen in der Langfassung: Zusätzliche Beschränkungen über die Lizenz hinaus sind ungültig – nur im Einzelfall können Änderungen per „schriftlicher Vereinbarung“ getroffen werden:

This License constitutes the entire agreement between the parties with respect to the Work licensed here. (…) Licensor shall not be bound by any additional provisions that may appear in any communication from You. This License may not be modified without the mutual written agreement of the Licensor and You.

Folgt man dem Beitrag eines Entwicklers bei Hackernews, war die API zunächst für alle Nutzer offen – eine Registrierung mit zusätzlichen Vereinbarungen sei erst später eingeführt worden.

CC bleibt CC

In einem Statement gegenüber „Wired” räumt Creative-Commons-Chefjuristin Diane Peters ein, dass Unternehmen zwar Nutzungsbedinungen für APIs festlegen können, sie weist aber darauf hin, dass bereits veröffentlichte Inhalte dennoch nicht zurückgezogen werden können. Was draußen ist, ist draußen – so lässt sich der Grundsatz umschreiben, dass ein per Creative Commons erteiltes Nutzungsrecht nicht nachträglich zurückgezogen werden kann. AOL könnte jetzt zwar die Lizenz ändern, aber Daten, die schon freigegeben wurden, blieben trotzdem frei.

Landet der Streit vor Gericht, könnte eine der Fragen lauten: Lässt sich die Nutzung von Datenbanken von der Nutzung der Schnittstellen abgrenzen, über die eben diese Datenbanken ausgelesen werden? Im Moment sieht es allerdings so aus, als wollten sich AOL und die People-Plus-Macher ohne Gerichte einig werden. People Plus hat die Nutzung der API vorerst eingestellt, ohne aber die alten Daten aus seinem Dienst zu entfernen. Techcrunch und dem Crunchbase-Projekt wiederum stünde es wohl schlecht zu Gesicht, sich gerichtliche Scharmützel mit Startups zu liefern.

Deutlich macht der Streit vor allem, dass der Eigentümer AOL augenscheinlich Nutzungen der Datenbank verbieten will, um einen potenziellen Konkurrenten auszubremsen, der die Daten auf neue Weise verwendet – während das Unternehmen sich unter dem Motto „Disrupt AOL!” zugleich für seine „Open Philosophy” rühmt. Zu versuchen, „Disruption” von außen mit Zusatzvereinbarungen zur Creative-Commons-Lizenz zu verhindern, ist aber wenig Erfolg versprechend – die Lizenz soll neue Nutzungen schließlich gerade ermöglichen.

November 05 2013

Deutsche Digitale Bibliothek jetzt mit API

Seit knapp einem Jahr steht die Deutsche Digitale Bibliothek als Betaversion online, seit Montag nun bietet sie auch eine API an. Über die Schnittstelle können Entwickler Daten aus dem Katalog der DDB auslesen und für weitere Anwendungen verwenden.

Was in der Welt der Softwareprojekte und Plattformen kaum erwähnenswert wäre – die pure Existenz einer Schnittstelle –, ist bei Bibliotheken und anderen Kultureinrichtungen noch eine Besonderheit. Wie auch bei offenen Daten in Politik und Verwaltung gilt: Wertvolle Metadaten „einfach so” und maschinenlesbar herauszugeben, stellt nicht nur technische und rechtliche Fragen. Es steht auch für einen Kulturwandel: Da könnte ja jeder kommen und die Daten verwenden. Bei der Deutschen Digitalen Bibliothek kann jetzt jeder kommen.

Metadaten unter CC-Zero-Widmung

Weitergenutzt werden können die Metadaten der DDB unter den Bedingungen der Creative-Commons-Zero-Widmung, was einem Verzicht auf alle Rechte entspricht. Zwar ist ein einzelnes Datum für sich nicht schutzfähig, mit der „CC0”-Widmung stellt die DDB aber klar, dass auch die Datenbank nicht eigens geschützt werden soll.

Allerdings stehen nicht alle Metadaten der DDB unter CC0, nur die entsprechend lizenzierten sind über die API ansprechbar. Hintergrund: Ausgenommen wurden diejenigen Datensätze, die neben Erschließungsinformationen auch Beschreibungen von Werken und Objekten enthalten. Da solche Beschreibungen urheberrechtlich geschützt sein können, fehlen diese Datensätze vorerst. Auf Nachfrage erklärt die DDB, dass auch diese Datensätze zugänglich gemacht werden sollen, indem Erschließungs- und Beschreibungsinformationen getrennt werden.

Bibliotheken und Museen mit APIs

Wie sich die Daten nutzen lassen, zeigen andere Projekte von Bibliotheken und Kultureinrichtungen. Naheliegend ist es etwa, die Daten in weitere Kataloge aufzunehmen oder mit Geodaten und Karten zu kombinieren – der Idee nach nichts anderes als die Erweiterung des klassischen Bibliothekskatalogs, der zeigt, was sich wo finden lässt. Die aus einem Wettbewerb resultierende (und noch rudimentäre) DPLA Map der Digital Public Library of America zum Beispiel zeigt an, was sich an Werken mit Bezug auf den eigenen Standort in der digitalen Bibliothek findet:

dplamap-berlin

Wo die Metadaten mit den Inhalten selbst kombiniert werden können, sind Anwendungen wie „Vistory” vom Rijksmuseum Amsterdam möglich. Das Programm zeigt unter anderem an, welche historischen Filmszenen in der Nähe gedreht wurden:

Der experimentelle Dienst Serendipomatic wiederum analysiert ganze Texte und durchsucht darauf basierend die Bestände der Europeana, der Digital Public Library of America und des Commons-Pools bei Flickr. Die Idee ist, mit den im Text enthaltenen Stichworten Zufallsfunde zu ermöglichen, die man sonst übersehen hätte.

Was mit den Daten der DDB möglich ist, muss sich noch zeigen. Man kann jedenfalls gespannt sein. Die DDB-API kann nach formloser Anmeldung bei der DDB genutzt werden und ist im dortigen Entwickler-Wiki näher dokumentiert.

November 04 2013

BGH zu Unterlassungserklärungen, Tell-a-friend-Funktion, Titelschutz bei Apps

Wer eine Unterlassungserklärung abgibt, erkennt damit nicht gleich Anspruch und Kosten an,  Tell-a-friend-Funktionen sind Werbung eines Unternehmens – zwei Entscheidungen des Bundesgerichtshofs der letzten Woche. Außerdem im Wochenrückblick: Titelschutz bei Apps, „No-Spy”-Abkommen, Drosseltarife und Facebook vs. ULD.

Bundesgerichtshof: Unterlassungserklärung ist keine Anerkenntnis

Wer aufgrund einer Abmahnung eine Unterlassungserklärung abgibt, erklärt damit nicht das Anerkenntnis des Unterlassungsanspruchs. Das hat der Bundesgerichtshof Ende September entschieden. Die Entscheidung ist vergangene Woche im Volltext erschienen. Hintergrund der Entscheidung war ein wettbewerbsrechtlicher Streit. Die Klägerin hatte die Beklagte wegen rechtswidriger Werbung abgemahnt. Die Beklagte gab eine Unterlassungserklärung ab, zahlte aber die Anwaltskosten für die Abmahnung nicht. Die Klägerin meinte nun, mit der Abgabe der Unterlassungserklärung habe die Beklagte die Forderung der Abmahnkosten und den Unterlassungsanspruch anerkannt. Dem erteilte der BGH eine Absage: Ein Anerkenntnis liege nur dann vor, wenn der Abgemahnte dies förmlich erklärt. Auch dann wenn eine Unterlassungserklärung nicht mit dem Zusatz „ohne Anerkennung einer Rechtspflicht” abgibt, erkennt er demnach den Unterlassungsanspruch nicht an.
Das Urteil des BGH im Volltext.

Bundesgerichtshof: Tell-a-Friend-Funktion ist Spam

Der Bundesgerichtshof hat vergangene Woche ein Urteil veröffentlicht, in dem er sich mit der Zulässigkeit von Tell-a-Friend-Funktionen befasst. Mit Hilfe dieser Funktion können Nutzer einer Webseite über ein Formular Empfehlungsemails an Dritte verschicken. Diese E-Mails sind als Werbung des Unternehmens anzusehen, das die Tell-a-Friend-Funktion anbietet, so der BGH. Die E-Mail habe den Zweck, Dritte auf die entsprechende Webseite aufmerksam zu machen und sei damit Werbung des Unternehmens. Der Versand ist damit nur rechtmäßig wenn der Dritte in den Empfang eingewilligt hat.
Das Urteil im Volltext.
Besprechung der Entscheidung von Thomas Stadler.

Landgericht Hamburg zum Titelschutz für Apps

Der Name einer App kann als Werktitel geschützt sein. Das hat das Landgericht Hamburg Anfang Oktober entschieden, wie vergangene Woche bekannt wurde. Hintergrund: Der Anbieter von „wetter.de” sah sich durch die App „wetter DE” in seinen Rechten verletzt. Der Name seiner App sei als Werktitel geschützt. Im konkreten Fall lehnte das Landgericht Hamburg einen solchen Titelschutz zwar ab, generell sei der Name einer App aber als Werktitel schutzfähig.
Die Hintergründe bei socialmediarecht.

NSA-Skandal: „No-Spy-Abkommen“ in Planung

Schon Anfang 2014 soll es ein Abkommen gegen Spionage zwischen Deutschland und Amerika geben. Darauf habe sich eine Delegation des Kanzleramts vergangene Woche mit US-Präsident Obama geeinigt, wie die FAS berichtet. Kritik an den Plänen kam vor allem aus dem Europäischen Parlament. Der Europaabgeordnete der Grünen Jan Philipp Albrecht äußerte die Befürchtung, mit der deutsch-amerikanischen Sonderlösung solle die Aufregung über die Aktivitäten der NSA gedämpft werden, ohne an der Massenüberwachung etwas zu ändern. Der Text des Abkommens soll in den nächsten Wochen ausgehandelt werden.
Weiter bei FAZ.net.

Landgericht Köln: Telekom darf Drosseltarif nicht als Flatrate verkaufen

Die Drosselung von Internetanschlüssen ab einem gewissen Transfervolumen durch die Telekom ist in seiner jetzigen Form rechtswidrig. Das hat das LG Köln letzte Woche entschieden. Hintergrund war eine Unterlassungsklage der Verbraucherzentrale NRW. Das Gericht schloss sich der Ansicht der Verbraucherschützer an und erklärte die entsprechenden Klauseln in den AGB der Telekom für unwirksam. Hauptargument: Wird ein Festnetzanschluss als „Flatrate” angeboten, darf der Verbraucher erwarten, diesen auch unbegrenzt nutzen zu dürfen. Generell ist die Drosselung von Internetanschlüssen damit also nicht vom Tisch. Das Landgericht Köln hat jedoch klargestellt, dass ein gedrosselter Internetanschluss auch als solcher bezeichnet werden muss.
Ausführliche Besprechung des Urteils bei Telemedicus.

Facebook-Fanpages: ULD geht in Berufung

Anfang Oktober hat das Verwaltungsgericht Schleswig entschieden, dass das Unabhängige Landeszentrum für Datenschutz Schleswig-Holstein (ULD) den Betrieb von Facebook-Fanpages nicht verbieten darf. Das ULD hat gegen die Entscheidung letzte Woche nun Berufung eingelegt. Das Urteil habe die grundrechtliche Schutzpflicht des Staates für das Recht auf informationelle Selbstbestimmung nicht ausreichend beachtet. Der Streit geht damit vor das Oberverwaltungsgericht Schleswig-Holstein.
Zur Pressemeldung des ULD.

 

Lizenz dieses Artikels: CC BY-NC-SA.

October 28 2013

Ausschreibung: Ideen, Konzepte und Lösungen für „Privatheit in der E-Society”

Bei der „Integrata-Stiftung für humane Nutzung der Informationstechnologie” läuft noch bis Ende des Jahres eine Ausschreibung für den jährlich von der Stiftung vergebenen Preis. Dieses Jahr werden Vorschläge und Lösungen zum Thema „Privatheit” gesucht.

In der Ausschreibung (PDF) heißt es:

Privatheit ist einerseits notwendige Voraussetzung für die Autonomie des Individuums in einer demokratischen Zivilgesellschaft. Andererseits ist sie durch die aktuelle Entwicklung auf bisher unvorstellbare Weise bedroht. Dieser Konflikt ist sichtbar unter anderem in Bereichen wie:

  • Zunehmend virtualisierte Erwerbsumgebungen
  • Virtuelle Identitäten wie z.B. in social media
  • Nutzerorientiertes Identitätsmanagement
  • Energieinformations- und Energieversorgungssysteme (smart grids, smart metering)
  • Gesundheits- und Altersgerechte Assistenzsysteme

Wir fragen uns: Wie kann Privatheit in der E-Society gewahrt bleiben? Auf welche Weise sollten virtuelle Identitäten geschützt werden? Gesucht werden dafür Vorschläge, Konzepte und Lösungen für den Einsatz von Informationstechnologie, um Privatheit von physischer und virtueller Identität auf humane und gemeinwohlorientierte Weise in der E-Society zu gewährleisten.

Der Preis ist mit 10.000 Euro verbunden und kann auch auf mehrere, maximal drei Träger aufgeteilt werden. Damit lassen sich zwar keine Welten bewegen, aber zumindest Konzepte und Lösungen weiterverfolgen und -entwickeln. Was genau unter die Ausschreibung fällt, kann bei der Stiftung erfragt werden, dort auch mehr zu den Teilnahmemodalitäten.

Bei der letzten Runde unter dem Titel „Mehr Lebensqualität” wurden abgeordnetenwatch.de und das Informationsregister des Landes Bremen ausgezeichnet.

October 10 2013

W3C-Direktor Berners-Lee verteidigt Kopierschutz für Webstandard HTML5

Soll HTML als Standard des offenen Web Kopierschutz unterstützen? Schon seit einiger Zeit wird darüber nicht nur in den Kreisen des Web-Gremiums W3C erbittert diskutiert. Genau genommen geht es um „Encrypted Media Extensions” – Schnittstellen, über die kopiergeschützte Inhalte auch direkt im Browser abspielbar werden sollen. Netflix, Microsoft und Google haben dazu einen Entwurf vorgelegt.

Nun hat sich Web-Erfinder und W3C-Direktor Tim Berners-Lee erneut zu Wort gemeldet und das Vorhaben gegen Kritik („Hollyweb”) verteidigt. Nach den Designprinzipien von HTML hätten die Nutzer zwar Vorrang – es sei aber besser, wenn die Diskussion über DRM im W3C statt außerhalb stattfinde. Denn verhindern werde man Kopierschutz für Video-Inhalte mit einer Verweigerung nicht, so Berners-Lee. Man könne aber die Folgen für’s offene Web mildern:

if content protection of some kind has to be used for videos, it is better for it to be discussed in the open at W3C, better for everyone to use an interoperable open standard as much as possible, and better for it to be framed in a browser which can be open source, and available on a general purpose computer rather than a special purpose box.

Die Kritik war Anfang Oktober wieder lauter geworden, als das W3C in einer neuen Charta schließlich festschrieb, dass HTML-Unterstützung für geschützte Inhalte zu seinem Aufgabenfeld gehört. Die Electronic Frontier Foundation sprach von einem „gefährlichen Schritt” und einer Machtverschiebung vom Nutzer zum Inhalteanbieter:

We’re deeply disappointed. (…) That breaks a—perhaps until now unspoken—assurance about who has the final say in your Web experience, and indeed who has ultimate control over your computing device.

Deutlich wird allerdings, dass die Entscheidung auch für Berners-Lee nicht nur eine über die Rolle des W3C ist, sondern strategisch begründet wird: Ohne Beteiligung des W3C würde der Kampf um Kopierschutz von vornherein auf fremdem Terrain stattfinden, entsprechend schlechter wären die Ausgangsbedingungen.

Im gleichen Posting ruft Berners-Lee nun zu mehr Beteiligung am Prozess auf. Doch im Gegenzug muss sich die HTML5-Arbeitsgruppe jetzt an der Quadratur des Kreises versuchen: Offen und geschlossen, WWW und DRM soll sie in Einklang bringen.

August 21 2013

Github, die GPL und die Wirren der Open-Source-Lizenzen

Ein Großteil an Code wird von Entwicklern ohne Lizenz ins Netz gestellt, etwa bei Github. Das birgt bereits Probleme, doch dahinter steckt eine weitere Entwicklung: Auch Copyleft-Modelle wie das der GPL setzen ein starkes Urheberrecht voraus. Beides ist für viele Entwickler zu unflexibel und damit nicht mehr attraktiv, so Armin Ronacher.

Die General Public License (GNU GPL) war lange der Eckpfeiler der Open-Source-Bewegung – zumindest konnte man diesen Eindruck gewinnen. Bei genauerem Hinsehen bestand die Open-Source-Welt seit jeher aus vielen Lizenzen, die GNU GPL war nur ein kleiner Teil davon. Doch in den letzten Jahren ist immer deutlicher erkennbar, dass viele Entwickler aus verschiedenen Gründen einen offenen Hass für diese Lizenzen aufgebaut haben.

Erstaunlich ist, wie wenig heutzutage über die Lizenz diskutiert wird. Für mich ist das Thema durch Github wieder relevant geworden. Als Quelltext-Hoster ist Github momentan ein Zentrum der Open-Source-Bewegung, doch zugleich findet sich dort mehr zweckwidrig als zweckdienlich lizenzierte Software. Github hat versucht, das zu ändern und eine Lizenzauswahl eingeführt. Ich halte das für eine sehr schlechte Idee – besonders weil es das Thema GPL und alle Folgefragen wieder aufrollt.

Hier geht es daher um die Geschichte der Open-Source-Lizenzen, was sich zu verändern scheint – und darum, was wir tun können, um die Situation zu verbessern.

GPL: Was bisher passierte

Bevor die General Public License in der Version 3 (GPLv3) veröffentlicht wurde, war die GPLv2 die am weitesten verbreitete Copyleft-Lizenz. Copyleft und GNU GPL galten als eine Einheit. Die General Public License ist eine sehr restriktive Lizenz, da sie nicht lediglich eine handvoll Bedingungen festschreibt und den Rest erlaubt, sondern Rechte nach Art einer Whitelist aufführt. Aus diesem Grund wurde die Kompatibilität der GPL stets diskutiert. Bei der Frage der GPL-Kompatibilität geht es darum, eine Lizenz per Downgrade mit der GPL kompatibel zu machen. Bei den meisten Lizenzen war das möglich, aber einige Lizenzen enthalten Klauseln, die es unmöglich machen. Weit bekannt ist das Beispiel der Apache License 2.0, die durch zusätzliche Restriktionen für Patente als GPL-inkompatibel angesehen wurde, ähnlich einige Versionen der Mozilla Public License.

Als 2007 dann eine Version der GPL erarbeitet wurde, gewann die Frage der GPL-Kompatibilität ein weiteres Mal an Komplexität: Durch die Funktionsweise der GPL-Lizenzen sind verschiedene Versionen untereinander nicht kompatibel. Das ist nicht sonderlich überraschend. Sieht man sich aber an, wie das Ökosystem eigentlich funktionieren sollte und wie tatsächlich lizenziert wird, hat es enorme Auswirkungen.

Denn es gibt eine Menge Code, der je nach Betrachtungsweise entweder unter GPLv2 oder GPLv3 steht. Der Grund ist, dass Code bei GPL unter einer bestimmten Version oder „jeder späteren Version” (any later version) lizenziert werden kann. Und wie wird definiert, wie eine spätere Version aussieht? Durch die GPL selbst. Wenn ein Entwickler festlegt, dass für eine Software eine bestimmte Lizenzversion „oder jede spätere Version” gelten soll, haben Nachnutzer die Wahl: Sie können den Bedingungen der jeweiligen Version oder denen der späteren folgen.

Drei Lager in der GPL-Welt

Momentan gibt es daher drei Lager: Das erste, das bei der GPLv2 geblieben ist. Das zweite, das auf die GPLv3 hochgestuft hat. Und das dritte, in dem je nach Kontext entweder die GPLv2 oder GPLv3 genutzt wird. Ärger über die GPLv3 war am stärksten bei Linux und Busybox zu vernehmen: Beide entschieden, dass die einzig anwendbare Lizenz die GPLv2 ist. Auf der anderen Seite wurde ein Großteil des GNU-Codes vor ein paar Jahren auf GPLv3 überführt.

Das Ergebnis ist, dass GNU und Linux inzwischen in verschiedenen Welten leben. Ironischerweise steht „GNU/Linux” jetzt für einen Lizenzkonflikt. Da die meisten der GNU-Projekte unter der GPLv3 stehen und Linux immer bei GPLv2 bleiben wird, kann es kein Codesharing mehr zwischen diesen Projekten geben.

Das vermutlich größte Problem mit GPLv3 für Unternehmen ist ein Bestandteil der Lizenz, der als „Anti-Tivoisierung” bekannt ist. Ein zusätzlicher Abschnitt mit Bedingungen für den Fall, dass Software Teil eines Geräts im Consumer-Bereich wird. Im Kern wird gefordert, dass modifizierte Software auf einem unmodifizierten Gerät laufen muss. Die Lizenz verlangt, dass die Signaturschlüssel offengelegt sind und die Bedienungsanleitung Informationen darüber enthält, wie modifizierte Software installiert werden kann. Und es muss sichergestellt sein, dass modifizierte Software überhaupt auf dem Gerät läuft. Immerhin verlangt die Lizenz nicht, dass der Hersteller die Garantie dann aufrechterhalten muss.

Im Allgemeinen sind die Lizenzbedingungen damit ein großes Problem für Unternehmen. Apple zum Beispiel verkauft mit dem iPad und iPhone Geräte mit einem gesicherten Bootloader. Somit wäre es Apple unmöglich, den GPLv3-Bedingungen nachzukommen, ohne die Sicherheitssysteme komplett entfallen zu lassen. Es betrifft aber nicht nur Apple: In keinem Appstore wird man Software unter der GPLv3 finden. Die Lizenzbeschränkungen sind bei Googles Play Store und ähnlichen Vertriebssystemen ebenfalls inkompatibel zur GPLv3.

Die Anti-GPL-Bewegung

Neben diesen Entwicklungen in der GPL-Umwelt gibt es weitere. Nicht alle hatten vergleichbaren Einfluss, aber sie haben dazu geführt, dass die GPL von vielen Entwicklern in anderem Licht gesehen wird. Android und weitere Projekte versuchen mittlerweile, das ganze System der GPL loszuwerden. Android geht dabei sehr weit und bietet einen GPL-freien Userspace an. In den Lizenzinformationen wird im Grundsatz die Apache License 2.0 bevorzugt, ausgenommen davon sind etwa Kernelmodule.

Warum also gibt es plötzlich so viel Angst vor GPL? Zum Teil liegt es daran, dass GPL schon immer eine radikale Lizenz war, vor allem weil eine Rückübertragung der Rechte fehlt. Es gibt etwa eine Klausel, die als „GPLv2-Todesstrafe” bekannt ist. Sie besagt, dass jedem, der die Lizenzregeln verletzt, automatisch die Lizenz entzogen bleibt, solange nicht ausdrücklich eine neue vergeben wurde. Ohne verbindlichen Rechteinhaber aber hieße das, man müsste jeden, der am Code mitgewirkt hat, nach einer neuen Lizenz fragen.

Darüber hinaus ist mittlerweile deutlich geworden, dass einige sogar der Meinung sind, man könne der Free Software Foundation nicht trauen. Es gibt hier zwei Fraktionen: Erstens diejenigen, die an die Ideologie Richard Stallmans glauben; zweitens diejenigen, die die GPLv2 Lizenz in Ordnung finden, aber nicht mit der Richtung einverstanden sind, in die sie sich entwickelt. Linus Torvalds ist eindeutig ein Vertreter der letzteren Fraktion. Sie existiert, weil die Free Software Foundation stark in ihrer eigenen Welt gefangen ist, in der Cloud Computing Teufelszeug ist, Smartphones nichts anderes als Ortungsgeräte und Android etwas ist, dass durch die GPL verhindert werden muss. Es gibt GPL-Unterstützer, die nicht die aktuelle Sichtweise der Free Software Foundation unterstützen. Selbst einige GNU-Projekte widersprechen den Zielen von GNU und der Free Software Foundation. Das Projekt GnuTLS etwa hat sich im Dezember 2012 von GNU gelöst.

Code ohne Lizenz

Nach einer – nicht wissenschaftlichen – Untersuchung durch Aaron Williamson vom Software Freedom Law Center sind nur bei 15 Prozent aller Repositories Lizenzdateien enthalten; nur etwa 25 Prozent erwähnen die Lizenz in der Readme-Datei. Williamson untersuchte dafür 28 Prozent der ältesten Github-Repositories – nur ein Drittel aller Projekte hatte eine Copyleft-Lizenz. Von den lizenzierten Repositories stand die klare Mehrheit entweder unter MIT/BSD- oder Apache-2-Lizenz.

Das sind keine zufriedenstellenden Ergebnisse: Der Trend, Code ohne Lizenzerklärungen ins Netz zu stellen, ist bedenklich und wirft Fragen auf. Er zeigt aber weniger, dass Entwickler nichts von Lizenzen wissen als vielmehr, dass sie sie für unwichtig und vernachlässigbar erachten. Deshalb sehe ich Githubs neues Lizenzauswahl-Werkzeug als problematisch an. Beim Erstellen eines neuen Verzeichnisses erscheint jetzt ein Lizenzwahl-Dialog; nur ohne Erklärung, was die Lizenz bedeutet. „Apache v2 License”, „GPLv2” und „MIT” werden hervorgehoben. Zwei dieser Lizenzen aber – Apache und GPLv2 – sind nicht untereinander kompatibel.

Screenshot: Lizenzauswahl bei Github

Screenshot: Lizenzauswahl bei Github

Wenn aber Entwickler zuvor keine Zeit damit verbracht haben, eine Lizenz zum Repository hinzuzufügen, dann wird es jetzt dazu führen, dass sie nicht über die Konsequenzen ihrer Wahl nachdenken. Angesichts all der verschiedenen Versionen von GPL und den rechtlichen Implikationen, die mit ihnen einhergehen, fürchte ich, dass das neue Lizenzauswahl-Werkzeug die Lage nur schlechter machen wird.

Wirren der Lizenzkompatibilität

Wenn die GPL ins Spiel kommt, hört der Spaß beim Lizenzieren auf: Zu viele Dinge und Wechselwirkungen sind zu beachten. Bedenkt man die unterschiedlichen Interpretationen der Lizenz, wird es noch schlimmer.

Das aber ist nicht nur ein Problem der GPL: Auch die Apache-Softwarelizenz ist ein ziemlicher Brocken. Ich bin mir sicher, dass nicht jeder, der Code unter die Lizenz gestellt hat, die Implikationen kennt. Die MIT-Lizenz dagegen umfasst gerade einmal zwei Paragraphen und einen Gewährleistungs-Auschluss, doch hier sind die Wechselwirkungen mit verschiedenen Jurisdiktionen nicht jedem klar.

Die implizite Annahme ist, dass irgendwie amerikanisches Recht Anwendung findet, was nicht immer der Fall ist. Open-Source-Entwicklung ist international und nicht jedes Land ist gleich. Deutschland und Österreich etwa haben wenige Bestimmungen zum eigentlichen Urheberrecht und keine Mechanismen, um es zu übertragen. Stattdessen werden Nutzungsrechte übertragen, die der Rechteinhaber unterlizenzieren kann. Da das in den Lizenzerklärungen nicht vorkommt, frage ich mich manchmal, ob mir aus solchen Formalitäten noch einmal jemand einen Strick drehen kann.

Lizenzen für die Mashup-Generation

Ich glaube, zur Zeit passiert etwas Neues in meiner Generation. Und das ist vermutlich der wichtigste Grund, warum es mit der GPL bergab geht: Meine Generation will ein eingeschränkteres Urheberrecht als bisher und kürzere Schutzfristen. Interessanterweise möchte Richard Stallman genau das nicht. Ihm ist schmerzhaft bewusst, dass auch Copyleft auf Copyright basiert und daher nur mit einem starken Copyright im Rücken durchgesetzt werden kann.

Wer Software unter BSD- oder MIT-Lizenz stellt, den würde es vermutlich nicht stören, wenn das Urheberrecht abgeschafft oder stark eingeschränkt werden würde. Richard Stallmans Welt würde zusammenbrechen. Er meinte etwa, dass sich die Piratenpartei als Bumerang für die freie-Software-Bewegung herausstellen werde.

Die neue Generation aber hat eine veränderte Sichtweise auf sharing und auf Geld. Sie will das Teilen von Inhalten und Software einfach machen, aber gleichzeitig eine unabhängige Monetarisierung ermöglichen. Es ist die Generation, die Remixe bei Youtube hochlädt, die kommentierte Walkthroughs für Computerspiele erstellt und auf viele andere Weisen mit den Inhalten anderer zu arbeiten gelernt hat.

Ein Erste-Hilfe-Kasten für Lizenzen

Wir sollten darüber nachdenken, unsere Softwarelizenz-Umwelt zu vereinfachen – weil wir sonst nicht abschätzen können, was in ein paar Jahren auf uns zukommt. Die Implikationen von Softwarelizenzen zu verdeutlichen und Hilfe zu geben, um die für die jeweiligen Ziele geeignete Lizenz auszuwählen, das wäre ein interessantes Vorhaben. Dazu würden zum Beispiel Grafiken gehören, die auf Kompatibilitätsprobleme hinweisen; die klarmachen, wie sich fehlende Erklärungen von Mitwirkenden an Software auswirken; und was passiert, wenn Rechteinhaber sterben oder nicht mehr auffindbar sind.

Ich bin sicher, dass ein guter User-Experience-Designer es schaffen würde, die Lizenzgrundlagen in 10 Minuten einfach erfahrbar zu machen. Die Informationen müssten von einem Rechtsanwalt und Mitgliedern der Community kontrolliert werden, um die Folgen für das Ökosystem fundiert einzuschätzen. Im Moment glaube ich jedenfalls, dass die Lizenzauswahl bei Github eine sehr schlechte Lösung für das Problem ist, dass Code ohne Lizenz veröffentlicht wird. Womöglich ist sie sogar schädlich, solange die Auswirkungen der jeweiligen Lizenzen nicht klar sind.

Dieser Artikel ist eine gekürzte Fassung von Armin Ronachers Posting „Licensing in a Post Copyright World”. Übersetzung: Anne-Christin Mook. Lizenz: CC BY-NC-SA.

August 01 2013

Was ändert sich mit dem Leistungsschutzrecht für Presseverleger?

Am 1. August 2013 tritt das umstrittene Leistungsschutzrecht für Presseverleger in Kraft. Weiterhin herrscht Unsicherheit, was das Gesetz bedeutet, wer von ihm betroffen ist und was die Betroffenen jetzt tun können oder sollten. Hier ein Überblick über die wichtigsten Fragen und der Versuch, sie zu beantworten.

(1) Wer kann das neue Recht nutzen?
(2) Sind Blogger und Satiriker Presseverleger?
(3) Was, wenn man über Suchmaschinen gefunden werden will?
(4) Was macht die Verwertungsgesellschaft für Presseverleger?
(5) Was nutzen Disclaimer und Erklärungen auf der Website?
(6) Was bedeutet das Leistungsschutzrecht für Dienstanbieter?
(7) Was ist mit der Suchfunktion auf der eigenen Website?
(8) Was ist mit sozialen Netzwerken?
(9) Ist es überhaupt möglich, das Gesetz einzuhalten?
(10) Wie können Vermeidungsstrategien aussehen?
(11) Was bedeutet das für Journalisten?
(12) Was bedeutet das Gesetz für die Internetnutzer?

(1) Wer kann das neue Recht nutzen?

Jeder, der ein Presseerzeugnis herstellt, ist laut dem Gesetz fortan ein Presseverleger, dem das Leistungsschutzrecht zusteht. Presseerzeugnisse in diesem Sinne sind nicht nur Zeitungen, Zeitschriften oder Webseiten von Verlagen. Auch Betreiber von journalistischen Blogs oder Webseiten können nach dem neuen Gesetz Verleger sein. Zumindest dann, wenn dort regelmäßig journalistische Beiträge erscheinen, die „als überwiegend verlagstypisch anzusehen sind”. Reine Nachrichtenzusammenstellungen – gemeint sind wahrscheinlich Pressespiegel oder reine Linklisten – sind ebenso wenig Presseerzeugnisse wie Informationssammlungen zu Werbezwecken oder für die Kundenbindung.

Diese Definition belässt eine Menge Grauzonen, die in langwierigen Prozessen geklärt werden müssen. Vor allem der Begriff „verlagstypisch” wird im Gesetz mit keinem Wort erläutert. (zurück)

(2) Sind Blogger und Satiriker Presseverleger?

Blogs, in denen unter journalistischen Methoden regelmäßig publiziert wird, dürften klar Presseerzeugnisse sein. Netzpolitik.org, Spreeblick oder Stefan-Niggemeier.de sind damit genauso ein Presseerzeugnis wie die Angebote von Spiegel Online, Welt.de oder Heise Online. Auch die Nachrichtenseiten von öffentlich-rechtlichen Rundfunkunternehmen wie tagesschau.de fallen unter diese Definition.

Presseerzeugnisse können nach der Gesetzesbegründung (PDF) aber auch der reinen Unterhaltung dienen. Somit dürfte das Gesetz auch für Angebote gelten, die sich der politischen Satire verschrieben haben, wie etwa der Postillon. Im Zweifel erfasst es auch Lifestyle oder Modeblogs. Voraussetzung ist, dass sie Angeboten von Verlagen ähneln.

Was das genau bedeutet, ist allerdings unklar. Ob hierfür ein redaktioneller Ablauf mit mehreren Personen erforderlich ist oder es lediglich nötig ist, dass regelmäßig Beiträge veröffentlicht werden, liegt im Auge des Betrachters und ist im Zweifel der Entscheidungsmacht der Gerichte überlassen. (zurück)

(3) Was, wenn man über Suchmaschinen gefunden werden will?

Ob sie es wollen oder nicht: Die Inhaber der Leistungsschutzrechte stehen nun vor einer Herausforderung. Werden sie nicht aktiv, laufen sie Gefahr, in Suchmaschinen oder News-Aggregatoren nicht mehr, oder nur noch unter Anzeige nackter Links aufgeführt zu werden. Denn das Gesetz schreibt den Anbietern solcher Dienste vor, dass sie Rechte einholen müssen, wenn sie Auszüge aus dem Presseerzeugnis (Snippets) anzeigen wollen.

Ob und unter welchen Umständen die Regelung greift, ist zwar völlig unklar. Das Leistungsschutzrecht zu ignorieren, wäre dennoch unklug. Denn Inhaber dieses Rechts können mit Abmahnungen, Verfügungsverfahren und Klagen gegen unbefugte Nutzung vorgehen. Und nicht jeder kann es sich leisten, sein Vorgehen in Gerichtsverfahren zu verteidigen.

Google hat bereits reagiert. Wer zukünftig in Google News gelistet sein will, muss, auch wenn man zuvor bereits gelistet war, dies durch eine elektronische Erklärung bestätigen. Damit erklärt der Website- oder Blogbetreiber, dass seine Veröffentlichungen weiter bei Google News gelistet werden sollen und dass dies unentgeltlich geschieht. Pressemeldungen zufolge haben sich alle großen Verlage, unter anderem Springer, bereits angemeldet. Auch eine Vielzahl kleiner Verlage ist dabei. Wer es nicht tut, wird ab dem 1. August bei Google News nicht mehr auftauchen.

Dieses Verfahren bezieht sich ausdrücklich nur auf Google News und nicht auf die allgemeine Suchfunktion. Dort soll offenbar alles beim Alten bleiben. Heißt: Es gibt kein Geld für Snippets, aber man bleibt weiterhin gelistet. Wie sich andere Anbieter von Suchmaschinen und News-Aggregatoren verhalten werden, ist bislang unklar. Von Bing, Yahoo & Co. gibt es noch keine offiziellen Verlautbarungen, wie man damit umzugehen gedenkt.

Viele Alternativen zu Googles Vorgehensweise bleiben nicht. Man kann journalistische Angebote großflächig auslisten, versuchen, um das Gesetz herumzukommen, abwarten, bis man verklagt oder von der neuen Presseverleger-Verwertungsgesellschaft aufgefordert wird, Lizenzverträge zu unterzeichnen und zu zahlen. (zurück)

(4) Was macht die Verwertungsgesellschaft für Presseverleger?

Die Verlegerverbände planen offenbar, eine eigene Verwertungsgesellschaft zu gründen. Ähnlich der GEMA im Musikbereich könnten dort Dienstanbieter die notwendigen Rechte erwerben. Voraussetzung ist aber, dass auch alle Presseverleger Mitglied der Verwertungsgesellschaft sind, also mit ihr Wahrnehmungsverträge abschließen.

Dass dadurch sämtliche Unwägbarkeiten ausgeräumt werden können, ist unwahrscheinlich. Das Recht kann, muss aber nicht von einer Verwertungsgesellschaft wahrgenommen werden. Selbst wenn ein spezialisierter Anbieter eines News-Aggregationsdienstes also einen Lizenzvertrag mit der Verwertungsgesellschaft geschlossen hat, läuft er weiterhin Gefahr, von anderen Presseverlegern, Webseitenbetreibern et cetera abgemahnt und verklagt zu werden, die keine Mitglieder sind. Eine praktikable One-Stop-Shop-Lösung wird damit nicht erzielt. (zurück)

(5) Was nutzen Disclaimer und Erklärungen auf der Website?

Das Gesetz schadet auch und vor allem den vielen Inhalteanbietern, die nun gegen ihren Willen Leistungsschutzrechte besitzen. Die meisten Blogger und Verlage wollen schließlich, dass ihre Angebote indexiert, gefunden und mit Snippets in Suchtechnologien angezeigt werden. Verschiedene große Seiten haben bereits Erklärungen veröffentlicht, in denen sinngemäß steht: „Wir möchten gern weiterhin indexiert und auch unter Verwendung von Snippets gelistet werden.”

Solche Hinweise haben den Vorteil, ein klares Statement zu sein. Sie haben aber den Nachteil, dass sie von Suchmaschinen nicht ausgelesen werden können. Anbieter solcher Technologien können schwerlich manuell Tausende von Websites auf solche Hinweise untersuchen und entscheiden, wer wie gelistet wird. Es braucht technische Lösungen, die bislang jedoch nicht in Sicht sind.

Bis dahin kann man als Anbieter von Presseerzeugnissen nur hoffen, dass Suchmaschinen und Aggregatoren nicht mit De-Listings oder dem Verzicht auf Snippets reagieren. Kommt es dazu, würde deren Reichweite im Zweifel erheblich einbrechen. (zurück)

(6) Was bedeutet das Leistungsschutzrecht für Dienstanbieter?

Noch weniger eindeutig ist die Frage geklärt, wer Adressat des Leistungsschutzrechtes sein soll und was Dienstanbieter tun müssen, um auch künftig im legalen Rahmen zu operieren. Schon die Definition des Dienstanbieters eröffnet erheblichen Spielraum für Interpretationen.

Adressat des Gesetzes sind zunächst Suchmaschinen. Das sind natürlich die großen Unternehmen wie Google, Yahoo und Microsoft, aber auch die unzähligen Anbieter kleiner Suchmaschinen. Die einzige Grenze besteht darin, dass der Anbieter „gewerblich” handeln muss. Dieses Merkmal ist aber – wie auch sonst im Urheberrecht – im Zweifel eher weit zu verstehen. So wird es nicht erforderlich sein, Gewinn zu erwirtschaften, um unter das Gesetz zu fallen. Ob einzelne Werbebanner, mit denen nicht einmal die Kosten wieder eingespielt werden, für eine Gewerblichkeit ausreichen, werden erneut Gerichte klären müssen. (zurück)

(7) Was ist mit der Suchfunktion auf der eigenen Website?

Laut Gesetzesbegründung (PDF) sind webseiteninterne Suchfunktionen ausgenommen. Offen ist dabei aber, ob in die eigene Webseite implementierte Suchfunktionen („powered by Google”), mit denen man neben dem eigenen Datenbestand auch allgemein im Web suchen kann, darunter fallen. Es stellt sich sogar die Frage, ob der Webseitenbetreiber damit zum Suchmaschinenanbieter wird, oder ob sich etwaige Ansprüche aus dem Leistungsschutzrecht auf den Suchmaschine-Betreiber beschränken. Eine Antwort gibt es derzeit nicht.

Im Zweifel empfiehlt es sich bis auf weiteres, solche Funktionen zu deaktivieren. (zurück)

(8) Was ist mit sozialen Netzwerken?

Neben vertikalen Suchdiensten, die das ganze Netz indexieren, sollen auch horizontale Dienste vom Leistungsschutzrecht betroffen sein. Gemeint sind themenspezifische Suchfunktionen, wie News-Aggregatoren. Das Gesetz nennt sie „Dienste, die Informationen ähnlich [wie Suchmaschinen, Anm. des Autors] aufbereiten”. Auch diese Formulierung eröffnet großen Interpretationsspielraum. In der Gesetzesbegründung (PDF) ist die Rede von „systematischen Zugriffen” und Diensten, die nach „Art einer Suchmaschine ihre Treffer generieren”. Damit ist lediglich gesagt, dass nur automatisch operierende Suchtechnologien unter das Leistungsschutzrecht fallen. Wer Quellen manuell auswählt, also beispielsweise per Hand Linklisten erstellt, braucht sich um das Gesetz nicht zu kümmern.

Ob damit Angebote wie Facebook oder Twitter suchmaschinenartig sind, werden Gerichte entscheiden müssen. Das wird aber nur die Betreiber betreffen. Dass ein Facebook-Nutzer, der Links und damit Snippets postet, Adressat des Leistungsschutzrechtes wird, ist wohl auszuschließen. Denn er betreibt keine Suchmaschine. (zurück)

(9) Ist es überhaupt möglich, das Gesetz einzuhalten?

Wenn man eine Suchmaschine oder einen ähnlichen Dienst in diesem Sinne betreibt, gehen die Schwierigkeiten aber erst los. Denn es ist derzeit für einen Suchdienst, egal ob horizontal oder vertikal unmöglich, das Gesetz einzuhalten. Schließlich würde das erfordern, für alle Webangebote, die nach der Definition des Leistungsschutzrechtes Presseerzeugnisse sind, Rechte einzuholen.

Abgesehen davon, dass es keine zentrale Stelle für die Lizenzierung gibt, dürfte dieser Versuch schon daran scheitern, überhaupt herauszufinden, welche Webseiten unter den Begriff des Presseerzeugnisses fallen. Die einzige Strategie, und das macht die Ironie dieser Gesetzesnovellierung besonders deutlich, ist es, sich um das Leistungsschutzrecht herumzudrücken. Mit anderen Worten: Den Anbietern von Suchdiensten bleibt nichts anderes übrig, als ihre Angebote so zu gestalten, dass sie nicht unter das Gesetz fallen. (zurück)

(10) Wie können Vermeidungsstrategien aussehen?

Natürlich kann jede Publikation, die entfernt an ein Presseerzeugnis erinnert, aus Suchergebnissen entfernt werden. Naheliegender ist der Versuch, Suchergebnisse so zu gestalten, dass sie gar nicht vom Leistungsschutzrecht betroffen sind. Das Gesetz schließt „nackte Links” aus. Wie jedem bekannt sein dürfte, sind sie jedoch als alleiniges Suchergebnis unnütz. Weil das so ist, hat der Gesetzgeber selbst einen Vermeidungsmechanismus geschaffen. In einer letzten Iterationsschleife (vulgo: Schnellschuss) hat er letztlich davon Abstand genommen, jede Art Snippet dem neuen Recht zu unterwerfen. Sinngemäß heißt es im Gesetz nun: Das Leistungsschutzrecht ist irrelevant, wenn nur der Link sowie eine „knappe, aber zweckdienliche” Beschreibung in Form einzelner Worte oder „kleinster Textausschnitte” angezeigt werden. Nur wer mehr anzeigen will, läuft in das Dilemma, sich unmöglich rechtskonform verhalten zu können.

Soweit so gut. Was aber ist ein kleinster Textausschnitt? Im Bundestag konnte man sich nicht einigen, das konkreter zu fassen, die Begründung beschränkt sich auf die vage Erläuterung: „Die Empfehlung soll sicherstellen, dass Suchmaschinen und Aggregatoren ihre Suchergebnisse kurz bezeichnen können, ohne gegen Rechte der Rechteinhaber zu verstoßen. (…) Einzelne Wörter oder kleinste Textausschnitte, wie Schlagzeilen, zum Beispiel ‚Bayern schlägt Schalke’, fallen nicht unter das Schutzgut des Leistungsschutzrechtes. Die freie, knappe aber zweckdienliche Beschreibung des verlinkten Inhalts ist gewährleistet. Suchmaschinen und Aggregatoren müssen eine Möglichkeit haben, zu bezeichnen, auf welches Suchergebnis sie verlinken.”

Die Debatte, was eine „knappe, aber zweckdienliche” Beschreibung ist, hat in juristischen Fachzeitschriften längst begonnen. Verlagsnahe Juristen haben sich jüngst bemüht, schlüssig zu begründen, dass nur noch der Link und die Überschrift des verlinkten Ergebnisses angezeigt werden dürfen. Umfangreichere Snippets müssten lizenziert werden und wären damit nicht mehr möglich. Das aber wäre fatal. Da die Überschrift allein – gerade bei Nachrichtenartikeln – eine gezielte Auswahl des gewünschten Suchergebnisses nicht zulässt, würde die effiziente Suche nach journalistischen Inhalten so erheblich erschwert, wenn nicht gar unmöglich.

Andere Juristen vertreten die Meinung, dass die elf bis fünfzehn Worte des durchschnittlichen Snippets in der allgemeinen Google-Suche die Grenze des gesetzlichen Vermeidungsmechanismus’ darstellen. Wieder andere sagen, dass jeder Snippet ein „kleinster Teil” ist. Und schließlich ergibt die Literaturrecherche (wohlgemerkt: über ein Gesetz, das noch nicht einmal in Kraft getreten ist) die Meinung, dass die Beurteilung des „kleinsten Teils” von der Länge des Beitrags abhängt, auf den verlinkt wird. Damit wäre die zulässige Länge eines Snippets eine Einzelfallfrage, was wiederum den Tod effizienter, automatisierter Suchdienstleistungen bedeuten würde.

Fakt ist, dass niemand diese Frage derzeit mit hinreichender Sicherheit beantworten kann. Der Gesetzgeber hat sehenden Auges ein neues Betätigungsfeld für Anwälte und Gerichte geschaffen. Man kann nur hoffen, dass dies unter den Großen wie Google und Springer ausgetragen wird und nicht auf dem Rücken der kleinen Anbieter. (zurück)

(11) Was bedeutet das für Journalisten?

Einerseits stellt sich die Frage, ob Journalisten benachteiligt werden, weil das Leistungsschutzrecht sie an der Zweitverwertung ihrer Beiträge hindert. Zum anderen ist fraglich, ob sie von etwaigen, mit dem Gesetz erzielten Einnahmen der Verleger profitieren werden.

Der Gesetzgeber hat versucht, jegliche Beeinträchtigung für Journalisten auszuschließen. Auf der einen Seite sind sie – sofern sie nicht ausnahmsweise eine Suchmaschine oder einen News-Aggregator betreiben – nicht Adressat der Ansprüche. Sie müssen also zumindest für ihre eigenen Blogs und Webseiten keine Rechte einholen oder sich mit den Vermeidungsstrategien beschäftigen.

Andererseits kann das Leistungsschutzrecht nicht „zum Nachteil des Urhebers (…) geltend gemacht werden”. Was das bedeuten soll, ist gänzlich unklar. So wäre es gerade für freie Journalisten ein Nachteil, wenn ein Verlag, für den sie schreiben, die oben genannte Einwilligung für Google News nicht abgibt. Denn dann würden ihre Beiträge dort nicht gelistet und der Journalist würde Aufmerksamkeit und Reichweite verlieren. Dass ein Journalist aus diesem Grund einen Verlag zum Opt-In bei Google News zwingen könnte, ist aber höchst unwahrscheinlich. Wahrscheinlicher ist, dass es sich bei der Formulierung eher um ein Relikt aus einer früheren Gesetzesversion handelt, die – vermutlich versehentlich – in der überarbeiteten Fassung nicht entfernt wurde.

Auch in Bezug auf die Einnahmen der Journalisten sind noch viele Fragen offen. Der Gesetzgeber hat immer wieder hervorgehoben, dass auch die Urheber wirtschaftlich vom Leistungsschutzrecht profitieren sollen. Im Gesetz heißt es daher, dass die Urheber an einer etwaig erzielten Vergütung „angemessen zu beteiligen” sind. Auch darüber wird man sich trefflich streiten. Verlagsnahe Juristen vertreten die Ansicht, dass die Beteiligung der Urheber im Zweifel bei null liegen wird. (zurück)

(12) Was bedeutet das Gesetz für die Internetnutzer?

Wer keine Suchmaschine und keinen Aggregator anbietet, ist durch das Leistungsschutzrecht nicht betroffen. Es kann weiterhin gebloggt, verlinkt und zitiert werden – natürlich nur in dem vom Urheberrecht gesetzten Rahmen. (zurück)

Fazit

Im Vorfeld waren sich (fast) alle unabhängigen Beobachter einig: Das neue Recht wird kaum einen Nutzen haben, aber viel Schaden und Rechtsunsicherheit verursachen. Genau das ist nun eingetreten. Zwar hat sich der Gesetzgeber überzeugen lassen, den Anwendungsbereich des Leistungsschutzrechtes so klein zu halten, dass er kaum noch feststellbar ist. Bedenkt man, dass am Anfang zur Debatte stand, mehr oder weniger jede berufstätige Person, die gesamte deutsche Wirtschaft und jeden Blogger mit dem Gesetz zu belasten, ist dies immerhin ein Erfolg.

Dennoch: Das in Kraft tretende Rudiment wird nur Schaden anrichten. Google hat mit seinen Maßnahmen schon jetzt klargemacht, dass man sich nicht dazu zwingen lässt, für Snippets zu bezahlen. Andere Dienstanbieter werden vorwiegend auf Vermeidungsstrategien setzen und hoffen, damit durchzukommen.

Dabei werden sie ebenso wie die Inhaltsanbieter mit ihren offenen Fragen und der damit einhergehenden Rechtsunsicherheit allein gelassen. Die einen wissen nicht, ob und wie sie zukünftig noch über Suchtechnologien auffindbar sind oder wie sie es anstellen sollen, dass ihre Reichweite und Publizität nicht beschädigt wird. Die anderen werden an der Frage verzweifeln, wie sie ihre Dienste rechtskonform, daher wohlgemerkt abseits vom Leistungsschutzrecht ausgestalten sollen. Sie werden auslisten, nur noch nackte und damit nutzlose Links anzeigen, ihre Dienste einstellen oder gar nicht erst auf den deutschen Markt kommen. Frank Westphal, Betreiber des News-Aggregators Rivva, hat beispielsweise bereits angekündigt, auf Snippets zukünftig verzichten zu wollen. Eine Lose-Lose-Situation.

Dieser Artikel ist zuerst erschienen bei Zeit Online.

July 05 2013

Open-Source-Konsole OUYA: Keine Revolution, aber Trainingslager für Entwickler

Die Spielekonsole OUYA wurde per Crowdfunding ins Leben gerufen und folgt einem Open-Source-Ansatz. Jeder kann Spiele für die Plattform entwickeln. Den Games-Markt wird sie nicht revolutionieren. Dennoch könnte sie neue Impulse setzen, von denen vor allem die etablierten Entwicklerstudios profitieren dürften.

Die Idee hinter der OUYA klingt äußerst vielversprechend: Eine Open-Source-Spielkonsole auf Android-Basis, die jedem Hobby-Entwickler die Möglichkeit gibt, Spiele zu programmieren und zu veröffentlichen. Lizenzgebühren gibt es nicht – alles, was man zum Entwickeln braucht, steckt in der Konsole selbst.

Hat man ein Spiel fertig entwickelt, lädt man es hoch. Nachdem es von den OUYA-Machern begutachtet und freigegeben wurde, kommt es in den Verkauf: Zunächst in die „Sand Box“, also die Grabbelkiste. Je mehr positives Feedback das Spiel bekommt, desto prominenter erscheint es dann im zugehörigen Onlinestore. Keine Frage: Es war noch nie so leicht für einen Entwickler, ein Spiel an die Spieler zu bringen.

Auch für viele Gamer erscheint die OUYA interessant: Der „Free to play“ genannte Ansatz gibt ihnen die Möglichkeit, sämtliche Spiele erst zu testen, bevor sie sich für oder gegen den Kauf entscheiden. Dazu kommt der niedrige Kaufpreis von 99 Dollar. Im Vergleich zu den vier- bis fünfmal so teuren Modellen von Microsoft und Sony ist das ein Schnäppchen, 119 Euro werden in Europa angepeilt. Entsprechend groß waren die Unterstützerzahlen, als es darum ging, die Konsole per Crowdfunding zu finanzieren, ebenso die Absatzzahlen direkt nach dem US-Verkaufsstart Ende Juni.

Die drei Probleme der OUYA

Doch so ganz geht die Rechnung nicht auf. Spätestens mit dem Verkaufsstart sind auch die Probleme zu Tage getreten, mit denen sich die OUYA konfrontiert sieht:

Die Hardware: Zwar konnte niemand ernsthaft erwarten, dass die OUYA den Branchenriesen Sony, Microsoft und Nintendo Konkurrenz machen würde. Aber ein wenig enttäuscht das Gebotene – bei aller optischen Eleganz – dann doch: Grafikchip, Arbeitsspeicher und Controller sind anständig, aber eben nicht mehr – so auch das bisherige Presseecho, etwa im Test bei golem.de.

Die Software: Einige bekannte Namen der Indie-Game-Szene sind auf der Plattform vetreten, der Löwenanteil der Spiele aber kommt von Kleinst-Studios oder Einzelpersonen. Es kann eben jeder für die OUYA programmieren. Doch nur weil man etwas kann, heißt das noch nicht, dass man es auch kann. Es steht zu befürchten, dass für jedes wirklich gelungene Spiel fünf halbfertige Fingerübungen und noch einmal so viele generische Klone eines altbekannten Spiels erscheinen werden. Die Suche nach den – auch jetzt schon durchaus vorhandenen – Perlen wird so äußerst mühsam, zumal ein wirklich verlässliches Bewertungssystem bislang fehlt. Die großen Studios zeigen bislang ohnehin nur wenig Interesse, Spiele für die OUYA zu veröffentlichen. Für sie fehlt der Nutzen, wenn sich auch die 15- bis 20 Mal teureren Varianten für die Xbox oder Playstation bestens verkaufen.

Die Zielgruppe: Für wen die OUYA sein soll, weiß wohl niemand so richtig. Hardcore-Gamer werden jedenfalls im Moment mit der OUYA wenig Freude haben. Die etwas mehr als 200 Spiele, die momentan angeboten werden, sind mehrheitlich charmante, aber eben auch schnell erschlossene kleinen Spielchen für zwischendurch. Echte erzählerische oder spielerische Tiefe findet sich hier bislang kaum. Das könnte sich irgendwann ändern, aber eine Garantie dafür gibt es nicht. Und für den klassischen Party-Spieler fehlen bei vielen der Spiele schlicht die Schauwerte: Zu simpel und altbacken sehen die meisten aus.

Entwickler-Spielwiese und Revival-Faktor

Bleiben die Entwickler. Die können sich auf der OUYA tatsächlich austoben. Doch ob die schlichte Zahl der hoffnungsvollen Jungprogrammierer ausreicht, um OUYA auch als Marke zu etablieren, ist fraglich. Und auch die werden im Moment noch alles andere als reich mit ihren Spielen: In den OUYA-Foren wird erfrischend offen darüber diskutiert, warum bislang noch so wenige Spiele heruntergeladen, geschweige denn gekauft wurden.

Das Problem liegt womöglich ebenfalls im „Free-to-Play“-Ansatz: Spiele mit Demo-Version verkaufen sich nur etwa halb so oft wie diejenigen ohne, so zumindest Studien der großen Spieleentwickler. Und auf der OUYA ist eben jedes Spiel umsonst anspielbar. Käufe auf Verdacht fallen somit weg. Die OUYA-Verantwortlichen werden nicht umhin kommen, sich ihre Nische im großen Spielemarkt zu suchen.

Eine Chance könnte beispielsweise im „Revival-Faktor“ liegen: Da die Grafikleistung ohnehin nicht an die der aktuellen – geschweige denn der nächsten – Konsolengeneration herankommt und die meisten Spiele optisch wie spielerisch eher unambitioniert daher kommen, wäre es naheliegend, alte Klassiker zu portieren und preisgünstig anzubieten. So könnte sich die OUYA einen Ruf als Retro-Konsole aufbauen. Mit „Final Fantasy III“ von Square Enix und „The Bard’s Tale“ von Electronic Arts ist immerhin ein Anfang gemacht. Auch SEGAs rasender Igel „Sonic“ findet sich auf der OUYA. Verhandlungen mit weiteren Publishern sollen angeblich bereits laufen.


Nische Retrogames: Hier zu sehen das Projekt „8bit Ninjas” des Entwicklers Ethan Redd

Was die OUYA-Plattform durchaus werden könnte, ist ein Trainingslager für Nachwuchs-Programmierer – und letzten Endes auch deren Sprungbrett. Die etablierten Entwickler-Studios werden genau hinschauen, was sich auf dem OUYA-Markt tut: Für sie ist er das perfekte Schaufenster für neue Ideen und Talente. Davon hätten dann wiederum auch die Gamer etwas: Viele Spiele, die sonst vielleicht nie das Licht der Welt erblickt hätten, könnten so ihren Weg auf den Bildschirm finden – allerdings nicht über die OUYA, sondern am Ende doch über die Laufwerke von Playstation und Xbox.

Dem kleinen, silbern-schwarzen Würfel OUYA könnte ein höchst undankbares Los blühen: Das eines Misserfolges, von dem dennoch alle anderen profitieren.

Christoph von Guaita, Jahrgang 1973, arbeitet als Journalist zu Computer- und Videospielen und als freier Mitarbeiter für RBB, MDR, SWR, Deutschlandradio und ARD.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl