Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 14 2014

Hyperlinks und Urheberrecht: Reaktionen auf das EuGH-Urteil

Gestern hat der Europäische Gerichtshof sein Urteil im Fall „Svensson“ gefällt: Verlinkungen auf frei zugängliche Quellen sind urheberrechtlich kein Problem. Wenn aber ein „neues Publikum“ mit Verlinkungen erreicht wird, kann die Sache wieder anders aussehen – und eine Verlinkung in das Recht zur „öffentlichen Wiedergabe“ eingreifen. Hier einige Reaktionen.

„Carry on linking!“, so das Fazit von Frances Robinson im Digits-Blog des Wallstreet Journal, der sich rundum zufrieden zeigt:

Happily for the Internet, the legal eagles of Luxembourg concluded that “The owner of a website may, without the authorisation of the copyright holders, redirect Internet users, via hyperlinks, to protected works available on a freely accessible basis on another site.”

Aber auch der US-Filmverband MPAA begrüßt das Urteil – konkret den Umstand, dass der EuGH Links auf nicht frei zugängliche Inhalte ausdrücklich ausgenommen hat. MPAA-Europachef Chris Marcich schreibt:

With this judgment, the CJEU confirms that the rightsholders have the power to define what public their protected work is intended for. Any link that would create other than the originally intended public constitutes an unauthorized act of communication to the public and thereby infringes copyright.

Anwalt und Financial-Times-Justiziar John Halton sieht in der vom Europäischen Gerichtshof stark gemachten Unterscheidung zwischen „neuen” und „altem“ Publikum jedoch noch einige Sprengkraft:

As I see it, though, the really critical question which Svensson bequeaths to us is this: Does this link communicate the work to a “new public”? I suspect that could turn out to be something of an unexploded bomb in certain circumstances.

Ähnlich findet auch Tomasz Targoz, Urheberrechtler an der Uni Krakau, Grund zur Beunruhigung. In seiner Urteilsbegründung habe der EuGH die Verlinkung gleichsam erst im letzten Moment „gerettet“, statt es etwa bei Haftungsfragen zu belassen und Links aus den Verwertungsrechten fernzuhalten. Im Kluwer Copyright Blog schreibt er:

There will be much wiser people pondering all of the above, I am certain, but it is too tempting not to ask: why couldn’t the CJ UE just say providing a link where there are other ways of access is not an act of communication (…). It would have been so much simpler.

Man kann den Eindruck bekommen, dass die Diskussion über Verlinkungen nicht enden will, auch wenn die Lage zumindest in Deutschland schon seit Jahren klar ist – anders als bis jetzt in anderen europäischen Ländern. Tim-Berners-Lee schrieb schon 1997 in einer Notiz über „Mythen beim Verlinken“, dass jede Erlaubnispflicht für Links Probleme nach sich ziehen würde. Er fügte seiner Notiz die Bemerkung hinzu:

Status: personal view only. Editing status: not perfect.

Zumindest damit hat er Recht behalten.

February 13 2014

Europäischer Gerichtshof: Verlinkung bleibt urheberrechtsfrei, wenn Inhalte frei zugänglich sind

Wer eine frei zugängliche Website verlinkt, braucht dafür keine Genehmigung eines Rechteinhabers. Was in Deutschland ohnehin schon klar schien, hat jetzt auch der Europäische Gerichtshof bestätigt. Aber auch für das Einbetten von Inhalten könnte dasselbe gelten.

Verlinkungen auf frei zugängliche Quellen im Netz sind keine urheberrechtlich relevante Nutzung – wer verlinkt, braucht dafür weder eine Genehmigung noch muss er zahlen. Dieser Teil des Urteils, das der Europäische Gerichtshof heute im Fall „Svensson“ gefällt hat, kommt wenig überraschend. In Deutschland hatte der Bundesgerichtshof im Fall „Paperboy“ schon 2003 vergleichbar entschieden.

Was evident erscheint, sorgt juristisch jedoch bis heute für Streit. Im jetzt vom Europäischen Gerichtshof ausgelegten Fall aus Schweden klagten vier Journalisten gegen den Monitoringdienst „Retriever“. Der Dienst sammelt neue Artikel zu einem Thema und weist angemeldete Nutzer auf die Fundstelle hin.

Dafür forderten die Journalisten – darunter der namensgebende Nils Svensson – eine Vergütung; sie hatten Artikel in der Zeitung „Göteborgs-Posten“ im Print und frei online veröffentlicht. Retriever-Nutzern sei nicht klar, dass sie auf die Nachrichtensite weitergeleitet würden. Retriever entgegnete, dass die jeweiligen Artikel lediglich verlinkt werden. In erster Instanz gewann Retriever, das Berufungsgericht rief dann den EuGH zu Hilfe.

Verlinkung schafft kein „neues Publikum“ bei frei zugänglichen Inhalten

Der EuGH hat jetzt entschieden: Zwar kann auch eine Verlinkung eine „öffentliche Wiedergabe“ im urheberrechtlichen Sinn sein. Dann müssten Rechteinhaber sie genehmigen. Wenn die verlinkte Seite aber frei zugänglich ist, wird damit keine neue Öffentlichkeit geschaffen – und die Verlinkung bleibt erlaubt. Anders wäre es, wenn die verlinkten Inhalte vom Websitebetreiber geschützt werden, weil dann ein neues, größeres Publikum als vorher angesprochen werde. Auch das erinnert an eine weitere Entscheidung des Bundesgerichtshofs zur Verlinkung („Session-ID“).

Der konkrete Streit brachte weitere Fragen des schwedischen Berufungsgerichts mit sich. So hat der Gerichtshof entschieden:

  • Welchen Eindruck die verlinkte Seite beim Nutzer hervorruft, spielt keine Rolle. Auch wenn Nutzer den Eindruck haben, dass der verlinkte Inhalt auf der Ausgangsseite erscheint, ändert das nichts an der Sache. Dieser Punkt ist für den Streit um „Framing“ wichtig, wenn ein fremder Inhalt auf anderen Seiten eingebettet wird.
  • Strengere Regelungen der EU-Länder, als die Urheberrechtsrichtlinie der Europäischen Union vorsieht, sind bei der „öffentlichen Wiedergabe“ nicht erlaubt. Die EU-Länder dürfen also Hyperlinks nur soweit schützen, wie es die EU-Vorgaben hergeben.

Für Video-Embeds könnte Ähnliches gelten

Mit dem Urteil ist nun auch der Weg frei für eine weitere Entscheidung des EuGH über das Einbetten von Inhalten („Framing“). Der Bundesgerichtshof hat einen weiteren Streit über Youtube-Embeds an den EuGH verwiesen. Hier streitet ein Händler von Wasserfiltern mit einem konkurrierenden Hersteller, dessen Werbevideo der Händler einbettete. Das Urteil darüber wurde bis zur Svensson-Entscheidung in die Warteschleife geschickt.

Das Urteil heute legt nahe, dass auch Embeds ebenso behandelt werden wie Verlinkungen, solange mit einem Video-Embed kein „neues Publikum“ erreicht wird – Nutzer können eingebettete Videos schließlich auch anderswo sehen. Der Bundesgerichtshof fragt allerdings, ob beim Einbetten ein neues, „unbenanntes“ Verwertungsrecht ins Spiel kommen könnte. Dazu sagt der Europäische Gerichtshof im Svensson-Urteil nichts.

Kernfunktionalität des Internets

Im Vorfeld der Entscheidung hatte sich unter anderem die European Copyright Society, ein unabhängiger akademischer Zusammenschluss von Urheberrechtlern, mit einer Stellungnahme eingebracht. Das Verlinken gehöre zu den Kernfunktionen des Internets und sei unmittelbar mit der Meinungs-, Informations- und Gewerbefreiheit verbunden. Links als „öffentliche Wiedergabe“ im Sinne des Urheberrechts zu betrachten und lizenzpflichtig zu machen, sei ein „absurdes Vorhaben“.

Diesem Grundsatz hat sich der EuGH nur teilweise angeschlossen. Er hält es nicht prinzipiell für abwegig, dass Verlinkungen in die Verwertungsrechte von Urhebern eingreifen. Einige Rechteinhaber-Verbände vertreten die Position, dass bestimmte Verlinkungen Urheberrechte verletzen können, etwa bei illegalen Quellen oder beim Embedding – so die Position der Autorenvereinigung ALAIC oder der niederländischen Verwertungsgesellschaft BUMA. Die österreichische AKM und die GEMA haben das auch in der derzeit laufenden EU-Konsultation zum Urheberrecht vertreten.

January 11 2014

Storytelling im Netz: Das Jahr eins nach Snow Fall

Für Geschichtenerzähler begann das Jahr bereits am 20. Dezember 2012 in den USA: An diesem Tag stellte die New York Times „Snow Fall – The Avalanche at Tunnel Creek“ online. Ein Meilenstein, der zum Vorbild wurde. In Deutschland sind Verlage nur in Ausnahmefällen bereit, in neues Storytelling zu investieren.

Das Feature erzählt die Geschichte von 16 Ski- und Snowboardfahrern, die sich an einem Februartag des Jahres 2012 aufmachen zum Gipfel des Cowboy Mountain in den Kaskaden, etwa 120 Kilometer östlich von Seattle. Abfahren wollen sie nicht über das Skigebiet Stevens Pass, sondern über den Tunnel Creek, auf dem Rücken des Cowboys. Doch was als eine traumhafte Abfahrt durch unberührten Pulverschnee beginnt, endet in einem Fiasko. Die Gruppe wird von Schneemassen in den Abgrund gerissen.

Was die New York Times daraus gemacht hat, ist ein Meilenstein im Multi­media-Storytelling. In sechs Kapiteln protokolliert der Reporter John Branch­ das Geschehen. Nicht allein in einer ausführlichen Reportage, die detailliert den Hergang schildert, sondern auch in Videointerviews mit den Beteiligten. Mit Animationen, bei denen man zur Orientierung im Gelände sanft über die Berggipfel gleitet, als säße man in einem Segelflugzeug. Mit animierten Grafiken, die die Entstehung von Lawinen beschreiben. Mit Videomaterial aus einer an einem Skihelm befestigten Go-Pro-Kamera. Mit animierten Wetterkarten. Und mit der Darstellung einer Lawine, der man in Echtzeit beim Abgehen zusehen kann. Vielmehr: muss.

Ältere Projekte wirkten wie eine Leistungsschau

All das ist integriert in eine Technik, die die einzelnen Elemente jeweils erst offenbart, wenn sie an der Reihe sind. Der Leser … nein. Der Zuschauer … trifft es auch nicht. Am ehesten noch: Der Bestauner scrollt abwärts, folgt dem Lauf des geschriebenen Textes und sieht dabei zu, wie Animationen und Bilder ins Blickfeld hineingleiten und wieder verschwinden. Immer tiefer wird er auf diese Weise hineingezogen in eine Erzählform, deren Anfänge in den 1940er-Jahren liegen. Beim Parallax-Scrolling werden verschiedene Ebenen so kunstvoll miteinander verwoben, dass das Ergebnis mehr ist als die Summe seiner Einzelteile.

Damit markiert das Jahr 2013 eine Zäsur. Hinter uns liegt eine Zeit, in der viele mit den Möglichkeiten des multimedialen Erzählens experimentiert haben. Der überragende Wert des Netzes besteht darin, dass jede Geschichte genau die Form findet, die am besten zu ihr passt. Doch viele Projekte wirkten in der Vergangenheit weniger wie eine sinnvoll aufgebaute Erzählung als wie eine Leistungsschau, bei der Journalisten, Filmer und Programmierer demonstrieren wollten, was jeweils in ihnen steckt. Bei „Snow Fall“ dagegen werden Text, Ton, Fotografie, Animation, Grafik und Bewegtbild virtuos miteinander verwoben. Schon vorher gab es Projekte, die sich dieser Technik bedient hatten. Erst durch „Snow Fall“ wurde sie einem weltweiten Publikum bekannt.

Jede Geschichte hat ein angemessenes Gefäß

Doch bei aller Begeisterung: Das Projekt fordert sein Publikum auch ziemlich heraus. Will man sich dem Stück mit der gebotenen Aufmerksamkeit widmen, muss man dabei die Zeit investieren, die man auch für einen guten Dokumentarfilm braucht. Wer kann und will sich die nehmen, tagsüber im Büro, abends mit dem Laptop auf den Oberschenkeln? Die Geschichte wurde zwar bald darauf auch als E-Book veröffentlicht und verwandelte sich damit gewissermaßen in das Pendant zur Single-Auskopplung eines Musik-Albums. Doch in der Ipad-Version schnurrt das Feature zusammen auf die Substanz des Textes. Von dem Zauber der Multimedialität bleibt nichts übrig.

Auch das ist eine Erkenntnis dieses Jahres: Die Instrumente sind inzwischen ausgereift, um jede Geschichte in das ihr angemessene Gefäß zu gießen. Doch wir haben noch nicht die passenden Geräte, um das Ergebnis in einer Weise zu präsentieren, dass sie auch den vollen Zauber ausbreiten können.

Und trotzdem war zu spüren, dass „Snow Fall“ einen Standard gesetzt hatte. Nur wenige Monate später stellte der Guardian „Firestorm“ ins Netz. Das Feature erzählt die Geschichte einer Feuersbrunst, die Anfang Januar über Tasmanien wütete. Internationale Berühmtheit erlangte die Katastrophe durch ein Foto, das Tammy Holmes zeigt, die mit ihren fünf Enkelkindern unter einem Steg im Wasser kauert. Eingehüllt ist die Szenerie in das surreale Orange des Feuers. „Firestorm“ erzählt die Geschichte hinter diesem Bild – in einer so dramatischen und direkten Weise, dass man beinahe das Gefühl bekommt, selbst vor Ort gewesen zu sein.

In Deutschland setzen einzelne Web-Pioniere die Standards

Sieht man sich in Deutschland nach solchen Leuchttürmen um, steht man schnell im Dunkeln. Im Sommer veröffentlichte Zeit Online die liebevoll produzierte Hommage an die Tour de France zu deren hundertjährigem Jubiläum. Mit schön geschriebenen Porträts dreier Autoren, Filminterviews mit den Protagonisten, Videos aus der Tour-Geschichte und hübschen Ideen wie einer animierten Zeitleiste, auf der man sich mit einem Schieber durch die Evolution der Rennräder bewegen kann. Das Projekt ist ein guter Beweis dafür, dass es in Deutschland nicht am Talent und der Leidenschaft der Kreativen liegt, dass so wenig Innovatives entsteht – sondern an der Weigerung vieler Verlage, zu investieren.

Es sind hierzulande immer noch vor allem Web-Pioniere wie Uwe H. Martin, die die Standards setzen. Jahrelang hatte der Fotograf aus Hamburg über die tragische Situation indischer Baumwollbauern recherchiert, die die Kommerzialisierung des Saatguts zu Tausenden in den Selbstmord treibt. Auf eigene Kosten und mit der Hilfe von Stipendien hatte Martin sie besucht und interviewt.

KillingSeeds from Uwe H. Martin on Vimeo.

In diesem Jahr erlebte er gleich in zweifacher Hinsicht, dass sich das Durchhalten gelohnt hat. Nicht nur kaufte das Magazin Geo seine Filme, Fotos und eine Reportage und verarbeitete das Material unter anderem zu der beeindruckenden Ipad-Reportage „Der Stoff, der über das Leben entscheidet“. Martin gewann damit auch zwei Preise: den „Salus-Medienpreis“ und den „Deutschen Medienpreis Entwicklungspolitik“, bei dem er auch Teams öffentlich-rechtlicher Sender aus dem Rennen warf. Und was nicht minder schön ist: Geo bezahlte dafür sogar ein seriöses Honorar. Das ist in Deutschland immer noch eine Nachricht.

Finanzierung bleibt wackelig

Das beweist das Projekt der Filmemacherin Lela Ahmadzai, die in Afghanistan aufgewachsen ist. In dem aufwühlenden, knapp sechs Minuten langen Film „Stille Nacht“ zeigt sie die Gesichter hinter dem Amoklauf des Amerikaners Robert Bales. Am 11. März 2012 erschoss der Sergeant in Kandahar 16 Menschen. Der Film, zu dem es auch eine Website gibt, die die Hintergründe der Tat beleuchtet, stellt einen Bauern vor, der seine Mutter, seine Frau und sechs Kinder verlor. Und zeigt einen Sohn, der eine Nacht lang neben der Leiche seines Vaters kauerte. Fertig wurde er zum Jahrestag des Massakers.

Stille Nacht from 2470media on Vimeo.

Inhaltlich ist er von einer Intensität, ästhetisch von einer Kunstfertigkeit, dass man die Augen nicht abwenden kann. Die Produktionsfirma 2470media, die den Film gemeinsam mit Ahmadzai produziert hatte, schlug den Film vergeblich mehreren Verlagsportalen als redaktionellen Beitrag an. Damit er wenigstens ein breites Publikum findet, entschied sie sich schließlich, ihn kostenlos zur Verfügung zu stellen. Dieses Angebot nahmen mehrere Portale an. Wie man unter solchen Umständen wegweisende Webprojekte entwickeln kann, ist ein Geheimnis, das die Verlage vielleicht im kommenden Jahr lüften werden.

In der ursprünglichen Version dieses Textes und in der Printausgabe stand, dass der Film auch Zeit Online angeboten worden sei, wo er als „Netzfilm der Woche“ präsentiert wurde. Diese Information ist falsch. Wir bitten, den Fehler zu entschuldigen.

foto_kai-schaechteleKai Schächtele, 39, ist Journalist und Buchautor aus Berlin. 2011 war er gemeinsam mit Christian Frey mit dem Blog wintermaerchen2010.com zur Fußball-WM in Südafrika für den „Grimme Online Award“ nominiert. Die Tickets für die WM in Brasilien sind bereits gebucht. Foto: Thomas Duffé.

 


Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

January 06 2014

Computer müssen Isländisch, Lettisch, Litauisch und Maltesisch noch lernen

Sprachenvielfalt gehört zu Europa. Während für große Sprachen wie Englisch, Französisch und Spanisch automatische Übersetzungstechnologien verfügbar sind, klaffen bei anderen Sprachen große Lücken. Die europäische Initiative Meta-Net will das ändern.

Als Sprecher des Deutschen nimmt man bei der Nutzung aktueller Betriebssysteme, Rechner, Telefone und Internetdienste viele komfortable Annehmlichkeiten als gegeben hin. Natürlich steht der E-Mail-Dienst in einer deutschsprachigen Version zur Verfügung, der Kalender und die Tabellenkalkulation ebenfalls. Die Textverarbeitung ist seit Jahren in der Lage, Tipp- und einfache Grammatikfehler zu markieren. Besitzt eine Software keine deutschsprachige Schnittstelle, können sich viele Menschen mit dem Englischen behelfen.

Andere europäische Sprachen mit vielen Sprechern, speziell Spanisch, aber auch Französisch und Italienisch, schneiden ähnlich gut wie das Deutsche ab. Was ist aber mit den Sprachen mit deutlich weniger Sprechern, zum Beispiel Griechisch (circa 13 Millionen Sprecher weltweit), Tschechisch (circa 9,5 Millionen), Finnisch (circa 5 Millionen) und den noch kleineren, teils regionalen Sprachen wie Slowenisch (circa 2 Millionen), Baskisch (circa 650.000) oder Isländisch (circa 245.000)?

Die EU verfügt mit ihren 28 Mitgliedsstaaten über 24 offizielle Sprachen, im geografischen Europa werden mehr als 80 Sprachen gesprochen, hinzu kommen Sprachen von Immigranten, Diplomaten und Handelspartnern. Kann innerhalb der Union von einer solide aufgestellten digitalen Teilhabe gesprochen werden, wie sie für das Englische und die wenigen großen Sprachen gang und gäbe ist?

EU will übersetzen, schafft es aber nicht

In Wirtschaft und Wissenschaft mag das Englische den Status einer Verkehrssprache besitzen, im gesellschaftlichen Alltag jedoch nicht. Weniger als die Hälfte der etwa 500 Millionen Europäer besitzen Englischkenntnisse. Viele derjenigen, die die Sprache sprechen, tun dies nur auf geringem Niveau. Die politisch gewollte Dominanz einer Sprache ist keine Option, basiert Europa doch auf dem Prinzip der Einigkeit durch Vielfalt, auch in sprachlicher Hinsicht.

Tatsächlich betrachtet die EU unsere Sprachen als integralen und schützenswerten Teil des Kulturerbes, was sich unter anderem darin widerspiegelt, dass viele Jahre lang alle im Europaparlament geführten Debatten in alle offiziellen Sprachen übersetzt wurden. Aber trotz der weltweit größten Übersetzungsabteilung, die sich die europäischen Institutionen jährlich mehr als eine Milliarde Euro kosten lassen, können die eigenen, Mehrsprachigkeit favorisierenden Regularien nicht mehr in Gänze befolgt werden. Das Textvolumen ist so immens, dass Debatten, Resolutionen und Ausschreibungen nur noch selektiv übersetzt werden können.

Möchte man sich im Internet über ein Thema informieren, zu dem in der eigenen Sprache online keine Informationen vorliegen, in einer anderen jedoch schon, hat man zwangsläufig das Nachsehen. Sprachbarrieren sind das zentrale Hindernis bei der Schaffung eines gemeinsamen digitalen Binnenmarktes, wie er von der Europäischen Kommission propagiert wird. Noch besteht dieser aus isolierten Inseln, streng nach Sprachgrenzen getrennt. Da nur etwa ein Drittel der europäischen Bürger bereit ist, Produkte oder Dienstleistungen online zu kaufen, wenn der entsprechende Service nicht in der eigenen Muttersprache angeboten wird, verhindern Sprachbarrieren das Wachstum. Ideen, Innovationen, Wissen, Güter, Dialoge und Debatten können nicht ungehindert über Sprachgrenzen hinweg fließen.

Für kleine Sprachen fehlen Automatiken

Bei den heutigen Text- und Informationsmengen kann der Schlüssel zur Überwindung von Sprachgrenzen nur in möglichst vollautomatischen Übersetzungstechnologien liegen. Das europäische Exzellenznetzwerk Meta-Net hat im Rahmen der Studie „Europas Sprachen im digitalen Zeitalter“ 31 europäische Sprachen genauer untersucht. Die Studie, an der mehr als zweihundert Experten aus ganz Europa mitgewirkt haben, zeigt, dass mindestens 21 dieser Sprachen vom digitalen Aussterben bedroht sind. Für Isländisch, Lettisch, Litauisch oder Maltesisch existiert zum Beispiel keine ausreichende sprachtechnologische Unterstützung, um ihr digitales Überleben zu sichern.

Es fehlen nicht nur ausgereifte und einsetzbare Werkzeuge für Anwendungen wie Sprachein- und -ausgabe, sondern auch Basiswerkzeuge etwa für die syntaktische Analyse einzelner Sätze, die semantische Auflösung von Pronomina (worauf beziehen sich „er“, „sie“ oder „ihre“?) oder auch semantische Netze, die etwa „ist-ein“ oder „hat-Teil“-Beziehungen zwischen Konzepten wie „Mensch“ und „Lebewesen“ oder „Hand“ und „Finger“ repräsentieren.

Die Tabelle zeigt die alarmierenden Ergebnisse für das Anwendungsgebiet maschinelle Übersetzung:

ExzellentGutMittelFragmen­tarischSchwach bzw. keine EnglischFranzösischDeutschBaskisch SpanischItalienischBulgarisch KatalanischDänisch NiederländischEstnisch PolnischFinnisch RumänischGalizisch UngarischGriechisch Irisch Isländisch Kroatisch Lettisch Litauisch Maltesisch Norwegisch Portugiesisch Schwedisch Serbisch Slowakisch Slowenisch Tschechisch Walisisch

Bei vielen Sprachen klaffen massive Lücken bezüglich der Unterstützung durch maschinelle Übersetzungstechnologien. Oftmals existieren nur rudimentäre oder schlicht gar keine Technologien. Besonderes Augenmerk muss nun folglich auf die vielen Sprachen aus den beiden letzten Gruppen gelegt werden, sodass diese technologisch aufschließen und ihre Sprecher zum Beispiel online mit ähnlich guten Anwendungen und Werkzeugen hantieren können wie Sprecher des Englischen, Spanischen oder Französischen, speziell im Bereich maschinelle Übersetzung gesprochener oder geschriebener Sprache.

Politische Teilhabe erschwert

Europas Sprachenvielfalt beeinträchtigt nicht nur die internationalen Handels- und Finanzbeziehungen, sie erschwert auch die europäische Integration und Binnenkommunikation. So können EU-Bürger wichtige Themen nicht grenzübergreifend diskutieren. Debatten über die Finanzkrise, zum Beispiel zwischen Griechen und Deutschen, finden nur über die Medien und Politiker statt. Gerade soziale Netzwerke verändern die politische Partizipation fundamental, doch kann die EU auf Grund der Sprachenvielfalt nicht davon profitieren.­ Nach dem Unfall in Fukushima wurde in ganz Europa über Atomkraft diskutiert – allerdings nur innerhalb der Sprachgemeinschaften. Auf europäischer Ebene hat diese Diskussion nie stattgefunden. Benötigt werden Technologien, die derartige Debatten ermöglichen.

Um für die geschilderten Probleme und für alle Länder Europas langfristige Lösungen zu erarbeiten, werden viele Jahre intensiver Forschung benötigt. Zur Vorbereitung und Koordinierung dieser Initiative wurde 2010 das mittlerweile aus 60 Forschungszentren in 34 Ländern bestehende Exzellenznetzwerk Meta-Net ins Leben gerufen. Das Ziel von Meta-Net ist es, ein Europa ohne Sprachbarrieren zu errichten, in dem Informationen, Wissen und Ideen ungehindert verbreitet werden und neue internationale Märkte entstehen können, ohne dabei jedoch die sprachliche Vielfalt Europas zu gefährden.

Meta-Net hat eigens eine „Strategische Forschungsagenda“ für das mehrsprachige Europa 2020 entwickelt, die Anfang 2013 vorgestellt wurde. Dieses Strategiepapier ist das Ergebnis von mehr als zwei Jahren intensiver Kooperation von zweihundert Forschern aus Wissenschaft und Industrie, die demonstrieren, welche wirtschaftlichen und gesellschaftlichen Vorteile durch eine Fokussierung auf das Thema Sprachtechnologie entstehen können. Im Zentrum stehen dabei maschinelle Übersetzungstechnologien für alle europäischen Sprachen, die sowohl eine hohe Übersetzungsqualität liefern als auch robust und präzise arbeiten, etwa für syntaktisch nicht wohlgeformte Eingabesätze.

Siri und Google Now machen es vor

Das Strategiepapier erläutert, wie Europa seine Sprachvielfalt als Wettbewerbsvorteil nutzen kann. Die europäische Forschung erfüllt die besten Voraussetzungen, um eine führende Rolle in der nächsten IT-Revolution zu spielen, in der die Mensch-Maschine-Kommunikation zunehmend über gesprochene oder geschriebene Sprache stattfinden wird  – mit Siri und Google Now finden sich schon jetzt die ersten Vorboten dieser kommenden Technologierevolution in aktuellen Mobiltelefonen.

Von den drei großen Themenblöcken, auf die sich die Forschung in Europa in den kommenden Jahren konzentrieren sollte, ist die „Translingual Cloud” von zentraler Bedeutung. Diese Technologie soll Übersetzungsdienste für alle europäischen Bürger, Unternehmen und Organisationen bündeln und qualitativ hochwertige Ergebnisse durch maschinelle Übersetzung gesprochener und geschriebener Sprache bereitstellen, sodass diese Technologien nicht nur – wie alle aktuell verfügbaren Online-Systeme – benutzt werden, um sich schnell einen indikativen Überblick über einen Text zu verschaffen („inbound gist translation“). Ein Vorschlag ist die Entwicklung von Ansätzen, die für bestimmte Typen von Texten möglichst fehlerfreie Übersetzungen liefern, die dann etwa an externe Leser weitergegeben werden kann („high quality outbound translation“).

EU will Meta-Net unterstützen

Zur Realisierung seiner Anwendungsvisionen schlägt Meta-Net ein groß angelegtes Förderprogramm vor und ruft die EU, die Sprachgemeinschaften, alle Mitgliedstaaten und assoziierte Länder sowie Forschung und Industrie zu einer engen Zusammenarbeit auf. Im Rahmen seiner vierten Jahrestagung, Meta-Forum 2013, im September in Berlin wurden von internationalen Unternehmen und Verbänden, Fördereinrichtungen und nicht zuletzt von der Forschung der aktuelle Stand, jüngste Entwicklungen und insbesondere die nächsten Schritte diskutiert, um die oben nur angerissenen Ziele in die Realität umzusetzen.

Kurze Zeit später verzeichnete die Initiative entscheidende Fortschritte. Zunächst wurde der Forschungsplan der für die Digitale Agenda zuständigen Kommissarin Neelie Kroes präsentiert, die die Wichtigkeit und Dringlichkeit des Themas erkannt und Unterstützung signalisiert hat. Anfang Dezember schließlich wurde die Zukunft der maschinellen Übersetzung in einem Workshop im „Science and Technology Options Assessment“-Ausschuss des Europaparlaments diskutiert, der sich mittlerweile ebenfalls besorgt um die digitale Unterstützung von Europas Sprachen zeigt.

Im Rahmen des 2014 startenden EU-Förderprogramms Horizon 2020 werden gerade in die von Meta-Net als problematisch eingestuften Sprachen vermehrt Fördergelder investiert – ein erfreulicher Schritt in die richtige Richtung. Allerdings müssen in den kommenden Jahren weitere Investitionen folgen, um Europas Mehrsprachigkeit von einer wirtschaftlichen und gesellschaftlichen Barriere in ein Sprungbrett zu transformieren.

foto_georg-rehmGeorg Rehm ist am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) tätig und leitet dort gemeinsam mit Hans Uszkoreit die Initiative Meta-Net. Foto: Georg Rehm

.
Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

December 14 2013

Sexismus: Das Internet ist das Problem und seine Lösung

Feminismus wird wieder salonfähig: Der Twitter-Hashtag #Aufschrei hat netzfeministische Themen in die klassischen Medien gebracht und dafür 2013 den Grimme Online Award erhalten.

Keine Frage, der #Aufschrei ließ das netzfeministische Jahr 2013 mit einem lauten Knall beginnen: Kleinerdrei-Chefin Anne Wizorek, auf Twitter als @marthadear unterwegs, baute mit ihrer Kritik am Alltagssexismus eine Brücke zwischen digitaler Szene und dem Rest der Welt. Eine nötige Brücke über eine Kluft, die nach der Umstrukturierung der Mädchenmannschaft – der treibenden Kraft im deutschsprachigen Netzfeminismus – im Jahre 2012 stetig zu wachsen schien. Selbst die reichweitenstarke und gut aufgestellte Initiative Digital Media Women konnte diesen Graben aufgrund ihrer branchenfokussierten Ausrichtung nicht schließen.

Im Nachhinein scheint es jedoch fast so, als habe die Spaltung der 2012 noch eng verbundenen deutschsprachigen feministischen Netzwelt entscheidend zu deren Öffnung in Richtung Mainstream beigetragen. Dank der durch #Aufschrei erhöhten Sensibilisierung für Sexismus wuchs im Internet und schließlich auch offline der Konsens darüber, dass sexuelle Belästigung im Alltag nach wie vor ein drängendes Problem darstellt. Erstmals fanden auch englischsprachige Gemeinschaftsprojekte wie das Project Unbreakable oder Everydaysexism.com, die Opfern sexueller Gewalt eine Stimme geben, in Deutschland breitere Beachtung. Seiten wie diese erreichen weit mehr als hohe Klickzahlen: Laura Bates, die Gründerin von Everydaysexism.com, brachte das Unternehmen Facebook in beispielloser Geschwindigkeit dazu, härter gegen auf der Plattform veröffentlichte frauenfeindliche Inhalte vorzugehen. Innerhalb von nur sieben Tagen war im Mai 2013 eine Abmachung bezüglich der Zensur von gewaltverherr­lichenden Bildern und Texten erreicht.

Ein Erfolg, auf den Laurie Penny sicher anstoßen würde. Als Kämpferin in Sachen Cybersexismus begeisterte sie auf der diesjährigen Republica mit einem Vortrag zum Thema, in dem sie drei Fakten gleich zu Anfang klarstellte. Erstens: Frauenfeindlichkeit im Internet ist ebenso real wie auf der Straße. Zweitens: Es gibt im Netz eine Gegenbewegung, die sich für Freiheit und Gleichheit aller einsetzt. Und drittens: Das Internet ist in puncto Frauenfeindlichkeit gleichermaßen das Problem und dessen Lösung. Mit ihren Thesen zählt Laurie Penny ebenso wie Teresa Bücker, die zur Zukunft der Arbeit aus weiblicher Sicht referierte, zu den feministischen Denkerinnen des Jahres.

Der Zuwachs von Speakerinnen und weiblichen Podiumsgästen auf den Techkonferenzen war 2013 erfreulich. Damit die von der Republica oder der „Social Media Week“ formulierten hohen Frauenquoten-Ziele künftig tatsächlich erreicht werden können, bleiben Speakerinnen-Listen, wie sie auf Netzfeminismus.org oder bei Digital Media Women erhältlich sind, unerlässlich.

Auch die Wikimedia Foundation, Trägerstiftung der Wikipedia, bemühte sich um mehr weiblichen Input für ihre männlich dominierte Online-Enzyklopädie. Das im Sommer 2013 gestartete Pilotprojekt Women Edit lädt Frauen seit einigen Wochen zu offenen Treffen und Editierpartys ein. Dass Initiativen dieser Art fruchten können, bewiesen zum Beispiel die finnischen Rails Girls. Über ein Tutorinnensystem bringen Freiwillige weltweit jungen Frauen erfolgreich programmieren bei.

Immer wieder wurde im vergangenen Jahr anhand solcher Vorbilder deutlich, wie viel Selbstbewusstsein frau zunächst im Internet gewinnen und dann im Alltag nutzen kann. Selbst so vermeintlich exotische Anliegen wie das der Bewegung fat acceptance, die sich gegen die Diskriminierung stark Übergewichtiger stellt, fanden dank progressiver Webseiten wie Mädchenmannschaft im letzten Jahr ihren Weg in die deutsche Blogosphäre.

Wie auch in den Jahren zuvor ging Feminismus im Netz 2013 einher mit einer deutlichen Haltung gegen Benachteiligung aller Art. Die gemeinschaftliche Positionierung unterschiedlicher netzfeministischer Lager gegenüber der vom literarischen Feuilleton befeuerten N-Wort-Debatte machte beispielsweise deutlich, dass ein Konsens gegen rassistische und sexistische Bezeichnungen herrscht. Kübra Gümüsay, Nadia Shehadeh, Julia Probst und Ninia Binias sind nur vier nennenswerte Bloggerinnen, die der Öffentlichkeit im vergangenen Jahr einen Dienst taten, indem sie ihren von Ausgrenzungserfahrungen durchzogenen Alltag schilderten.

Monatelang erwartet wurde der Start der deutschsprachigen Huffington Post, einem Ableger der gleichnamigen amerikanischen Online-Zeitung, die einst von Arianna Huffington gegründet und seither als Flaggschiff der weiblichen Publizistik gefeiert wurde. Anders als dem eher linksliberalen Original wird der hiesigen Ausgabe allerdings Konservatismus unterstellt; innerhalb der netzfeministischen Szene blieb die Freude über die neue Plattform entsprechend gedämpft.

Ebenfalls kritisch betrachtet wurden verschiedene Oben-ohne-Protestaktionen der in der Ukraine gegründeten Aktivistinnengruppe Femen, die in Deutschland unter anderem gegen Wladimir Putins homophobe und kritikerfeindliche Innenpolitik demonstrierten.

Auch an anderer Stelle sorgte nackte Haut 2013 für Unruhe im Netz. Miley Cyrus, eine selten voll bekleidete Popsängerin, erhielt im Oktober einen offenen Brief von ihrer doppelt so alten Kollegin Sinéad O’Connor, in dem die Musikerin den Nachwuchsstar bat, sich nicht länger „für die männlich dominierte Musikindustrie zu prostituieren“. Was auf den ersten Blick wirkte wie belangloser Klatsch, erwies sich bei näherem Hinsehen als Neuauflage eines feministischen Dauerbrenners: Wie viel freier Wille steckt in halb nackter Eigenwerbung? Oder netzpolitisch: Wie selbstbestimmt ist die gefällige Aufgabe unserer Privatsphäre? Diese Fragen werden uns Frauen im Netz in Zeiten des NSA-Skandals und sekündlicher, spitzlippiger Instagram-Selfies sicherlich auch 2014 noch beschäftigen.

Erstens: Frauenfeindlichkeit im Internet ist ebenso real wie auf der Straße. Zweitens: Es gibt im Netz eine Gegenbewegung, die sich für Freiheit und Gleichheit aller einsetzt. Und drittens: Das Internet ist in puncto Frauenfeindlichkeit gleichermaßen das Problem und dessen Lösung.

foto_annina-luzie-schmidAnnina Luzie Schmid ist Bloggerin, Social-Media-Beraterin und freie Autorin. Gründerin des „Girls can blog“-Projektes. Veröffentlicht in diversen Magazinen und Zeitungen.

 

 

.

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* (Affiliate-Link) oder bei Beam.

October 13 2013

Digitale Weltbürger, Regulierung im Netz: Neue Bücher von Ethan Zuckerman, Ian Brown und Chris Marsden

Ethan Zuckerman will den „imaginären Kosmopolitismus” im Netz überwinden, Ian Brown und Christopher Marsden skizzieren eine bessere Internetregulierung: Zwei neue Bücher zur Netzpolitik mit unterschiedlichen, aber komplementären Perspektiven.

Mit dem Internet als weltumspannendem Kommunikationsnetzwerk sind wir auch zu digitalen Weltbürgern geworden – zumindest halten wir uns dafür. Denn dass wir trotz weltweiter Netze in Wahrheit weniger kosmopolitisch sind als wir glauben, ist die These von Ethan Zuckerman. „Rewire – Digital Cosmopolitans in the Age of Connection” beginnt mit der Beobachtung: Zwar können wir leichter als jemals zuvor Informationen aus aller Welt bekommen und in alle Welt verbreiten, doch das Bild, das wir uns von der Welt machen, ist meist ein kleiner Ausschnitt, der nicht viel größer ist als in Zeiten vor der digitalen Vernetzung.

Wir halten uns für digitale Kosmopoliten, so Zuckerman, doch „dieses Narrativ ist zugleich eine Marketingkampagne und eine unvermeidliche Konsequenz unserer Imagination”. Mit anderen Worten: Er konstatiert eine „unvollendete Globalisierung”: Wirtschaft und Handel sind schon lange global geworden, ausgerechnet die Bits aber hängen hinterher. Die Ursachen dafür sieht er zum einen in unseren Präferenzen und Gewohnheiten. Wer keine persönliche Beziehung dazu hat, was in Sambia passiert, wird schwerlich Blogs aus Lusaka lesen. So wie es in den Großstädten der Welt ein Viertel für diese, ein anderes für jene Minderheit gibt, so hängen wir auch im Netz immer wieder mit den gleichen Kreisen herum. Die Filterbubble von Eli Pariser lässt grüßen.

Neue Verbindungen herstellen

Zum anderen sucht Zuckerman, Direktor des Center for Civic Media am MIT und Mitgründer von Global Voices, Tripod.com und Geekcorps nach Erklärungen, die über individuelles Verhalten hinausgehen und macht dabei Station bei soziologischen Theorien: Bei Georg Simmel und seinen Triaden etwa: Wenn Jim mit Bob und Bob mit Sue befreundet ist, werden wahrscheinlich auch Jim und Sue Freunde. Das Dreieck schließt sich – mit dem Ergebnis, das existierende Verbindungen eher als andere verstärkt werden.

Vor allem interessiert sich Zuckerman für das, was die Sozialforscher Robert K. Merton und Paul Lazarsfeld Homophilie nannten: Den Effekt, nach dem wir uns eher mit ähnlichen Menschen umgeben – ethnisch, religiös, sozial, ökonomisch usw. –, ohne deswegen andere bewusst zu diskriminieren. Eine Idee, die auch den heutigen Empfehlungs-, Freundes- und Followeralgorithmen zugrundeliegt.

Zuckerman sieht darin eine Gefahr: „We can, and we must, rewire”, proklamiert er. Wer ein Bürger der Welt werden will, muss sich neu „verkabeln” – was technisch klingt, aber eher das Herstellen neuer Verbindungen meint. Drei Lösungen hat er auf dem Plan: Neben Übersetzungsarbeit wie bei Global Voices – Zuckerman erinnert daran, dass Englisch schon lange nicht mehr die herrschende Sprache im Netz ist – stellt er die Brückenfigur als Modell: Menschen, die sich zwischen verschiedenen Welten bewegen und Ideen in neue Kontexte bringen. Die CEOs multinationaler Unternehmen wie Indra Nooyi (Pepsi) oder Muhtar Kent (Coca Cola) sieht er als Pioniere einer solchen, globalen Klasse.

Global Voices

Man liegt aber wohl nicht verkehrt, wenn man bei den Brückenfiguren auch an Zuckerman selbst denkt, der lange Zeit in Ghana verbrachte, sein Blog „My heart is in Accra” nennt und dafür um die halbe Welt pendelte. In einer einprägsamen Passage beschreibt er genau das: Auf seinen regelmäßigen 20-stündigen Flügen von Massachusetts nach Accra las er den Economist, den Guardian und die New York Times. Dort angekommen, reichte er sie weiter. Auf dem Rückflug las er dann Accra Mail, African Business, Daily Graphic und New African und tat das gleiche in Massachusetts.

Zuckermans Projekt Global Voices überträgt die Idee ins Netz – Freiwillige übersetzen Blogs und Tweets aus allen Ländern. Doch den Aufmerksamkeitsfokus besonders der US-Medien zu ändern, gelang dem Projekt nicht, wie Zuckerman zugibt: Die Plattform wird zumeist erst dann konsultiert, wenn irgendwo ein Konflikt ausbricht. So berichtete Global Voices schon seit 2008 über die Entwicklungen in Tunesien – bis zur Jasminrevolution 2010 aber praktisch ohne Resonanz.

Die Filterbubble umkehren

Als dritten Ansatz schließlich denkt Zuckerman an ein Konzept names engineered serendipity. Darunter lässt sich soviel wie die technische Antwort auf die Filterbubble verstehen – Algorithmen, die nicht nur nach Ähnlichkeiten suchen und mehr als das empfehlen, was der soziale Graph nahelegt. Vorbild sind ihm hier die Stadtplanung und Konzepte wie das der Urbanistin Jane Jacobs. Durch diese werden – wenn der Ansatz gelingt – Mischungen und zufällige Begegnungen ermöglicht, statt geschlossene Bereiche abzuzirkeln. Sein Vorschlag klingt spannend, aber seine Schilderung bleibt hier noch etwas unkonkret.

So oder so: Man mag Zuckerman an einem Punkt zustimmen, am nächsten nicht. Seine Kunst aber liegt darin, wie er persönliche Erfahrungen mit Theorien verwebt, seine Argumente abwägt und man als Leser stets folgen kann, warum er sie vertritt. Seine desillusionierende Botschaft bringt ihn in die Nachbarschaft der Thesen Evgeny Morozovs, doch im Unterschied zu diesem fehlt bei Zuckerman zum Glück der denunziatorische Unterton.

Alte und neue Regulierung

Ganz anders wiederum der Ton in „Regulating Code”: Ian Brown und Christopher Marsden schreiben so auffällig distanzierte, nüchtern-akademische Texte, dass man den netzpolitischen Gehalt fast überliest. Man muss schon bereit sein, sich durch Erörterungen über ihren projektierten „vereinheitlichten Forschungsrahmen” und die allgegenwärtigen, penibel zusammengestellten Tabellen durchzuarbeiten. Dann aber bieten Brown und Marsden – der eine Informatiker und Forscher am Oxford Internet Institute, der andere Rechtsprofessor an der Uni Essex – eine Perspektive an, die viel dazu beitragen kann, Entwicklung und Irrwege in der Internetregulierung zu verstehen.

Wer beim Wort „Regulierung” schon nervös wird, sollte es übrigens nicht falsch verstehen: Auch die Selbstregulierung fassen sie darunter, gerade weil sie einen weitgehenden Verzicht auf staatliche Eingriffe darstellt. Und sie stellen sie zwei weiteren Modellen gegenüber: dem Souveränitätsansatz einerseits – sozusagen der staatlichen Holzhammermethode, besonders deutlich in Zensurbestrebungen erkennbar. Dem Koregulierungsmodell andererseits – in der Internet Governance als Multistakeholder-Ansatz bekannt, der Wirtschaft, Regierungen, Zivilgesellschaft und Forschung zusammenbringt. Für diesen lassen sie deutliche Sympathien erkennen.

Code is law, law is code

In fünf case studies untersuchen Brown und Marsden die Auseinandersetzungen über Regulierung in Datenschutz und Urheberrecht, bei Zensur, sozialen Netzwerken und Netzneutralität. Zu ihren Forschungsfragen gehört, wer die zentralen Akteure sind, welche Ergebnisse erreicht wurden, wie Menschen- und Bürgerrechte dabei eingeflossen sind, wie die Auswirkungen auf Wettbewerb und Allgemeinwohl waren.

Wie schon Lawrence Lessig („Code is law”), betonen sie die Wechselwirkungen von Code und Recht: So hat die Entwicklung und Verfügbarkeit von kryptographischen Verfahren oder von Peer-to-peer-Protokollen bis heute Auswirkungen darauf, welche Regulierungsmacht der Staat hat und wie er Informationsflüsse kontrollieren kann. Umgekehrt wirken regulatorische Maßnahmen – etwa Exportregeln oder die Durchsetzungspolitik im Urheberrecht – auf technische Entwicklungspfade und Möglichkeiten zurück.

„Regulating code”: Slides von Ian Brown und Chris Marsden
.

Lobbynomics

In der Urheberrechtspolitik etwa machen sie als durchsetzungsstärkste Akteursgruppe die Rechteinhaber aus – was nicht heißt, dass sie auch die erfolgreichste wäre. Im Gegenteil, so schreiben sie: „Die großen Rechteinhaber haben fast zwei Dekaden damit verbracht, die Beschaffenheit des Internets und des Computers im Sinne von Geschäftsmodellen zu ändern, die auf der Knappheit von Kopien und der Kontrolle über sie basieren – mit wenig Erfolg”. So wurden die gerichtlichen Auseinandersetzungen um Napster – dem ersten weitverbreiteten Filesharing-System – eher zum Pyrrhussieg: spätere Systeme wurden ausgetüftelter, machten die Haftungsfrage schwieriger, die technische Entwicklung im legalen Bereich stand lange weitgehend still, damit auch die Entwicklung neuer Erlösmodelle für Urheber und Verwerter.

Weitgehend durchsetzen konnten die Rechteinhaber ihre Vorstellungen dagegen auf internationaler Ebene – etwa beim rechtlichen Schutz für Kopierschutz im Rahmen der WIPO-Verträge, später beim TRIPS-Abkommen. Zum Preis, die Zivilgesellschaft auszuschließen, die Wissenschaft weitgehend zu ignorieren und Entwicklungs- und Schwellenländer zu schikanieren, wie die Autoren festhalten. Erst mit dem Stopp von SOPA und ACTA ergab sich ein anderes Bild – ob auch eine Trendwende, lassen die Autoren offen. Am Ende zeige die Entwicklung der Urheberrechtspolitik jedenfalls, welchen Schaden eine an den lobbynomics einzelner Interessengruppen ausgerichtete Urheberrechtspolitik anrichten könne.

Ziel: Interoperabilität

Im Vergleich der jeweiligen case studies konstatieren die Autoren schließlich monopolistische Tendenzen in allen untersuchten Märkten, angetrieben durch Netzwerk- und Skaleneffekte: „Der Nutzer wird zum Gefangenen seines eigenen Tuns”. Dagegen erweise sich die Wettbewerbspolitik sowohl in den USA als auch in der EU als zu langsam und ineffektiv, etwa im Fall der Microsoft-Kartelluntersuchungen. Umso wichtiger wird für Brown und Marsden eine am Ziel der Interoperabilität ausgerichtete Regulierung, für die sie Ansätze im Interoperability Framework der EU-Kommission erkennen.

Solche Ansätze gelte es auszubauen, um offene Daten und offene Standards voran zubringen und die Meinungsfreiheit zu stärken. Statt langwieriger Kartellverfahren ziehen sie etwa in Erwägung, Must-carry-Regeln und Vorschriften zur Offenlegung von Schnittstellen auch auf Drittentwicklungen und die Protokolle von geschlossenen Plattformen auszuweiten. Die walled gardens von Amazon, Apple, Facebook und Google könnten damit geöffnet werden.

Mit ihrem Plädoyer, zivilgesellschaftliche Organisationen wie Creative Commons oder die Free Sotware Foundation etwa bei Standardisierungsfragen stärker einzubeziehen, wird ihre Advocacy-Perspektive noch deutlicher, die Brown auch in seiner Tätigkeit für die Open Rights Group und Privacy International einnimmt.

Wohin das Netz sich entwickelt

Mit „Regulating Code” setzen Brown und Marsden zugleich dort an, wo Zuckerman aufhört (oder anfängt): Dass es ein weltumspannendes, offenes Internet gibt, wird in „Rewire“ praktisch vorausgesetzt. Brown und Marsden zeigen, wie stark genau dieses weltumspannende, offene Internet ein Ergebnis regulatorischer Entwicklungen und Entscheidungen ist – wenn auch häufig gegen den erklärten Willen des Regulierers, aber als Folge des Wechselspiels von Code und Recht.

Interessant wäre es, die Perspektiven von Zuckerman, Brown und Marsden um die Auswirkungen des Überwachungs- und Spionageskandals zu erweitern (beide Bücher sind vor den Enthüllungen erschienen). Welche Folgen er auf Internet Governance und -Regulierung haben wird, lässt sich erst an Ansätzen erkennen. Ob das „Multistakeholder-Modell“ mit vagen Formeln wie „internet freedom“ noch so tragfähig ist wie bisher, muss sich erst erweisen. Auch ob Entwicklungen wie jetzt etwa in Brasilien das offene Internet erhalten oder zu einer Renationalisierung durch die Hintertür führen, scheint keineswegs ausgemacht. Jedenfalls: Sowohl Brown und Marsden als auch Zuckerman verdienen es, gelesen und weitergedacht zu werden.

Ethan Zuckerman: Rewire – Digital Cosmopolitans in the Age of Connection, Norton, 2013 , ca. EUR 18,95 (Print), EUR 17–19 (E-Book).

Ian Brown, Christopher T. Marsden: Regulating Code – Good Governance and Better Regulation in the Information Age, MIT Press 2013, ca. EUR 29,95 (Print), ca. EUR 20,72 (E-Book).

October 10 2013

„Im Sog des Internets“: Liberale Denker und Wissenschaftler über Öffentlichkeit und Privatheit

Ein neuer Sammelband widmet sich der Privatsphäre, ihren Grenzen und deren Schutz in der digitalen Welt. In typisch wissenschaftlicher, aber nur vereinzelt schwer verdaulicher Manier geht es den Autorinnen und Autoren in acht klugen, gut aufeinander abgestimmten Texten weniger um endgültige Antworten, stattdessen um die Abwägung von Thesen und historische Entwicklungen. So bietet der Band einer breiten Leserschicht Basiswissen.

Die Veröffentlichung dieses Buches geriet mitten in die Debatten um die Abhörpraktiken von NSA, GCHQ & Co. und kommt sozusagen zum richtigen Zeitpunkt. Das zugehörige Forschungsprojekt „Privatheit und Öffentlichkeit im digitalen Zeitalter“, angesiedelt am „John-Stuart-Mill-Institut für Freiheitsforschung” der privaten SRH-Hochschule Heidelberg und dem Arbeitsbereich „Public History” der Uni Heidelberg, begann allerdings schon 2012, weit vor den jüngsten Enthüllungen.

Acht Aufsätze, viele richtige Fragen

Genau für die jetzt wichtige Diskussion über gesellschaftliche Grundsatzfragen bietet sich das vorliegende Buch an: mit wissenschaftlichen und politischen Betrachtungen wie Bewertungen von Privatheit und Öffentlichkeit im Lauf der jüngeren Geschichte und aus heutiger Sicht. Die insgesamt acht Aufsätze und verschriftlichten Vorträge stellen zum Ausgangsthema konkrete und viele richtige Fragen: Etwa, wie sich unser aller Verständnis von Privatheit und unser Umgang mit ihr in den vergangenen Jahrzehnten änderte; oder ob es jetzt neuer Spielregeln bedarf, etwa neuer Gesetze.

Privatsphäre als zu erstreitendes Recht

Zum Auftakt analysiert Max-Otto Baumann die Unterschiede in den Positionen der bis September im Bundestag vertretenen Parteien zum Datenschutz und zum Schutz der Privatsphäre in Web 2.0 und sozialen Netzwerken. Diesen Schutz betrachtet Baumann als eine Aufgabe, die nur die Politik verbindlich lösen könne. Die dazu von ihm geleitete Forschung bezieht sich zwar auf die Positionen der letzten schwarzgelben Bundesregierung und des Oppositionslagers aus SPD, Grünen und Linken. Gleichwohl sind die Analysen hilfreich und die Erkenntnisse und Schlüsse dazu noch nicht überholt. Baumann betont, dass trotz abweichender Haltungen der politischen Lager zu Datenschutz und Privatsphäre für die moderne Gesellschaft eine übergeordnete Herangehensweise erforderlich sei.

Doch solch ein Konzept, das jenseits politischer Machtkonstellation langfristig tragfähig wäre – Baumann schlägt hierfür als Trägerfrequenz die politische Idee des Liberalismus vor – würden am Ende nicht Parteien oder Fraktionen aushandeln. Vielmehr müssten es die Bürger selbst einfordern: „Historisch jedenfalls wurden die Bürgerrechte gegen den Staat erstritten und es könnte sein, dass im Zeitalter der Digitalisierung die Privatsphäre ein Recht ist, das erneut gegen den Staat und mithilfe staatlicher Normsetzung auch gegen Dritte, konkret die Wirtschaft, erstritten werden muss.“

Verschmelzung von privater und öffentlicher Sphäre im Web

Wo beginnt im Zeitalter von sozialen Netzwerken, Cloud Computing & Co. die Privatsphäre – wo hört sie auf? Oder findet bereits eine „Verschmelzung von privater und öffentlicher Sphäre im Internet“ statt, wie Göttrik Wewer seinen Text übertitelt? Ihn interessiert das Verhalten der Nutzer, die durch Mitteilsamkeit und Offenheit die Grenzlinie kontinuierlich verschieben – ohne genau das aber ausdrücklich gewollt zu haben.

So schreibt er: „Privatheit wird nicht nur von einem Staat und einer Wirtschaft bedroht, die zu viele Daten sammeln, sondern auch von vielen Menschen, die freiwillig vieles Privates ins Netz stellen.“ Nach und nach, so Wewer, scheint dadurch der gesellschaftliche Grundkonsens über ein Menschenrecht auf Privatsphäre zu bröckeln. Beim Übergang in eine durch post privacy geprägte Ära sieht er die Nutzer als Opfer und Täter zugleich.

„Wettrüsten der Skripte”

In Ergänzung zu Wewers soziopsychologischem Befund fragt Carsten Ochs, ob sich Bewertungen und Verhaltensweisen zur Privatsphäre je nach Technikkompetenz unterscheiden: „Während die Technikdistanzierten kategorisch eine ‚Privacy in Public’ einfordern, sehen die Technikaffinen das Internet grundsätzlich als öffentliche Arena. Allerdings gilt auch ihnen die minutiöse Beobachtung von Verhalten als Privatheitsverletzung.“

Für Ochs haben die Technologien einen großen Einfluss, weil jeder neue Tracking-Mechanismus, jede neue Anwendung und jede neue Nutzungsweise von Daten die Privatheit verändere. Dies sei eine unablässige Dynamik technologischer Innovationen, er spricht von einem „Wettrüsten der Skripte“, das praktisch endlos andauere. Ochs’ Fazit und Rat liegt darin, „den NutzerInnen so viel Wissen und Kompetenzen – Handlungsskripte also – wie nur irgend möglich an die Hand zu geben.“

Entdämonisierung des Computers

Die Adaption digitaler Technologien wird in Deutschland nicht zum ersten Mal breit und polarisierend diskutiert: Marcel Berlinghoff untersucht das in seinem Beitrag „‚Totalerfassung’ im ‚Computerstaat’ – Computer und Privatheit in den 1970er und 1980er Jahren“. Kulminationspunkt der damaligen Debatten war die 1983 geplante Volkszählung. Dieser – erstmals umfassend computergestützt durchgeführten – Erhebung schlug eine unerwartet breite und hohe Protestwelle entgegen.

Die aber hatte auf lange Sicht durchaus konstruktive Folgen auf mehreren Ebenen, so Berlinghoff: „Computer standen bei aller weiterhin bestehenden Kultur-, Technik- und Staatskritik in der zweiten Hälfte der 1980er Jahre mehrheitlich für Zukunftschancen gegenüber der Dystopie einer totalitären Überwachungsgesellschaft. Diskurse über die Zukunftsfähigkeit der Gesellschaft lösten die Warnungen vor den Gefahren der Computerisierung ab und einhergehend mit dieser Entdämonisierung des Computers sank auch das Mobilisierungspotential für die Kritiker der computergestützten staatlichen Datenerhebung bei der Volkszählung 1987.“

Telekommunikationsmonopol als Mittel zum Machterhalt

Dieser Analyse stellt Philipp Aumann seine These gegenüber, dass Kommunikationstechniken „in den letzten grob 250 Jahren“ immer wieder als Motoren von Entprivatisierung und Fremdsteuerung gebraucht beziehungsweise missbraucht werden. Seinen aufschlussreichen Betrachtungen zufolge wurden immer wieder Geräte entwickelt, „die den Zugriff auf das Individuum kontinuierlich ausgeweitet, verfeinert und intensiviert haben. Die Computertechnik scheint einen Höhepunkt dieser Entwicklung darzustellen.“

Seit frühester Entwicklungszeit sei das Telekommunikationsmonopol ein zentrales Mittel des Machterhalts. Und selbst die aus geschichtlicher Erfahrung resultierenden Grundrechte werden auf Basis von „Ausnahmesituationen“ aufgeweicht, wie beispielsweise das 1968 erlassene „Gesetz zur Beschränkung des Brief-, Post- und Fernmeldegeheimnisses“ zeigt. Eine damit einhergehende „Entprivatisierung des Individuums, seine ständige Sichtbarkeit“, so Aumann, bringe eine absolute Funktionalisierung des Menschen in einen von außen vorgegebenen Katalog von Verhaltensnormen und damit das Ende der „offenen Gesellschaft” (Karl Popper) mit sich.

Kontrollmechanismen der Gesellschaft

Doch gerade in Deutschland wurde dagegen aufbegehrt, so Aumann. Auch durch die Judikative, die 1983 durch den Spruch des Bundesverfassungsgerichts – das Recht auf informationelle Selbstbestimmung aus dem allgemeinen Persönlichkeitsrecht entwickelte. Die schrittweise Entwicklung dieses international wegweisenden Spruchs eines Bundesgerichts – auch das eine weitere direkte Folge des Volkszählungsboykotts von 1983 – rekonstruiert Larry Frohman in seinem Beitrag; leider ist diese lesenswerte Sicht von außen nicht ins Deutsche übersetzt.

Laut Philipp Aumann sei auch das 2001 gesetzlich verankerte Prinzip der „Datenvermeidung und Datensparsamkeit“ letztlich eine Folge anhaltender Kritik durch engagierte Bürger. Aumann konstatiert, dass den kontrollinteressierten Machtinstanzen unterschiedliche Kontrollmechanismen aus der Gesellschaft gegenüberzustellen seien, „um die Kontrolleure wenigstens zu beobachten und zur Rede zu stellen.“ Er nennt den Verein zur Förderung des öffentlichen bewegten und unbewegten Datenverkehrs (FoeBuD), 2012 in Digitalcourage umbenannt, der jedes Jahr die Big Brother Awards verleiht. Darüber hinaus sieht Aumann die individuelle Selbstkontrolle als entscheidend an. „Jeder aufgeklärte Mensch muss sich als selbstverantwortlicher Akteur in einer Informationsgesellschaft verstehen und seine persönlichen Daten als wertvolles Gut betrachten, um die Kontrolle über sein Leben, ob in der digitalen oder der physischen Welt, zu behalten.“

Privatheit und Einsamkeit verteidigen

Hans Jörg Schmidt trägt dazu eine Art Echo bei, indem er die Haltung zur Privatheit von Facebook-Chef Mark Zuckerberg näher betrachtet. Mit erkennbarer Distanzierung attestiert er Zuckerberg die Utopie der „Historisierung des Privaten via sozialer Netzwerke, als vertrauensbasierte Plattformen digitalen Change-Managements in einem Zeitalter unbegrenzter Kommunikation“.

Der US-Wissenschaftler David Gelernter greift das in seinem Beitrag auf: Für ihn ist privacy durch eine Art Kollaboration von Technik und Kultur bedroht. Doch die Nutzer selbst könnten und sollten dagegen halten – entgegen der überaus attraktiven Macht, die ein Massenpublikum für jeden Einzelnen darstellen kann. Privatheit und Einsamkeit gelte es trotz des stärker werdenden sozialen Drucks zu verteigigen, so Gelernter: „The sooner we regain our sense of skepticism, our tradition of the challenging question versus the uncritical celebration, the greater our chance to preserve our privacy – at least the privacy we do still enjoy.“

Ein Band mit rotem Faden

Eine große Stärke des Bandes ist, die Texte an einem gedanklichen roten Faden aufzureihen. Stets scheinen die Autoren Fragen und Erkenntnisse der anderen aufzugreifen, um sie weiter zu beleuchten. Zwar versammelt der Beitrag wissenschaftliche Texte, im akademischen Duktus geschrieben und an entsprechend „geschulte“ Leser gerichtet; mehrfach verschachtelte Satz-Ungetüme verhindern dabei manchmal das schnelle Erfassen. Schade ist auch, dass in zwei Fällen keine deutsche Übersetzung vorliegt.

Hohen Nutzwert bietet der Band aber dennoch. Die Befunde der Forscher stützen sich vor allem auf vorherige wissenschaftliche Veröffentlichungen und eigene Forschungsergebnisse: Das führt zu einer immerhin 20-seitigen Foschungsbibliographie, die als Link- und Quellensammlung eine wahre Fundgrube ist. Auch deshalb eignet sich das Buch gut als Ausgangsbasis, etwa für Seminare in Hochschulen, für die Arbeit in Interessengruppen, Gesprächsrunden oder Gremien.

Inhaltlich bleibt „Im Sog des Internet“ trotz einzelner Mängel im Detail ein hervorragend gemachter Band von acht klugen Texten, die mit ihrer vertieften Auseinandersetzung eine wertvolle Diskussionsbasis und wichtige Debattenbeiträge bieten, die eine breite Leserschaft verdienen.

Im Sog des Internets – Öffentlichkeit und Privatheit im digitalen Zeitalter”, herausgegeben von Ulrike Ackermann, ist im Verlag „Humanities Online” erschienen. ISBN 978-3-941743-35-9, 200 Seiten. EUR 19,80 (Print), EUR 9,80 (PDF).

September 16 2013

Gutachten: Dokumente des Berliner Abgeordnetenhauses gemeinfrei, nicht aber Gutachten

Amtliche Werke sind frei von Urheberrechten – das gehört zur Idee des Rechtsstaats, in dem die Rechtsprechung öffentlich ist (solange es nicht um US-Geheimdienste geht). Was darunter fällt und was nicht, darüber gibt es viele Unklarheiten. Immer wieder wird auch das Urheberrecht vorgeschoben, um unliebsame Veröffentlichungen zu behindern.

Der wisenschaftliche Parlamentsdienst des Berliner Abgeordnetenhauses hat im Auftrag der dortigen Piratenfraktion nun untersucht, wie die Situation im eigenen Haus eigentlich aussieht. Das Gutachten (PDF) stellt klar, dass

  • alle Drucksachen sowie parlamentarischen Dokumente und Materialien, die bereits im Internet veröffentlicht sind,
  • Gesetzentwürfe, -begründungen, und Protokolle zur Gesetzgebung,
  • die Geschäftsordnung des Abgeordnetenhauses,
  • Kleine und Große Anfragen und ihre Antworten sowie
  • „alle übrigen veröffentlichten Parlamentsdokumente”

als amtliche Werke zählen können. Das Gutachten verweist darauf, dass die entsprechende Regelung wegen der abschließenden Aufzählung im Gesetzestext zwar eng auszulegen sei; es betont aber, dass nicht nur unmittelbar gesetzesbezogene Materialien, sondern auch alle sonstigen zu den amtlichen Werken zählen:

Fraglich ist, ob sonstige parlamentarische Materialien urheberrechtlich ähnlich einzustufen sind. Man könnte sie als bloße Verkörperungen des politischen Meinungskampfes einschätzen und daher nicht als ,,amtliche Werke” im Sinne des § 5 Abs. 2 UrhG behandeln. Jedoch rechtfertigt das aus dem Demokratieprinzip (Art. 20 Abs. I des Grundgesetzeses, Art. 2 VvB) herzuleitende Öffentlichkeitsprinzip der Demokratie eine abweichende Beurteilung. Die parlamentarische Demokratie basiert auf dem Vertrauen des Volkes. Ein solches Vertrauen erfordert Transparenz, die es erlaubt, zu verfolgen, was politisch geschieht.

Wermutstropfen: Gutachten des Parlamentarischen Dienstes fallen nach dessen Auffassung nicht unter die amtlichen Werke – ironischerweise damit auch das Gutachten über die amtlichen Werke selbst. Wie der Abgeordnete Martin Delius auf seiner Website berichtet, erlaubt das Abgeordnetenhaus allerdings die weitere Veröffentlichung von Gutachten im unkommerziellen Rahmen.

August 16 2013

Die Öffentlichkeit hält nicht Schritt

Der NSA-Skandal und die flächendeckende Überwachung der Internetkommunikation durch Geheimdienste werden in europäischen Medien unterschiedlich aufgegriffen. Gemeinsam scheint bei den Bürgern ein Gefühl der Unausweichlichkeit im Angesicht der technischen Möglichkeiten. Wenn wir unsere Bürgerrechte schützen wollen, braucht es mehr als nationale Öffentlichkeiten, kommentiert Anja Seeliger.

Als Anfang Juni diesen Jahres die ersten Informationen über die umfassende Bespitzelung durch die NSA aus den Snowden-Papieren an die Öffentlichkeit gelangten, herrschte erst einmal Schweigen in deutschen Zeitungen. Den Schock musste man erst mal verdauen. Das änderte sich dann schnell: Der „Spiegel” brachte neue Informationen von Snowden. Die FAZ startete in ihrem Feuilleton eine sehr lesenswerte Debatte über die modernen Überwachungstechniken.

In der SZ verteidigte Heribert Prantl fast täglich die Souveränität der Bundesrepublik. Zeit- und Spiegel Online lieferten aktuelle Zusammenfassungen der Berichte im Guardian. Alles in allem kann man nicht sagen, die Zeitungen hätten ihre Pflicht nicht erfüllt oder sich nicht engagiert. Doch fehlen der Furor und der verbissene Recherchewille, die die Jagd auf Christian Wulff so erfolgreich gemacht hatte.

Guardian bleibt allein auf weiter Flur

In anderen europäischen Ländern sieht es viel schlechter aus. In England steht der Guardian mit seiner Maßstäbe setzenden Berichterstattung praktisch allein da. Die anderen britischen Zeitungen brachten meist nur kurze Meldungen, einige hämische Kommentare und schwiegen das Thema ansonsten tot. Vielleicht sind sie auch nur sauer, dass dies nach Wikileaks und dem Abhörskandal bei der News of the World der dritte große Coup des Guardian ist. Auch die BBC schwieg.

In Frankreich berichtete Le Monde am 4. Juli, dass „Paris bereits Bescheid wusste und genau dasselbe tut”. Wie Jacques Follorou und Franck Johannès schrieben, überwacht der französische Auslandsgeheimdienst DGSE die gesamte Telekommunikation im Inland und die Kommunikation mit dem Ausland. Allein die Nutzung dieser Datenbank von der DGSE wäre „bereits illegal”, so der Bericht weiter.

Tatsächlich „greifen jedoch alle französischen Geheimdienste auf diese Daten zu”, ohne dass Politik oder Justiz dagegen einschreiten. Nach dieser Enthüllung verendete das Thema im französischen Sommerloch. Vielleicht waren die Franzosen auch seit dem Abhörskandal von François Mitterand ohnehin auf alles gefasst.

Das mag ebenso für Italien gelten, wo sich kaum jemand über Prism oder Tempora aufregte. Der Skandal von 2006, bei dem der italienische Geheimdienste führende Politiker und Unternehmer ausspioniert und erpresst hatten, ist den Italienern sicher noch zu gut im Gedächtnis. Was ist dagegen das Speichern von Verbindungsdaten?

Der Bürger bleibt machtlos

Und was sagen die Bespitzelten? Wenn man die Leserkommentare in britischen oder deutschen Medien liest, spürt man eine große Wut, in die sehr viel Resignation gemischt ist. Auch die Teilnehmerzahl bei verschiedenen Demonstrationen gegen die Überwachung blieb überschaubar.

Woran liegt das? Zum einen vielleicht an einem Gefühl der Unausweichlichkeit: Was technisch möglich ist, wird eben auch gemacht. Laut einer heutigen Meldung auf Spiegel Online betreibt sogar die Polizei von Schleswig-Holstein im großen Stil Funkzellenabfragen: Statistisch sei nach Rechnung der Piraten seit 2009 jeder Bürger von Schleswig-Holstein mehrfach erfasst worden. Verurteilungen aufgrund dieser Daten in Zahlen: 36.

Zum anderen: Wenn alle schnüffeln, warum dann nicht auch wir? Schließlich setzt sogar die Europäische Union auf die Vorratsdatenspeicherung: Bis auf Deutschland haben alle EU-Länder die entsprechende Richtlinie umgesetzt. Der Verrat am Bürger ist so so groß und die Information darüber gleichzeitig so gering, dass man sich als Bürger vollkommen machtlos fühlt. Da hilft selbst Wählen nichts mehr.

Globalisierte Geheimdienste, nationale Öfffentlichkeiten

Verstärkt wird dieses Gefühl noch durch die Tatsache, dass sich die Geheimdienste gewissermaßen globalisiert haben. Nach allem was man weiß, arbeiten sie alle sehr gut zusammen, und auch der Austausch der Daten – falls man doch zu auffällig gegen eigene Gesetze verstoßen müsste – klappt offenbar hervorragend.

Bisher können die Bürger jedoch nur national diskutieren und sind damit einer Debatte eigentlich gar nicht mehr gewachsen. Was fehlt, ist ein europäisches Forum, eine Plattform im Netz, auf der die Bürger Europas Informationen austauschen und gemeinsame Widerstandsmöglichkeiten diskutieren können: Können wir unsere Bürgerrechte noch schützen oder ist es dafür zu spät? Können wir nur noch auf Waffengleichheit drängen? Wie Harry Cheadle im US-Magazin Vice erklärte: Wenn wir transparent sind, muss es die Regierung auch sein.

Darüber auf europäischer Ebene diskutieren zu können, wäre schon ein Fortschritt. Denn eines steht fest: Nationale Öffentlichkeiten werden globalisierte Geheimdienste nicht mehr aufhalten.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl