Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

December 20 2013

Pleiten, Pech und Pannen: Rechtsdurchsetzung im Netz

Microsoft möchte eigene Websites entfernen, auch der Wikipedia-Eintrag über „Office 2007“ landet in den Löschanfragen bei Google: Was passiert, wenn Rechteinhaber automatisch nach Urheberrechtsverletzungen fahnden lassen.

Im September dieses Jahres veröffentlichte Google einen Bericht und verkündete darin ein „bemerkenswertes Wachstum“. Doch wer dabei an Quartalszahlen denkt, liegt falsch: Es ging um Löschanfragen von Rechteinhabern. Wo Urheberrechtsverletzungen gemeldet werden, ist Google nach dem „Digital Millennium Copyright Act“ verpflichtet, die entsprechenden Links aus den Ergebnissen zu entfernen. Von solchen Löschanfragen erhalte das Unternehmen im Durchschnitt 4 Millionen pro Woche, heißt es darin – das sind mehr als im gesamten Zeitraum von 1998–2012.

Der Bericht „Wie Google Piraterie bekämpft“ ist zugleich selbst ein Werkzeug im dauernden Clinch zwischen Rechteinhabern der Musik-, Film- und Softwareindustrie, Webunternehmen, Providern und Nutzern. Er lässt sich als Antwort auf die Vorwürfe der Rechteindustrie lesen, Google unternehme zu wenig gegen Rechtsverletzungen und diene als Wegweiser auf illegale Plattformen. Google hält im Bericht dagegen: „Die Suche gehört nicht zu den wichtigen Trafficquellen für Piraterie-Seiten“.

Nach den Zahlen, die Google veröffentlicht hat, haben die Löschanfragen auch 2013 wieder neue Rekorde erreicht. 2012 waren es noch rund 57 Millionen Webadressen, die zur Löschung eingereicht wurden; das Blog Torrentfreak meldete diesen November, die 200-Millionen-Marke sei im laufenden Jahr bereits erreicht. Nach meiner Rechnung sind es zwar bislang nur 189 Millionen und 925.332 Anfragen – Google selbst veröffentlicht nur Wochenzahlen. So oder so aber lässt sich sagen: Die Löschanfragen bei der größten Suchmaschine haben sich damit mindestens verdreifacht.

Rekorde und Querschläger

Man könnte daraus schließen, dass Piraterie im Vormarsch sein müsse – was ohne weitere Erkenntnisse natürlich ein statistischer Fehlschluss wäre. Zunächst zeigen die Zahlen nur, dass die Rechteinhaber mehr Adressen gemeldet haben. Sie reichen Listen mit Adressen ein, die nach Google-Angaben in durchschnittlich unter sechs Stunden bearbeitet werden. Grund für den Anstieg ist unter anderem, dass Google am Takedown-System weiter geschraubt hat: Bestimmte Rechteinhaber können nun leichter große Mengen an Löschanfragen einreichen.

Von diesen Anfragen wiederum sollen nach verschiedenen Quellen zwischen 97,5 und 99 Prozent erfolgreich sein – Google entfernt sie also aus den Suchergebnissen. Oder umgekehrt, und hier wird es interessant: Mindestens einem Prozent der Löschanfragen kommt Google nicht nach. Rund zwei Millionen Webseiten oder mehr wurden demnach zu Unrecht gemeldet – sehr wahrscheinlich jedenfalls, Gerichte haben es nicht geprüft. Diese Seiten gerieten also versehentlich in die Schlingen der Algorithmen, die nach geschützten Werken im Netz fahnden.

Das zeigt, dass sich mit den Rekorden bei Löschanfragen auch der Geburtsfehler der Systeme verschärft hat: Querschläger, die zu fälschlich verschickten Löschanfragen führen. So verging auch 2013 kaum ein Monat, in dem solche Querschläger nicht für Aufmerksamkeit sorgten. Eine Auswahl aus den Ereignissen, die Torrentfreak regelmäßig festhält:

  • Im Februar wird bekannt, dass die vom US-Kanal HBO beauftragte Firma Dtectnet Webseiten zur Serie „Eastbound & Down“ aus dem Google-Index nehmen wollte – solche auf der Plattform hbo.com selbst.
  • Im Juli möchte die von HBO beauftragte Firma Links auf das Videoprogramm VLC Player entfernt wissen
  • Ebenfalls im Juli wird die Löschung von Links auf Seiten bei microsoft.com beantragt – im Auftrag von Microsoft
  • Im August möchte Microsoft Links auf das frei im Netz verbreitete Programm Openoffice löschen lassen
  • Im September soll der Eintrag „Microsoft Office 2007“ in der Wikipedia aus dem Google-Index gelöscht werden, zudem Diskussionen im Entwickler-Netzwerk MSDN
  • Im Oktober gehen Löschanforderungen für Einträge im Online-Filmlexikon IMDb und Rezensionen auf Nachrichtensites bei Google ein

Was so bereits seit einigen Jahren vonstatten geht – von Rechteinhabern beauftragte Subunternehmen durchwühlen weitgehend automatisiert das Web –, brachte 2013 allerdings zum ersten Mal eine Antipirateriefirma öffentlich in die Bredouille: Nachdem die Reihe peinlicher Querschläger nicht abließ, stellte Microsoft Ende September die Zusammenarbeit mit dem Unternehmen LeakID ein, das im Auftrag des Unternehmens nach rechtsverletzenden Links fahndete.

Schon in den Jahren zuvor schaffte es das Unternehmen, sich den Unmut von Bloggern, Musikern und Wissenschaftlern zuzuziehen: Seine falschen Takedown-Anfragen betrafen nicht nur Google, sondern Berichten zufolge unter anderem ein E-Book, das ein Schach-Blogger umsonst im Netz vertrieb, legale Promo-Downloads auf der Plattform Bandcamp und akademische Publikationslisten.

Copyfraud: Wenig Handhabe gegen falsche Ansprüche

Dennoch wird die automatisierte Rechtsdurchsetzung auch weiter Kollateralschäden mit sich bringen. Man kann natürlich einwenden, dass diese unvermeidlich sind, wo im großen Maßstab illegale Verwertungen unterbunden werden sollen. Doch die Querschläger zeigen auch an, dass das gegenwärtige System der Haftungsregeln mit technischen Mitteln nur notdürftig am Laufen gehalten werden kann. Und während die Inhalteindustrie in vielen Ländern Lehr-, Warn- und Sperrmodelle für Nutzer durchgebracht hat, gibt es gegen fälschliche Ansprüche von Rechteinhabern nur wenig wirksame Sanktionen – zumal mit den Systemen eine Art privatisierte Vorab-Gerichtsbarkeit entstanden ist.

Diesen Systemen ist ein Bias zugunsten der Rechteinhaber eingebaut. Wo Inhalte durch Regeln wie Fair Use, dem Zitatrecht und anderen Schranken legal verwendet werden, können sie das nicht erkennen. Zwar haben die Systeme von Google ebenso wie von anderen Plattformen Mechanismen zur Konfliktlösung eingebaut, de facto aber haben die Rechteinhaber die Durchsetzung ihrer Rechte im Netz nicht nur an oftmals windige Subunternehmen ausgelagert – es ist ihnen auch gelungen, den Aufwand zur Schadensbehebung an alle anderen weiterzugeben.

Da kann man fast von Glück sprechen, dass ein ähnlicher Fall nun vor Gerichten landet: Lawrence Lessig. Ein Vortragsvideo des US-Rechtsprofessors, das kurze Sequenzen aus Remix-Videos zum Song „Lisztomania” enthielt, wurde auf Youtube zunächst per „Content ID” gesperrt, später drohte ihm die Plattenfirma Liberation Music mit Klage, wenn er seinen Widerspruch zur darauf folgenden Takedown-Anfrage nicht zurückziehe. Lessig bereitet nun mit der Electronic Frontier Foundation eine Klage vor. Es ist ein überfälliger Schritt. Gewinnt er, könnte das ein wenig Balance ins System zurückbringen.

David PachaliDavid Pachali ist Redakteur und Autor bei iRights.info, freier Journalist zu Netzpolitik, digitaler Öffentlichkeit und Urheberrecht, Mitherausgeber der Publikationen „Überwachte Gesellschaft“ (iRights.Media, 2013), „Öffentlichkeit im Wandel“ (Schriftenreihe der Heinrich-Böll-Stiftung, 2012).

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam.
* Affiliate-Link

November 05 2013

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

In der digitalen Welt müssen Museen ihre Arbeit neu ausrichten und zugleich ihrem öffentlichen Auftrag treu bleiben. Von der Zusammenarbeit mit neuen Institutionen und privaten Akteuren können sie profitieren – wenn der Zugang dadurch nicht beschränkt wird.

Dieser Beitrag basiert auf einem Vortrag, den Paul Klimpel bei der Jahreskonferenz des Network of European Museum Organisations (NEMO) vom 1.-3. November in Bukarest gehalten hat.

Was macht ein Mensch im digitalen Zeitalter, der sich für die Nofretete interessiert?

Er geht ins Internet.

Aber er ruft nicht als erstes die Website des Ägyptischen Museums in Berlin auf; auch nicht die Europeana. Er gibt den Namen dieser schönen Frau in eine Suchmaschine ein.

Die ersten vier Suchtreffer führen – jedenfalls bei mir – zur Wikipedia. Dann kommt, immerhin schon auf Platz 5, das Ägyptische Museum, dicht gefolgt von einem Jazz-Club auf Platz 6. Platz 5 ist ein sehr sehr guter Rang. Häufig kommen Museen noch weiter hinten. Bei weniger bekannten Objekten kann es auch Platz 23 oder 48 sein. Ich habe hier Google als Suchmaschine genutzt, das Ergebnis ist aber mit anderen Suchmaschinen ähnlich.

Der Mensch, der sich für Nofretete interessiert, klickt also auf den ersten Suchtreffer. Er landet bei Wikipedia und findet nicht nur einen durchaus ausgewogenen und fachlich nicht zu beanstandenden Artikel über Nofretete, sondern an mehreren Stellen des Artikels auch den Verweis auf das Ägyptische Museum in Berlin.

Alle Wege führen ins Museum

Dort, im Ägyptischen Museum – heute im Neuen Museum auf der Berliner Museumsinsel – befindet sich die berühmte Büste der Nofretete, die ich gezeigt habe. Der Mensch, der sich für Nofretete interessiert, landet dort, wo er hin soll: im Museum, mit nur zwei Zwischenschritten.

Alle Wege führen ins Museum. Nur, dass es häufig andere sind, die diese Wege bauen, nicht die Museen selbst.

Sind die Museen nun das Schlusslicht der Digitalisierung, ein historisches Überbleibsel und eigentlich überflüssig? Warum waren die Museen im Prozess der Digitalisierung keine Avantgarde? Museen waren und sind Orte, die Menschen eine neue Welt eröffnen können. Da wäre es naheliegend, dass sich die Museen jederzeit der Möglichkeiten bedienten, mit dem, was sie vermitteln wollen, auch überall präsent zu sein.

Wikipedia, Google und die Museen

Trotzdem waren sie nicht Avantgarde, sie waren nicht vorne. Die Museen waren keine treibende Kraft, als mit Digitalisierung und Internet neue Möglichkeiten des Zugang, der Vermittlung, der Verbreitung und der Vernetzung von Wissen entstanden. Private Initiativen jenseits der institutionellen öffentlichen Strukturen haben das Potenzial früher genutzt.

Wohl wichtigstes Beispiel ist die Wikipedia. Lange wurde Wikipedia kritisch beäugt, belächelt. Doch inzwischen hat sie eine erhebliche Reputation und sich im Bereich der Enzyklopädien durchgesetzt, viele klassische gedruckte Enzyklopädien wurden eingestellt.

Aber auch Firmen haben sich mit großem Mut, mit viel Chuzpe und oft mit hohen Investitionen daran gemacht, zu digitalisieren und online zugänglich zu machen. Das Google-Buch-Projekt ist wohl das bekannteste Beispiel für Massendigitalisierung, aber keineswegs das einzige. Die Projekte von Google waren und sind umstritten, teilweise heftig umkämpft. Und sie sind erfolgreich und viele Museen kooperieren inzwischen mit Google.

Museen werden mit der Digitalisierung und durch neue Institutionen nicht überflüssig. Ihre Aufgabe – das Beschaffen, Bewahren, Erforschen, Bekannt machen und Ausstellen von Kulturzeugnissen – bleibt. Doch sie müssen sich verändern.

Was heißt das?

1. Beschaffen

Es fängt mit dem Beschaffen an: Früher wurden den Museen häufig Nachlässe angeboten, mit denen die Erben nichts anzufangen wussten. Die Erben konnten sie vor allem nicht verkaufen, Interessenten gab es nicht und damit keinen Markt. In Zeiten von Ebay und vielen anderen Möglichkeiten, im Internet Dinge anzubieten und für eigentlich alles einen Käufer zu finden, ist das anders. Damit ist es an den Museen, dafür zu werben, ihnen Nachlässe zu überlassen statt auf das schnelle Geld zu schielen.

2. Bewahren

Auch das Bewahren digitaler Objekte stellt die Museen vor gänzlich neue Herausforderungen – Herausforderungen, die sie nicht selbst lösen können. Die technische Expertise für digitale Langzeitarchivierung haben Museen nicht. Sie sind auf Zusammenarbeit angewiesen, mit Rechenzentren, mit Firmen, mit Experten.

3. Erhalten

Erhalten werden müssen nicht nur digitale Objekte selbst, sondern auch die Metadaten über analoge Objekte. Metadaten sind der Schlüssel zum Verständnis des kulturellen Erbes. Wer forscht, benötigt Zugang zu den Beständen, der Zugang zu den Beständen wiederum benötigt Standardisierung; Standardisierung heißt in der digitalen Welt Webservices, Personen-Norm-Dateien und Schnittstellen für den Austausch von Metadaten. Datenmodellierung im digitalen Zeitalter ist eine weitaus größere Herausforderung als die klassischen „Findbücher“.

4. Erforschen

Digitalisierte Sammlungen und moderne, vernetzte Datenbanken eröffnen der Forschung neue Möglichkeiten. Damit sind auch gleich die beiden Grundvoraussetzungen benannt, die Museen im digitalen Zeitalter nicht nur für die Forschung erfüllen müssen. Sie müssen ihre Bestände digitalisieren. Und sie müssen ihre Bestandsverzeichnisse online zugänglich machen. Das setzt Standardisierung der Metadaten voraus, sollen die Bestandsverzeichnisse auch genutzt werden können. Von Seiten der Museen werden insbesondere durch die Europeana und das Europeana Data Model wichtige Schritte hin zur Standardisierung gemacht. Bis diese Standards in den Museen implementiert sind, ist allerdings noch ein langer Weg.

5. Bekannt machen

Groß sind die Möglichkeiten von Museen, ihre Bestände durch das Internet bekannt zu machen. Auch hier gilt: Voraussetzung ist die Digitalisierung der Bestände und die Standardisierung der Metadaten. Das wohl ehrgeizigste und anspruchsvollste Projekt in Europa ist die Europeana. Sie ist ein wichtiger Beitrag, Kultur im Netz auffindbar zu machen. Aber die Wege im Netz sind nicht immer gradlinig.

Ich will dies mit einer kleinen Anekdote erläutern. 2008 kam der Film „Indiana Jones and the crystal scull“ in die Kinos. Und plötzlich sah sich das Britische Museum mit einem großen Interesse an Kristallschädeln konfrontiert.

The crystal skull, Collection of the British Museum in London. Rafał Chałgasiewicz, CC BY

The crystal skull, Collection of the British Museum in London. Foto: Rafał Chałgasiewicz, CC BY

Was war passiert? Fans von Indiana Jones wollten mehr über den Film wissen. In die Suchmaschine gaben sie jedoch nicht den Filmtitel ein, sondern nur „crystal scull“. Und die Suchmaschine zeigte als erstes einen Wikipedia-Artikel über Kristallschädel an. Dieser Artikel war illustriert mit Bildern der Kristallschädel im Britischen Museum. Und wieder führt ein ganz unerwarteter Weg ins Museum.

6. Ausstellen

Ausstellen ist wahrscheinlich der Bereich, der sich am wenigsten ändern muss. Ausstellungen werden weiter von der Aura des Originals leben, werden weiter ihren eigenen Gesetzen unterliegen. Fragen der Ausstellungsgestaltung haben mit Digitalisierung nur sehr mittelbar zu tun. Sicher gibt es „virtuelle Ausstellungen“, also kuratierte Angebote zu bestimmten Beständen. Es gibt den Einsatz neuer Technik, zum Beispiel Smartphone-Apps als Ersatz für den traditionellen Audioguide. Aber digitale Technik hat hier nur dienende Funktion. Museen sollten diese Möglichkeit nutzen, aber kein Netzauftritt und keine App ersetzt einen Museumsbesuch. Er kann Aufmerksamkeit schaffen, die zu einem Museumsbesuch führen kann.

Nicht Avantgarde, aber auch nicht abgehängt

Wo stehen die Museen im digitalen Zeitalter? Sie sind nicht die Avantgarde des Informationszeitalters, aber auch nicht der abgehängte Rest. Der Platz der Museen ist die Mitte. Da gehören sie auch hin.

Sie sind und bleiben Orte, die ihren Besuchern neue Welten eröffnen, die das Sammeln und Bewahren ernst nehmen, die Forschung ernst nehmen. Ihr Platz ist die Mitte der Gesellschaft, die durch die Digitalisierung immer vernetzter wird. Sie stehen in einem sich schnell verändernden Netzwerk von Institutionen, Initiativen und Firmen, die sich um das kulturelle Erbe bemühen. Solange Museen in der Mitte bleiben, stehen ihnen alle Optionen für die Zukunft offen. Wenn sich Museen der Vernetzung verweigern, werden sie ihrem öffentlichen Auftrag nicht gerecht und an Relevanz verlieren. Dann werden sie abgehängt werden in einer sich schnell ändernden Gesellschaft.

Betrachten Sie die neuen Player im Zeitalter der Digitalisierung, betrachten Sie Wikipedia, betrachten Sie Google und die vielen anderen nüchtern. Angebracht ist weder emotionale Abwehr noch devote Unterwerfung. Die neuen Player können in der digitalen Welt vieles besser. Im Bereich der digitalen Langzeitarchivierung beispielsweise haben Rechenzentren Kompetenzen, die Museen nie erlangen werden. Wo sich Museen diese Kompetenzen in Partnerschaften zunutze machen können, wo die neuen Player Aufmerksamkeit auf die Museen lenken, wo sie Zugang zum kulturellen Erbe ermöglichen, ist das gut.

Das kulturelle Erbe gehört allen, nicht einigen

Aber die Museen sollten selbstbewusst in solche Partnerschaften gehen. Sie sollten die Bedingungen solcher Kooperation aushandeln und öffentlich machen. Sind die Bedingungen der Kooperation zwischen Museen und Firmen nicht transparent, wächst Argwohn. So ist zum Beispiel – nach allem was ich weiß – die Kooperation der Bayerischen Staatsbibliothek mit Google eine sehr sinnvolle Kooperation, von der beide Seiten profitieren. Die Bedingungen sind inzwischen auch weitgehend bekannt. Was dem Ansehen dieser Kooperation am meisten geschadet hat, ist, dass der Kooperationsvertrag nicht von Anfang an öffentlich zugänglich war.

Museen haben eine große Verantwortung. Das kulturelle Erbe gehört allen. Digitalisierung und Internet können helfen, es allen zugänglich zu machen. Das, was Museen mit öffentlichen Mitteln für die Gesellschaft tun, muss weiter öffentlich bleiben. Der Zugang darf nicht beschränkt werden, um partikularen Firmeninteressen zu dienen. Das muss bei allen Kooperationen klar, transparent und verbindlich festgeschrieben werden. Das sind zeitlose Prinzipien, die auch und gerade im Zeitalter der Digitalisierung das Handeln bestimmen müssen.

Den öffentlichen Raum, zu dem auch die Museen gehören, gilt es zu verteidigen.

Ebenfalls zum Thema: Am 28. und 29. November findet die von Paul Klimpel geleitete Konferenz „Zugang gestalten!” statt. Disclosure: Das iRights Lab und Wikimedia Deutschland gehören zu den Veranstaltern, zu den Sponsoren gehört Google.

October 14 2013

Wikimedia-Justiziar Geoff Brigham: „Jeden Tag rufen Streithähne aus aller Welt an, um Inhalte zu entfernen”

Geoff Brigham ist Justiziar der Wikimedia Foundation, der Stiftung hinter der Wikipedia. Im iRights.info-Interview spricht er darüber, was er dort macht, wie die Stiftung mit der Community der Autorenschaft zusammenarbeitet und wie der Autorenschwarm bei politisch-rechtlichen Fragen Entscheidungen trifft.

iRights.info: Was macht ein Justiziar bei Wikimedia?

Geoff Brigham: Nun, unsere Rechtsabteilung gehört zu einer der weltweit bekanntesten Websites. Unsere Aufgaben unterscheiden sich auf den ersten Blick kaum von anderen Rechtsabteilungen, allerdings sind wir nur ein kleines Team von sechs Anwälten. Die meisten großen Plattformen dagegen verfügen über hunderte Anwälte. Bei der alltäglichen Arbeit kümmern wir uns unter anderem um das Vertragswesen, das sind etwa 250 Vorgänge im Jahr. Genauso erteilen wir pro Jahr etwa 200 Mal Nutzungsrechte für unsere Marken. Wir bearbeiten juristische Fragestellungen, die intern – etwa vom Vorstand – oder extern an uns herangetragen werden und sind noch für einiges mehr verantwortlich.

Unsere Rechtsabteilung arbeitet dabei sehr eng mit der Community der Wikipedia und weiterer Projekte zusammen. Die Redakteure, Fotografen, Texter und alle weiteren Mitwirkenden sind eigentlich der Dreh- und Angelpunkt unserer Arbeit. Wenn man von der Community sprechen kann, denn tatsächlich werden durch Wikimedia als Organisation hunderte Projekte, Interessengruppen und Sprachen miteinander vereint.

Geoff Brigham wurde 2011 Justiziar der Wikimedia Foundation. Zuvor arbeitete er als Rechtschef bei Ebay, als Staatsanwalt in Miami, Florida sowie als Rechtsattaché für das US-Justizministerium in Paris.

Geoff Brigham wurde 2011 Justiziar der Wikimedia Foundation. Zuvor arbeitete er als Rechtschef bei Ebay, als Staatsanwalt in Miami, Florida sowie als Rechtsattaché für das US-Justizministerium in Paris. Foto: Myleen Hollero/ Wikimedia, CC BY-SA

Unsere Entscheidungen werden nicht von oben über alle Köpfe hinweg getroffen, sondern immer in Rücksprache mit der Community. Als wir beispielsweise Nutzungsbedingungen entwickelt haben, mussten wir rund 120 Anmerkungen berücksichtigen. Insgesamt haben wir mehr als drei Monate lang mit der Community beraten, Gegenvorschläge durchdacht und Inhalte angepasst. In diesem Jahr bringen wir im gleichen Modus eine Datenschutzerklärung und eine Markenrichtlinie auf den Weg. Wir werden unsere Vorschläge dazu für jeden zugänglich im Netz veröffentlichen. Die finalen Versionen sollen dann in enger Zusammenarbeit mit der Community verabschiedet werden.

Ebenso bewerten wir gemeinsam politische Themen, wie beispielsweise seinerzeit das Gesetzgebungsvorhaben SOPA. Obwohl ich Leiter der Rechtsabteilung bin, wird von mir nie im Alleingang entschieden, wann wir wozu wie Stellung beziehen. Meistens läuft es sogar darauf hinaus, dass die Community mir sagt, wo wir uns einsetzen sollen. Der Wikipedia-Blackout als Protest gegen SOPA ist so ein Fall gewesen. Meine Aufgabe war es lediglich, die Entscheidung am Ende umzusetzen.

Darin unterscheidet unsere Arbeitsweise sich dannn doch sehr von anderen Rechtsabteilungen: Diese müssen sich zwar auch mit ihrer jeweiligen Community auseinandersetzen. Bei uns legitimiert jedoch erst der wechselseitige Austausch unsere Arbeit.

iRights.info: Heißt das, dass sie auch als Anwalt der Wikipedia-Community auftreten? Wird diese Erwartung an Sie herangetragen? 

Geoff Brigham: Nun, unsere Community setzt sich aus Mitgliedern zusammen, die ich spontan und liebevoll „Wiki-Juristen” nennen würde. Nehmen wir zum Beispiel einen Astrophysiker aus Manchester. Er kennt sich vielleicht besonders gut mit der britischen Panoramafreiheit aus. Formell kann er nicht als Jurist bezeichnet werden, ich würde ihn aber einen Wiki-Juristen nennen, hat er doch ein sehr spezialisiertes Wissen auf diesem Gebiet entwickelt. Das Interesse an Rechtsfragen ist in unserer Community sehr stark verankert.

Ansonsten ist es so, dass Anwälte immer ihre Klienten zu vertreten haben – mein Klient ist die Wikimedia Foundation. Doch das Anliegen der Organisation wiederum ist es, unsere Community zu unterstützen. Für meine Arbeit ist es daher enorm wichtig, mich bei Rechtsfragen mit der Community austauschen zu können. Tatsächlich kommt manchmal diese Erwartung auf, dass wir auch jedermanns Anwalt sind – und muss von mir dann korrigiert werden.

Was wir aber tun können, ist, uns an Diskussionen innerhalb der Community zu beteiligen. Zum Beispiel auf unser Seite Wikilegal. Hier stellen wir vorläufige Überlegungen zur Debatte, die für die Community interessant sein könnten. Das ist dann keine Rechtsberatung, sondern eine interne Diskussion zwischen interessierten Community-Mitgliedern und uns. Wir ermuntern dazu, auf diesem Wege Anliegen und Erfahrungen zu teilen. Denn am Ende sind wir alle ein wenig schlauer als zuvor.

Es kommt nur äußerst selten vor, dass Mitgliedern der Wikimedia-Community mit Rechtsstreit gedroht wird. Es gibt schließlich eine Menge rechtliche und andere Gründe, das bleiben zu lassen. Doch wenn es dazu kommt, stehen Abläufe bereit, um für Community-Mitglieder in geeigneten Streitfällen die passenden Juristen zu finden und zu bezahlen. Wir haben ein Netzwerk von hervorragenden internationalen Anwälten, die dann – statt mir – die Nutzer rechtlich vertreten können.

iRights.info: Wo gibt es denn gerade solche juristischen Schlachten?

Geoff Brigham: Es gibt viele Bereiche in denen wir heftig streiten. Wir haben laufende Verfahren überall auf der Welt und eine ziemlich hohe Erfolgsquote. Letztes Jahr haben wir beispielsweise einen bedeutenden Fall in Italien und zwei Fälle in Deutschland gewonnen. Außerdem konnten wir mit einer amerikanischen Internetfirma, die zwei unserer Nutzer verklagt hatte, eine siegreiche Einigung erzielen. Dies sind wichtige Streitfälle, bei denen wir viel Zeit investieren und unsere strategische Vorgehensweise genau überprüfen.

Welche Arbeit im Alltagsgeschäft sonst noch anfällt, ist für Außenstehende gar nicht erkennbar. Jeden Tag rufen bei uns Streithähne aus der ganzen Welt an, darunter viele Anwälte und Regierungsbeamte, die uns auffordern, bestimmte Inhalte von unserer Site zu entfernen. So lange diese jedoch wahrheitsgemäß und rechtens sind, wird das nicht geschehen. Wir betrachten jeden Einzelfall für sich und gehen sehr gewissenhaft vor, nichts passiert automatisch. Handelt es sich beispielsweise um eine Urheberrechtsverletzung, überprüfen wir zunächst den Vorfall. Bewahrheitet sich der Vorwurf, löschen wir den Inhalt. Aber wir entfernen keinen Artikel, nur weil er einer Person nicht gefällt.

Visualisierung: Anonyme Bearbeitungen in der Wikipedia (László Kozma/lkozma.net)

All diese Anfragen erhalten wir jeden Tag. Ich kann mich glücklich schätzen, ein sehr gutes Team von Juristen um mich zu haben. Sie erläutern externen Anwälten und Regierungsmitgliedern, warum es keine rechtliche Grundlage dafür gibt, einen wahrheitsgemäßen Inhalt einfach zu löschen. Meistens reagieren sie danach verständnisvoll und respektieren unsere Position.

iRights.info: Wie viele Takedown-Anfragen sind das? 

Geoff Brigham: Etwa 200 im Jahr, offizielle wie auch inoffizielle. Wirklich entfernt wird dann aber nur ein sehr geringer Anteil.

iRights.info: Kann und sollte Wikipedia und die Wikimedia Foundation aus Ihrer Sicht auch politisch aktiv werden?

Geoff Brigham: Lassen Sie mich mit dem beginnen, woran mich unsere Community immer wieder erinnert: Ihr primäres Ziel ist es, eine Enzyklopädie zu schreiben und frei lizenzierte Informationen und Inhalte zu verbreiten. Politisch aktiv zu sein, ist nicht ihr Hauptanliegen.Viele in der Community sehen es nicht als unsere Aufgabe an, wie eine politische Interessengruppe aufzutreten. Hinzu kommt, dass wir als amerikanische Non-Profit-Organisation in dieser Hinsicht nur einen begrenzten Handlungsspielraum besitzen. Nichtsdestotrotz gibt es politische Themen, die sehr nah an unseren Kernaufgaben liegen – etwa Informationsfreiheit, das Recht auf freie Meinungsäußerung und die Verbreitung von freien Lizenzen. Hier macht es Sinn, unsere Wirkungsmacht als Bewegung und Community zu nutzen und unsere Position gegenüber den politisch Verantwortlichen zu vertreten.

Das geht meiner Meinung nach am besten über basisdemokratisches Engagement. Bei der Wikimedia Foundation kommt der Community diese tragende Rolle zu. Sie entscheidet, wie wir wirksam unseren Einfluss als Bewegung einsetzen. Wir können weltweit Themen aufspüren, die unsere Community bewegen. Wir haben diverse Kanäle, über die wir aktiv über politische und rechtliche Fragestellungen diskutieren. Vor allem Mailinglisten, über die wir in ständigem Austausch bleiben.

Wenn eine bestimmte Entwicklung unseren Wertvorstellungen widerspricht, dann ist es Aufgabe der Community, gemeinsam unseren Standpunkt zu definieren. Dabei stehen uns vielerlei Möglichkeiten zur Verfügung. Im Fall von SOPA haben wir Petitionen unterzeichnet, die amerikanische Öffentlichkeit angehalten, ihre Kongressabgeordneten zu kontaktieren und Wikipedia zum Prostest einen Tag lang geschwärzt. Mit Erfolg: Der so gut wie beschlossene Gesetzesentwurf wurde gestoppt.

Aber jeder Fall muss von uns aufs Neue bewertet werden. In Russland und Italien zum Beispiel protestiert die Community gegen repressive Zensurgesetze, indem sie unsere Site offline nimmt. Kurz gesagt: All dies sind Beschlüsse der Community, nicht der Stiftung. Hat die Gemeinschaft die führende Rolle inne, ist das in jedem Fall effektiver. Unsere Aufgabe ist es, sie dabei so umfangreich wie möglich zu unterstützen.

iRights.info: Wie genau werden Entscheidungen von der Community getroffen? Wer bestimmt, ob und wie auf eine politische Entwicklung reagiert wird? Kann jeder abstimmen? 

Geoff Brigham: Lassen Sie mich erklären, auf welche Weise die Community uns bei politischen Initiativen unterstützt: Findet eine Diskussion in der Wikipedia statt, ist ein unbeteiligter Administrator dafür zuständig, die Kommentare der Community-Mitglieder zusammenzufassen. Die Administratoren sind bei Wikipedia ehrenamtlich tätig. Ein Administrator versucht nun, eine Lösung zu formulieren, der alle Beteiligten zustimmen können. Erhält diese aber weniger als 70-75 Prozent Zuspruch, ist keine Einigung erzielt worden und es bleibt beim Status quo. Auch beim Protest gegen den SOPA-Gesetzentwurf sind wir so vorgegangen.

Wir haben in anderen Zusammenhängen auch verschiedene andere Abstimmungsmodelle ausprobiert, inklusive projektweiten Referenden. Unsere Lizenzänderung von GNU auf Creative Commons haben wir beispielsweise per Referendum abgestimmt. Auch bei der Wahl unserer Stiftungsratsmitglieder haben wir schon unterschiedliche Abstimmungsverfahren durchgeführt. Hier praktizieren wir heute mit „ein Mensch, eine Stimme” ein eher traditionelles Wahlverfahren.

Das Interview führte John Weitzmann auf Englisch während der Wikimania in Hong Kong. Übersetzung: Anna Mohrdiek.

August 26 2013

August 17 2013

Dimitar Dimitrov, was macht ein „Wikimedian in Brussels”?

Dimitar Dimitrov ist seit Mitte des Jahres als Kundschafter und Botschafter in Brüssel für Wikimedia tätig, dem Verein hinter der Wikipedia. Während der internationalen Wikimania-Konferenz in Hongkong sprach John Weitzmann mit ihm über seine Aufgaben und die nächsten Ziele der Anhänger des freien Wissens. 

iRights.info: Sie sind für Wikimedia in Brüssel tätig. Als was denn?

Dimitar Dimitrov: „Wikimedian in Brussels“, angelehnt an Wikimedian in Residence. Wir haben extra einen leichten Titel gesucht, damit das jetzt noch keine Fragen aufwirft wie: Wer hat Dir erlaubt, da in Brüssel irgendwas zu machen. Das wird noch eine Riesendiskussion eines Tages.

iRights.info: Wie kam es dazu?

Dimitar Dimitrov

Dimitar Dimitrov, hier am Neusiedlersee, ist Politikwissenschaftler und langjähriger Wikimedia-Aktivist. Geboren in Bulgarien und nach zahlreichen Stationen in europäischen Hauptstädten lebt er derzeit in Brüssel. Foto: CC BY-SA

Dimitar Dimitrov: Ich war nach Brüssel gezogen und hatte mir gedacht, man sollte auch auf der politischen Schiene arbeiten, wenn man schon mal da ist. Darum habe ich an Wochenenden und Nachmittagen mit einem Monitoring der dortigen Geschehnisse angefangen und das an Wikimedia-Mailinglisten geschickt. Daraufhin ist Wikimedia Deutschland auf mich zugekommen und wir haben festgestellt, dass wir im Grunde dasselbe vorhaben. Also haben wir gesagt: Wollen wir nicht zusammenarbeiten?

Wir haben dann im April 2013 ein großes Treffen in Brüssel organisiert, an dem Community-Mitglieder aus diversen europäischen Ländern teilnahmen. An einem Wochenende diskutierten wir, was wir erreichen wollen, was unsere Ziele sind, und wie wir das in der Wikimedia-Welt organisiert kriegen – was eigentlich der schwierigere Teil der Angelegenheit ist.

Wir waren uns am Ende einig, dass da etwas mehr Arbeit investiert werden muss, für die die Wochenenden nicht genügen. Darum habe ich jetzt ein erstmal sechsmonatiges „Stipendium“ erhalten, mit dem ich versuche, das Ganze durchzuführen.

iRights.info: Welche Aufgaben haben Sie in Brüssel?

Dimitar Dimitrov: Aufgabe Nummer eins ist das Komplett-Monitoring der ganzen EU-Prozesse, was ja schon einiges an Arbeit ist und leider nicht immer konkrete Ergebnisse hervorbringt. Ich bin quasi dafür verantwortlich, dass wir von Anfang an darüber Bescheid wissen, wenn irgendwo ein Gesetzgebungsvorschlag auf den Tisch kommt oder besprochen wird. Das ist für uns sehr wichtig.

In der Vergangenheit wurden wir von einigen Entwicklungen komplett überrascht. Unsere Vereine und unsere Community kriegen von manchem Vorhaben oft erst dann etwas mit, wenn es schon in den Medien ist. Was wiederum heißt, dass in Brüssel darüber schon seit zwei bis drei Jahren gesprochen wurde. Dann ist es meist schon zu spät, noch sinnvolle Veränderungen durchzubringen.  Und auch wegen des Blackouts der Wikipedia rund um SOPA, PIPA und ähnlicher Vorkommnisse haben wir uns gedacht, dass jetzt der Zeitpunkt für ein Monitoring im Detail gekommen ist.

Aufgabe Nummer zwei ist, möglichst viele lokale Sektionen von Wikimedia und Community-Mitglieder für dieses Projekt zu begeistern, sodass es langfristig nicht ein von ein oder zwei Sektionen durchgeführtes Projekt bleibt, sondern eines wird, bei dem Freiwillige relativ leicht einsteigen und aktiv sein können. Unser langfristiges Ziel ist es, ein System für „crowdsourced Lobbying“ zu schaffen.

iRights.info: Welche Entwicklungen verfolgen Sie gerade?

Dimitar Dimitrov: Im Moment ganz aktuell ist die europäische Verwertungsgesellschaften-Richtlinie. Sie enthält einige Passagen darüber, ob Künstler auch einzelne ihrer Werke unter eine freie Lizenz stellen dürfen oder nicht. Das ist jetzt dreimal raus- und wieder reingerutscht in den Richtlinien-Entwurf. Die Kommission hatte das zunächst nicht drin. Dann hatte es die Berichterstatterin hineingeschrieben. In einem Kompromiss ist es dann herausgefallen, dann aber durch einen Veränderungsvorschlag des Abgeordneten Christian Engström wieder hereingekommen. Nun geht der Entwurf in den Rat und auch dort könnte es wieder ein Hin und Her geben.

Für uns ist diese Regelung ganz wichtig, denn es ist gar nicht unwahrscheinlich, dass Künstler – selbst ein Bono von U2 – sagen: Ich werde einen Song von mir für meinen Wikipedia-Artikel stiften. Wenn sie aber vor der Wahl ständen, „alle Songs stiften oder keinen“, dann könnten sich die Künstler das natürlich nicht leisten. Dieser Komplex nimmt derzeit die meiste Zeit bei mir in Anspruch.

Darüber hinaus haben wir uns drei Ziele gesetzt: Wir wollen europaweit Panoramafreiheit (auch Straßenbildfreiheit genannt), die klar und liberal definiert ist; wir wollen, dass staatliche Werke frei nutzbar sind, entweder unter freien Lizenzen oder ganz ohne Urheberrecht; und die Richtlinie zu „verwaisten Werken“ hat uns nicht wirklich überzeugt und sollte noch einmal überarbeitet werden.

Letztere kann natürlich sinnvoll erst in einigen Jahren angesprochen werden, aber bis dahin müssen wir schonmal Grundlagenarbeit leisten, so dass wir eines Tages auch verwaiste Werke in Wikimedia-Projekten nutzen können. Speziell die Einschränkung auf nicht-kommerzielle Nutzung muss weg.

iRights.info: Wo sehen Sie, bezogen auf Wikipedia, derzeit die größten Schwachstellen bei der Bewegung für freies Wissen?

Dimitar Dimitrov: Es hapert bei uns im Moment an der Zusammenarbeit zwischen den Vereinen und Communities in den einzelnen Ländern. Dieses Problem lässt auch nicht allzu schnell lösen, denn genau dafür hatten wir das Projekt einer „World Chapter Association“. Die damit beabsichtigte internationale Kooperation und Koordination der Sektionen ist aber, sagen wir mal so, ein wenig fehlgeschlagen.

Die Lösung wird irgendwann wohl sein, nicht gleich eine Organisation zu schaffen, sondern erst einmal gemeinsame Projekte, wie „Wiki loves Monuments“ und andere global durchzuführen. Ich hoffe zum Beispiel, dass auch mein EU-Policy-Projekt in vielen Ländern funktionieren wird, dass also Communities und Sektionen aus der ganzen EU daran teilnehmen.

Und wenn wir dann einige Projekte wirklich international umsetzen, können wir sagen: Jetzt brauchen wir Strukturen für eine Organisation. Das wird für mich in den nächsten zwei Jahren ein entscheidendes Thema sein, denn im Moment werkelt jeder an kleinen Projekten vor sich hin und sehr oft gehen sehr gute Ideen verloren.

iRights.info: Was hat die Wikimania 2013 in Hongkong aus Ihrer Sicht gebracht?

Dimitar Dimitrov: Da fallen mir zwei Dinge ein: Erstens haben inzwischen große Teile der Community eingesehen, dass wir uns erst einmal auf internationale Projekte statt auf internationale Strukturen konzentrieren sollten. Strukturen folgen Projekten und nicht andersherum.

Zweitens merkt man, dass sich die Denkweise verändert hat. Vor zwei bis drei Jahren noch reagierte die Community geradezu allergisch auf alles, was mit Politik und Advocacy zu tun hatte. Da hieß es noch: Wir schreiben hier unsere Enzyklopädie und wollen gar nicht politisch aktiv sein. Das hat sich spürbar verändert. Das Thema wird nun offen angesprochen und eigentlich nicht mehr wirklich in Frage gestellt.

Für mich ist dies die erste Wikimania, bei der ich viele Leute treffe, die sagen: Dort müssen wir aktiv werden, da haben wir keine Wahl, sondern müssen präsent sein.

August 05 2013

Snowden a friend or foe ? Wikipedia fight takes both sides | Fox News

#Snowden a friend or foe? #Wikipedia fight takes both sides | Fox News
http://www.foxnews.com/politics/2013/08/04/snowden-friend-or-foe-wikipedia-fight-takes-both-sides

Then — a mere eight-or-so hours later — someone with an IP address linked to the U.S. Senate, according to the Daily Mail, upped the verbal ante, surgically changing “dissident,” to the more inflammatory, “traitor.”

A search by FoxNews.com confirms the IP address links to a computer located on the 6th floor of 2 Massachusetts Avenue in Washington, D.C., home to the U.S. Senate.

Exactly 1 minute later, according to Wikipedia’s publicly available revision history, a moderator named Ginsuloft changed Snowden’s all-important introductory description back to “dissident.”

In this case, Ginsuloft explained himself.

 “Hello, I’m Ginsuloft,” wrote the would-be editor/moderator on something referred to as a “talk page.”

“Wikipedia is written by people who have a wide diversity of opinions, but we try hard to make sure articles have a neutral point of view. Your recent edit to Edward Snowden seemed less than neutral to me, so I removed it for now. If you think I made a mistake, or if you have any questions, you can leave me a message… Thank you.”

July 16 2013

Un fœtus peut-il avoir sa page ? Wikipedia se prend la tête sur le bébé royal | Rue89

Un fœtus peut-il avoir sa page ? #Wikipedia se prend la tête sur le bébé royal | Rue89
http://www.rue89.com/2013/07/16/foetus-peut-avoir-page-wikipedia-prend-tete-bebe-royal-244294

Sur le Wikipedia anglophone, une page est consacrée à « l’enfant du duc et de la duchesse de Cambridge », the « Child of the Duke and Duchess of Cambridge ».

Aucun intérêt évidemment, mais la discussion entre les utilisateurs qui accompagne la page est passionnante. Comme vous le savez, Wikipedia fonctionne sur le mode collaboratif, et chaque contributeur peut donner son avis sur la pertinence d’un article, relever les passages mal sourcés, et participer à son amélioration.

par @camillepolloni

Tags: Wikipedia

July 14 2013

Zimmerman acquittal : Blame Florida for Trayvon Martin's death. - Slate Magazine

Zimmerman acquittal : Blame Florida for Trayvon Martin’s death. - Slate Magazine
http://www.slate.com/articles/news_and_politics/jurisprudence/2013/07/zimmerman_acquittal_blame_florida_for_trayvon_martin_s_death.html

Here’s the problem: To convict Zimmerman of murder, the six women of the jury had to find that he killed Martin out of ill will, hatred, or spite, or with a depraved mind. The law didn’t account Zimmerman’s fear or feeling of being physically threatened.

#justice #Etats-Unis #milice #racisme
https://fr.wikipedia.org/wiki/Affaire_Trayvon_Martin (la page #wikipedia n’a pas encore été mise à jour)

Me rappelle cet autre acquittement : http://seenthis.net/messages/146121

D’autres liens via @mona et @supergeante :
http://seenthis.net/messages/156167
http://seenthis.net/messages/156193
http://seenthis.net/messages/156177

May 08 2013

Four short links: 8 May 2013

  1. How to Build a Working Digital Computer Out of Paperclips (Evil Mad Scientist) — from a 1967 popular science book showing how to build everything from parts that you might find at a hardware store: items like paper clips, little light bulbs, thread spools, wire, screws, and switches (that can optionally be made from paper clips).
  2. Moloch (Github) — an open source, large scale IPv4 packet capturing (PCAP), indexing and database system with a simple web GUI.
  3. Offline Wikipedia Reader (Amazon) — genius, because what Wikipedia needed to be successful was to be read-only. (via BoingBoing)
  4. Storing and Publishing Sensor Data — rundown of apps and sites for sensor data. (via Pete Warden)

April 08 2013

Wochenrückblick: Redigi, gewerbliches Ausmaß, Cloud-Überwachung

Ein US-Gericht urteilt gegen den Weiterverkauf von Musikdateien auf der Plattform Redigi, der Bundesgerichtshof bestätigt seine Rechtsprechung zum „gewerblichen Ausmaß” bei Filesharing, ein Forschungszentrum von Bundesbehörden untersucht die Überwachung von Cloud-Daten. Außerdem im Wochenrückblick: „Mein Kampf” und die Schutzfrist, Französischer Geheimdienst vs. Wikipedia, Merkel-Hangout und Telefonverträge.

US-Urteil: Weiterverkauf von Musikdateien ist verboten

Ein US-Bezirksgericht hat den Weiterverkauf „gebrauchter” MP3-Musikdateien über den Dienst Redigi verboten. Redigi ermöglicht es, über iTunes legal erworbene MP3-Dateien an andere Nutzer zu verkaufen. Eine Software lädt die Dateien in einen Cloudspeicher und löscht sie auf dem Rechner des Verkäufers. Der Käufer der MP3 kann sie dann aus dem Cloudspeicher laden, die Datei ist dann „migriert”. Dem US-Label Capitol Records war das ein Dorn im Auge – es klagte gegen Redigi und bekam Recht: Im Gegensatz zum Verkauf von Tonträgern (etwa CDs und Schallplatten) ist der Weiterverkauf von MP3-Dateien über Redigi nach Ansicht des Gerichts eine unerlaubte Vervielfältigung. Da über Redigi in jedem Fall eine neue Kopie angefertigt wird, sei es auch unerheblich, dass der Dienst die Originaldatei beim Verkäufer löscht. Das Urteil ist noch nicht rechtskräftig.
Zur Meldung auf iRights.info.

Pflicht zur Providerauskunft auch ohne „gewerbliches Ausmaß”

Ein Provider muss bei Filesharing auch dann Auskunft erteilen, wenn Rechte nicht in „gewerblichem Ausmaß” verletzt wurden. Das hat der Bundesgerichtshof Anfang Dezember beschlossen, wie nun bekannt wurde. Er bestätigte damit seine jüngere Rechtsprechung. Ein Nutzer hatte ein Hörbuch in einer Tauschbörse angeboten. Darauf war der Hörbuchverlag durch ein vorheriges Auskunftsersuchen nach § 101 Abs. 9 Urheberrechtsgesetz gestoßen. Der Nutzer wandte sich gegen den Beschluss, der den Provider zur Auskunft über seine IP-Adresse verpflichtete – es läge kein gewerbliches Ausmaß der Rechtsverletzung vor. Darauf komme es laut BGH aber nicht an. Vielmehr sei ein Auskunftsersuchen nach einer Interessenabwägung „in aller Regel ohne weiteres begründet”.
Zum Beschluss des BGH.
Die Meldung bei Internet-Law mit kritischer Diskussion in den Kommentaren.

Bundesregierung prüft Überwachung von Cloud-Daten

Die Bundesregierung interessiert sich für Daten von Nutzern in Cloud-Diensten. Dazu untersuche man im Strategie- und Forschungszentrum Telekommunikation (SFZ TK), „wie in neuen digitalen Kommunikationsplattformen die Telekommunikationsüberwachung umgesetzt werden kann”. Das geht aus einer Antwort der Bundesregierung auf eine kleine Anfrage der Bundestagsfraktion der Partei Die Linke hervor. In der behördenübergreifenden Kooperationsplattform habe man „die Verschlüsselung im Bereich des Cloud Computing im Allgemeinen behandelt”. Dabei seien allerdings auch die rechtlichen Rahmenbedingungen sowie potentielle technische Möglichkeiten für einen Zugriff der Sicherheitsbehörden erörtert worden.
Die Antwort der Bundesregierung als PDF.
Die Nachricht bei Golem.

Regierung prüft Fragen zu Ablauf urheberrechtlicher Schutzfrist von „Mein Kampf”

Die Bundesregierung prüft Fragen zum Ablauf der urheberrechtlichen Schutzschrift von „Mein Kampf”. Nach dem Grundsatz der siebzig Jahre post mortem auctoris ist „Mein Kampf” mit Beginn des Jahres 2016 gemeinfrei und darf damit aus urheberrechtlicher Sicht frei zirkulieren. Inhaber der Urheber- und Verlagsrechte ist bis dahin der Freistaat Bayern. Der könnte nach Ablauf der Schutzfrist die Verbreitung des Buches urheberrechtlich nicht mehr verhindern. Nach Ansicht der Bundesregierung besteht ein „gemeinsames Interesse an einer wirksamen Verhinderung der Verbreitung dieses menschenverachtenden Gedankenguts” – ein ausdrückliches Publikationsverbot müsse man aber an der Pressefreiheit aus Art. 5 Abs. 1 Satz 2 GG messen.
Zur Meldung bei juris.

Französischer Geheimdienst lässt Wikipedia-Artikel löschen

Der Französische Geheimdienst (hat) versucht, den Wikipedia-Eintrag über eine militärische Funkstation löschen zu lassen. Grund: Der Artikel enthalte vertrauliche Militärinformationen, deren Veröffentlichung gegen französische Strafgesetze verstößt. Nach Ansicht der Wikimedia Foundation sind hingegen alle im Artikel enthaltenen Informationen bereits öffentlich bekannt. Dennoch nahm ein Administrator der Wikimedia-France den Artikel vom Netz, nachdem ihm französische Behörden strafrechtliche Konsequenzen angedroht hatten. Daraufhin stellte ein Administrator der US-Wikimedia den Artikel jedoch wieder online.
Zur Meldung bei heise.de.

Google-Hangout: Bundeskanzlerin im „Rundfunk Internet”

Bundeskanzlerin Merkel will Mitte April per Google-Hangout mit Bürgern diskutieren. Daraufhin entbrannte eine Diskussion, ob ein solcher Hangout “Rundfunk” sei – dieser könnte dann zulassungspflichtig sein. Nach Ansicht der Kommission für Zulassung und Aufsicht (ZAK), die unter anderem für Fragen der Zulassung und Kontrolle bundesweiter Veranstalter zuständig ist, sei der Videochat der Kanzlerin jedoch „nach erster Einschätzung” kein „Rundfunk”. Ein Hangout könne jedoch zulassungspflichtig sein, wenn er journalistisch-redaktionell gestaltet ist und die Verbreitung des Angebots entlang eines Sendeplans erfolgt.
Die Pressemitteilung der ZAK.
Rechtliche Einschätzung bei Internet-Law.

Telefonprovider darf Zusatzoptionen nicht nachträglich kündigen

Ein Telefonprovider darf einzelne Vertragsteile nicht von sich aus kündigen. Das Landgericht Hamburg hat eine entsprechende AGB-Klausel für unwirksam erklärt. Ein Telefonprovider hatte eine Flatrate für Telefongespräche ins Ausland angeboten. Der Provider kündigte die Flatrate bei einigen Kunden und rechnete Auslandsgespräche in der Folgezeit einzeln ab. Nach Ansicht des Gerichts bewirkt die nachträgliche Kündigung einzelner Optionen eine unzulässige Preiserhöhung im Hinblick auf den gesamten Vertrag. Der Kunde eines Telefonanschlusses schließe nicht mehrere Einzel-, sondern einen Komplettvertrag. Geklagt hatte die Verbraucherzentrale Hamburg.
Zur Meldung bei heise.de.

Lizenz dieses Artikels: CC BY-NC-SA. Foto: Guillermo EstevesCC BY-NC-SA.

March 11 2013

Four short links: 11 March 2013

  1. Adventures in the Ransom Trade — between insurance, protection, and ransoms, Sean Gourley describes it as “one of the more interesting grey markets.” (via Sean Gourley)
  2. About High School Computer Science Teachers (Selena Deckelmann) — Selena gets an education in the state of high school computer science education.
  3. Learning From Big Data (Google Research) — the Wikilinks Corpus: 40 million total disambiguated mentions within over 10 million web pages [...] The mentions are found by looking for links to Wikipedia pages where the anchor text of the link closely matches the title of the target Wikipedia page. If we think of each page on Wikipedia as an entity (an idea we’ve discussed before), then the anchor text can be thought of as a mention of the corresponding entity.
  4. Teens Have Always Gone Where Identity Isn’tif you look back at one of the first dominant social platforms, AOL Instant Messenger, it looks a lot like the pseudonymous Tumblr and Snapchat of today in many respects. You used an avatar that was not your face. Your screenname was not indexed and not personally identifiable (mine was Goober1310).

January 16 2013

Wikimedia Commons: 70 Jahre tot ist nicht genug

Hunderte Bilder lange verstorbener Künstler, wie Max Liebermann und Leo Gestel, wurden aus der Online-Enzyklopädie Wikipedia entfernt und aus der Mediensammlung Wikimedia Commons

Weiterlesen

January 08 2013

Pavel Richter: „Den Kontrollverlust als etwas Positives begreifen“

Medien wie Spiegel Online sollten dem Beispiel der Wikipedia folgen und die freie Bearbeitung ihrer Texte erlauben, meint Pavel Richter.

Weiterlesen

January 07 2013

Frauen, Gender, Netzpolitik: Wo stehen wir 2012?

Sind Frauen und Männer im Netz gleich, wie manche (Männer) behaupten? Oder gibt es noch Baustellen?

Weiterlesen

October 25 2012

June 25 2012

Wochenrückblick: INTA zu ACTA, Loriot-Briefmarken, Urheberrecht vs. Handelsfreiheit

ACTA wird auch im INTA-Ausschuss abgelehnt, Wikipedia darf Loriot-Briefmarken nicht mehr zeigen, der EuGH stellt das Urheberrecht über die Handelsfreiheit.

Weiterlesen

April 12 2012

Strata Week: Add structured data, lose local flavor?

Here are a few of the data stories that caught my attention this week:

A possible downside to Wikidata

Wikidata data model diagram
Screenshot from the Wikidata Data Model page.

The Wikimedia Foundation — the good folks behind Wikipedia — recently proposed a Wikidata initiative. It's a new project that would build out a free secondary database to collect structured data that could provide support in turn for Wikipedia and other Wikimedia projects. According to the proposal:

"Many Wikipedia articles contain facts and connections to other articles that are not easily understood by a computer, like the population of a country or the place of birth of an actor. In Wikidata, you will be able to enter that information in a way that makes it processable by the computer. This means that the machine can provide it in different languages, use it to create overviews of such data, like lists or charts, or answer questions that can hardly be answered automatically today."

But in The Atlantic this week, Mark Graham, a research fellow at the Oxford Research Institute, takes a look at the proposal, calling these "changes that have worrying connotations for the diversity of knowledge in the world's sixth most popular website." Graham points to the different language editions of Wikipedia, noting that the encyclopedic knowledge contained therein is always highly diverse. "Not only does each language edition include different sets of topics, but when several editions do cover the same topic, they often put their own, unique spin on the topic. In particular, the ability of each language edition to exist independently has allowed each language community to contextualize knowledge for its audience."

Graham fears that emphasizing a standardized, machine-readable, semantic-oriented Wikipedia will lose this local flavor:

"The reason that Wikidata marks such a significant moment in Wikipedia's history is the fact that it eliminates some of the scope for culturally contingent representations of places, processes, people, and events. However, even more concerning is that fact that this sort of congealed and structured knowledge is unlikely to reflect the opinions and beliefs of traditionally marginalized groups."

His arguments raise questions about the perceived universality of data, when in fact what we might find instead is terribly nuanced and localized, particularly when that data is contributed by humans who are distributed globally.

The intricacies of Netflix personalization

Netflix suggestion buttonNetflix's recommendation engine is often cited as a premier example of how user data can be mined and analyzed to build a better service. This week, Netflix's Xavier Amatriain and Justin Basilico penned a blog post offering insights into the challenges that the company — and thanks to the Netflix Prize, the data mining and machine learning communities — have faced in improving the accuracy of movie recommendation engines.

The Netflix post raises some interesting questions about how the means of content delivery have changed recommendations. In other words, when Netflix refocused on its streaming product, viewing interests changed (and not just because the selection changed). The same holds true for the multitude of ways in which we can now watch movies via Netflix (there are hundreds of different device options for accessing and viewing content from the service).

Amatriain and Basilico write:

"Now it is clear that the Netflix Prize objective, accurate prediction of a movie's rating, is just one of the many components of an effective recommendation system that optimizes our members' enjoyment. We also need to take into account factors such as context, title popularity, interest, evidence, novelty, diversity, and freshness. Supporting all the different contexts in which we want to make recommendations requires a range of algorithms that are tuned to the needs of those contexts."

Fluent Conference: JavaScript & Beyond — Explore the changing worlds of JavaScript & HTML5 at the O'Reilly Fluent Conference (May 29 - 31 in San Francisco, Calif.).

Save 20% on registration with the code RADAR20

Got data news?

Feel free to email me.

Related:

Reposted byRK RK

March 15 2012

Developer Week in Review: When game development met Kickstarter

Happy day after Pi Day, everyone (except all you Tau fanatics ...). If you happen to live in Louisville, drop by the FedEx facility there and say "hi" to my new iPad. It's been sitting there since last Friday, waiting for the magic hour to take the final leg of its voyage so all of them arrive on the same day (unless you happen to live in Vietnam, evidently ...). My upgraded Apple TV unit is allegedly arriving today, a day early. That's me, single-handedly helping to drive Apple's stock price over $700.

Disintermediation, thy name is Kickstarter

Double Fine Adventure Kickstarter campaign

Kickstarter has gained a reputation for letting small ventures crowdsource their funding, providing an alternative to venture and bank investments for new products and projects. But with a few notable exceptions, it's been fairly small-scale stuff, typically between $10,000 and $100,000 of total funding.

Meanwhile, independent game designers have been hampered by the large costs associated with creating products that can compete with the big players such as EA. With costs for even a relatively simple game running into the millions, there was no practical way to fund great ideas without giving up artistic control to the megacorps.

Now, several game developers have decided that game funding and Kickstarter are two great tastes that taste great together. Crowdfunding for small software projects is old hat for Kickstarter, but the scale that it is now being taken to is rather breathtaking.

It started with the folks over at "Double Fine Adventure" (which includes the talent behind the well-known "Monkey Island" series of games), who set up a Kickstarter project with a $400,000 goal. That money was intended to fund development of a new point-and-click adventure game. To say that it was successful is truly an understatement: The project ended up with $3.3 million dollars in funding.

Brian Fargo, who was executive producer for the hit games "Wasteland" and "Fallout," evidently liked what he saw. He's following the same model for "Wasteland 2." It's already blown past the stated goal of $900,000 (it was just over a million dollars pledged when I wrote this). With 32 days to go in the pledge period, it's almost certain that they will even exceed the $1.5-million-dollar level that will let them create both a Windows and OS X version.

This disintermediated payment model is very exciting, both for software developers who might have a big idea that needs big funds, and potentially for many other areas of creative endeavor. Your favorite show just got canceled? Fund it yourselves! In the mean time, hopefully we'll see more exciting independent games find the budgets they need to become reality.

Fluent Conference: JavaScript & Beyond — Explore the changing worlds of JavaScript & HTML5 at the O'Reilly Fluent Conference (May 29 - 31 in San Francisco, Calif.).

Save 20% on registration with the code RADAR20

And speaking of crowdsourcing

This week marks the end of an era, as Encyclopedia Britannica announced that they will no longer issue a print version of their product (digital products will continue). For people of my age, Britannica was the go-to source when grinding out those high school term papers (along with another dinosaur, the Reader's Guide to Periodical Literature).

What did in the EB was, of course, Wikipedia. For all its warts, there was just no way that a massive tome (both physically and financially) was going to survive in the long term, when a much more up-to-date and comprehensive source was available for free. The Britannica's 120,000 articles just couldn't compete with Wikipedia's nearly three million, especially when the cutting-edge articles in the 2010 EB edition covered such breaking news as the Human Genome Project (completed in, wait for it, 2003).

Purists will bemoan the death of an authoritative, expert-edited research source, but the reality is that expert-curated sources (such as journals) are proving to be as subject to bias and error as crowdsourced ones. I hear horror stories from my wife about how hard it is to get a journal article accepted if it goes against the conventional wisdom, especially since the people reviewing the articles are usually the ones who have the most to lose if it turns out they were wrong. Crowdsourced reference material can suffer from the opposite problem, letting fringe theories creep in around the edges, of course.

In the end, what won the war for Wikipedia (apart from price and convenience) is the sheer volume of information available. Sure, a complete list of the characters appearing in "Firefly" may not end up being crucial to your kid's next senior essay, but life is more than just papers. Wikipedia rules because it has the meaty articles, but also the ones you need on a day-to-day basis.

Got news?

Please send tips and leads here.

Related:

February 16 2012

Four short links: 16 February 2012

  1. The Undue Weight of Truth (Chronicle of Higher Education) -- Wikipedia has become fossilized fiction because the mechanism of self-improvement is broken.
  2. Playfic -- Andy Baio's new site that lets you write text adventures in the browser. Great introduction to programming for language-loving kids and adults.
  3. Review of Alone Together (Chris McDowall) -- I loved this review, its sentiments, and its presentation. Work on stuff that matters.
  4. Why ESRI As-Is Can't Be Part of the Open Government Movement -- data formats without broad support in open source tools are an unnecessary barrier to entry. You're effectively letting the vendor charge for your data, which is just stupid.

December 05 2011

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl