Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 27 2014

Four short links: 27 February 2014

  1. Our Comrade, The Electron (Maciej Ceglowski) — a walk through the life of the inventor of the Theremin, with a pointed rant about how we came to build the surveillance state for the state. One of the best conference talks ever, and I was in the audience for it!
  2. go.cd — continuous deployment and delivery automation tool from Thoughtworks, nothing to do with the Go programming language. The name is difficult to search for, so naturally we needed the added confusion of two projects sharing the name. Continuous deployment is an important part of devops (“the job of our programmers is not to write code, it is to deploy working code into production”—who said this? I’ve lost the reference already).
  3. Apple iBeacon Developer Programme — info locked up behind registration. Sign an NDA to get the specs, free to use the name. Interesting because iBeacon and other Bluetooth LE implementations are promising steps to building a network of things. (via Beekn)
  4. ShareLaTeX — massively multiplayer online LaTeX. Open sourced.

February 18 2014

Mini-Cloud im Selbstbau: Mac-Adressbuch und Kalender mit dem Raspberry Pi und Owncloud synchronisieren

Die freie Software Owncloud kann nicht nur Dateien, sondern auch Adressbücher und Kalender über mehrere Geräte hinweg synchronisieren. Ob sie damit als Alternative zu iCloud, Google-Kalendern & Co. dienen kann, haben wir auf dem Mikrocomputer Raspberry Pi ausprobiert und erklären den Weg zur eigenen Mini-Cloud in sieben Schritten.

Private Daten wie Kalender oder Adressbücher in den Clouds von Google, Apple & Co. zu speichern, kann in letzter Zeit ein ungutes Gefühl hinterlassen. Nicht nur lagern immer mehr unserer Daten bei wenigen Anbietern; die NSA und ihre Freunde können sie offenbar auch nach Belieben wieder abzapfen. Für Apple-Nutzer wurde die Cloud allerdings kürzlich zum Standard erklärt – bei Adressbüchern und Kalendern ist es seit der letzten OS-Version Mavericks nicht mehr möglich, sie lokal zu sychronisieren.

Grund genug, es einmal mit einer Do-it-yourself-Lösung zu probieren: Mit dem Mikrorechner Raspberry Pi und der freien Software Owncloud lässt sich eine eigene Mini-Cloud einrichten, die mobile und stationäre Geräte aktuell hält. Owncloud hat noch weitere Funktionen: So lassen sich etwa Dokumente im Browser erstellen und bearbeiten oder Dateien und Ordner à la Dropbox speichern. In punkto Performance kann das Ergebnis hier sehr unterschiedlich ausfallen. Um Adressbücher und Kalender abzugleichen, ist das aber nebensächlich.

Speziell zum Abgleich von Kalendern und Kontakten gibt es auch andere Programme wie etwa Baikal oder Radicale, die ebenfalls einen eigenen CalDAV- und CardDAV-Server zur Verfügung stellen. Auch diese Programme sind einen Blick wert. Wer will, kann Owncloud natürlich auch auf anderen Rechnern installieren, die aber dauerhaft laufen müssen.

Das wird für die Mini-Cloud benötigt:

Raspberry Pi mit Zubehör: SD-Karte, Ethernet-Kabel und Netzteil

Raspberry Pi mit Zubehör: SD-Karte, Ethernet-Kabel und Netzteil

Neben einem konfigurierbaren Router und – natürlich – einem Internetanschluss sowie den abzugleichenden Geräten gehören vier Dinge zur Mini-Cloud:

  • 1 Raspberry Pi, Modell B mit Internetanschluss. Im Versand oder manchen Elektronikmärkten ist er für 35 bis 40 Euro (ohne Gehäuse und Zubehör) erhältlich.
  • 1 Netzteil (Mikro-USB, 5 Volt). Wer ein passendes Netzteil zum Laden eines Android-Smartphones hat, kann es auch für den Raspberry Pi verwenden. Kostenpunkt für ein Modell mit 1200mAh Leistung, die hier ausreichen: 5–10 Euro.
  • 1 Ethernet-Kabel für die Verbindung mit dem Router. Kostenpunkt: ab 3 Euro.
  • 1 SD-Karte, die beim Raspberry Pi statt einer Festplatte zum Einsatz kommt. Eine 4-GB-Karte empfiehlt sich als Minimum. Bei manchen Modellen soll es Kompatibilitätsprobleme geben, das Embedded Linux Wiki hat dazu eine ausführliche Liste. Kostenpunkt: ab 5 Euro.

Zusätzlich haben wir den Raspberry Pi mit einem stabilen Gehäuse ausgerüstet (im Bild das Modell „Rainbow” von Pibow); das ist aber nicht zwingend nötig. Da der Mini-Rechner komplett über eine Netzwerkverbindung eingerichtet werden kann, kann man auf einen zusätzlichen Bildschirm und Tastatur verzichten.

Um den Raspberry Pi hat sich mittlerweile eine große Community gebildet, die ihn als Grundbaustein für alle nur denkbaren Projekte einsetzt. So finden sich im Netz reichlich Anleitungen und Tipps, auf die wir auch hier zurückgreifen. Wer weiteren Rat braucht, kann zum Beispiel die Seiten der Raspberry Pi Foundation oder das deutschsprachige Raspberry-Pi-Forum besuchen. Dort finden sich auch Anleitungen für Windows- und Linux-Nutzer – die grundlegenden Schritte sind aber dieselben.

Der Weg zur Mini-Cloud in 7 Schritten

1. SD-Karte mit Raspbian erstellen

2. Den Raspberry Pi einrichten

3. Owncloud und weitere Software installieren

4. Owncloud-Einrichtung abschließen

5. Dauerhafte Adresse und Freigabe im Router einrichten

6. Adressbücher und Kalender importieren

7. Owncloud-Account auf anderen Geräten einrichten

1. SD-Karte mit Raspbian erstellen

Raspbian ist eine speziell für den Raspberry Pi angepasste Variante des freien Betriebssystems Debian. Den jeweils aktuellen Download gibt es direkt bei der Raspberry Foundation. Um Raspbian korrekt auf die SD-Karte zu übertragen, lassen sich alle notwendigen Befehle auf dem Terminal eingeben, der Kommandozeile von Mac OS. Einfacher geht es mit Programmen wie Pi Writer oder dem RPi SD Card Builder, die durch die Schritte führen.

Befüllt man die SD-Karte per Kommandozeile, sollte man ganz besonders auf die richtigen Pfadangaben achten, um nicht versehentlich Laufwerke zu löschen. Hier im Beispiel ist die SD-Karte unter “/dev/disk2” erreichbar.

Befüllt man die SD-Karte per Terminal, sollte man auf die richtigen Pfadangaben achten, um nicht versehentlich ganze Laufwerke zu löschen. Hier im Beispiel ist die SD-Karte unter “/dev/disk2” erreichbar.

Das Aufspielen des Raspbian-Betriebssystems auf die SD-Karte kann je nach Modell zwischen ein paar Minuten und etwa einer halben Stunde dauern. Hat alles geklappt, besitzt die SD-Karte anschließend zwei Partitionen:

03-sd-karte-partitionen

Ein Blick mit dem „Festplattendienstprogramm“ zeigt zwei Partitionen. Der restliche, ungenutzte Speicherplatz lässt sich später wieder hinzufügen.

2. Den Raspberry Pi einrichten

Der Aufbau beschränkt sich darauf, den Raspberry mit einer freien LAN-Buchse im Router zu verbinden und die bespielte SD-Karte einzustecken. Mit dem Anschluss des Netzteils bootet der Raspberry Pi zum ersten Mal. Ob alles läuft, lässt sich an den LEDs überprüfen.

Jetzt gilt es herauszufinden, unter welcher IP-Adresse im lokalen Netzwerk der Raspberry Pi erreichbar ist. Wer eine Fritzbox einsetzt, findet alle verbundenen Geräte im Routermenü unter „Heimnetz”, „Netzwerk” im Menüpunkt „Geräte und Benutzer”. Alternativ lässt sich das lokale Netzwerk mit Programmen wie zum Beispiel IP Scanner oder dem Pi Finder durchsuchen, um die IP-Adresse zu erhalten.

Unter dem Punkt „Bearbeiten” lässt sich im Menü der Fritzbox ein Netzwerkname für den Raspberry Pi vergeben. Hier sollte man auch das Häkchen bei „Diesem Netzwerkgerät immer die gleiche IPv4-Adresse zuweisen” setzen.

Mit dieser Einstellung bleibt die lokale IP-Adresse des Raspberry Pi konstant.

Mit dieser Einstellung bleibt die lokale IP-Adresse des Raspberry Pi konstant.

Dann lässt sich eine SSH-Verbindung mit dem Raspberry aufbauen, um die weitere Einrichtung über das Netzwerk vorzunehmen. Der Terminalbefehl lautet:

ssh pi@IP-Adresse

Das „pi” gibt den Nutzernamen an, der Teil „IP-Adresse“ ist durch diejenige des Raspberry Pi zu ersetzen. Beim ersten Boot lautet das dann einzugebende Passwort für den Nutzer „pi” immer „raspberry”.

Mit dem Befehl

sudo raspi-config

gelangt man ins Konfigurationsmenü.

05-raspi-config

Das Konfigurationsmenü des Raspberry Pi

Es empfiehlt sich, hier zuerst einige grundlegende Einstellungen vorzunehmen, mindestens diese beiden:

  • „Expand Filesystem”: Aktiviert man diese Option, nutzt Raspbian den gesamten verfügbaren Speicherplatz der SD-Karte, auch wenn das Betriebssystem selbst weniger Platz braucht
  • „Change User Password“: Das Standard-Passwort sollte natürlich durch ein selbstgewähltes sicheres Passwort ersetzt werden.

Will man später auch die grafische Oberfläche von Raspbian übers Netzwerk steuern, installiert man zusätzlich das Programm TightVNC Server auf dem Raspberry.

3. Owncloud und weitere Software installieren

Damit Owncloud läuft, benötigt es noch zusätzliche Software: Eine Webserver-Anwendung, die Skriptsprache PHP5 und eine Datenbank. Wir entscheiden uns für die vergleichsweise schlanke Variante mit dem Webserver Nginx und SQLite als Datenbank. Man kann aber auch Apache und MySQL verwenden.

Von den vielen Anleitungen, die im Netz kursieren, funktionierte das Tutorial „Owncloud 5 Server installieren“ im deutschen Raspberry-Pi-Forum bei uns auf Anhieb, so dass wir lediglich darauf verweisen. Alle nötigen Befehle, um Owncloud und die weitere Software zu installieren, sind dort aufgeführt – nur die lokale IP-Adresse des Raspberry Pi muss angepasst werden.

06-owncloud-installation

Die Installation von Owncloud und aller zusätzlich nötigen Pakete dauert etwa 10 Minuten. Hier und da sind Warnmeldungen möglich, die aber nicht gleich Fehler nach sich ziehen müssen.

4. Owncloud-Einrichtung abschließen

Nach der Installation der Owncloud-Software muss noch ein Administratorkonto und gegebenenfalls weitere Benutzerkonten angelegt werden. Das geschieht über das Webinterface, welches im lokalen Netzwerk jetzt per Browser erreichbar ist – typischerweise mit einer Adresse nach dem Schema „192.168.x.y/owncloud/”

Nach dem Abschluss der Installation ist Owncloud über die lokale IP-Adresse des Raspberry Pi und den Pfad “/owncloud/” im Browser erreichbar.

Nach der Installation ist Owncloud über die lokale IP-Adresse des Raspberry Pi und den Pfad “/owncloud/” im Browser erreichbar.

5. Dauerhafte Adresse und Freigabe im Router einrichten

Um nicht nur vom lokalen Netzwerk, sondern dauerhaft von außerhalb auf Owncloud zugreifen zu können, benötigt der Raspberry Pi noch eine feste Webadresse. Internetprovider vergeben in der Regel aber nur „dynamische” IP-Adressen, die sich nach gewisser Zeit ändern. Abhilfe schaftt zum Beispiel die Fritzbox: Neuere Modelle stellen unter dem Namen „MyFritz” einen Dienst bereit, der eine feste Adresse für den Router vergibt. Der Router leitet den Datenverkehr dann an den Raspberry Pi weiter.

Um den Internetzugriff mit dauerhafter Adresse zu benutzen, lässt sich über das Routermenü ein zusätzliches „MyFritz“-Konto anlegen. Unter „Internet“ – „MyFritz“ – „MyFritz!-Freigaben“ lässt sich dann die Freigabe im Router einrichten. Standardmäßig nutzt Owncloud Port 443 für HTTPS-Verbindungen.

Nach Einrichtung der Freigabe wird die URL angzeigt, unter der Owncloud nun von überall zu erreichen ist – die lange, kryptische Buchstaben- und Zahlenfolge in der Mitte lässt sich leider nicht ändern, man kann sich aber etwa mit einem URL-Verkürzer behelfen.

Nach Einrichtung der Freigabe wird die URL angzeigt, unter der die Owncloud-Weboberfläche extern zu erreichen ist – die lange Buchstaben- und Zahlenfolge in der Mitte wird automatisch generiert.

Wer einen anderen Router verwendet, kann sich mit einem DynDNS-Dienst ebenfalls eine dauerhafte Webadresse einrichten. DynDNS-Dienste gibt es mit einigen Einschränkungen kostenlos oder gegen eine geringe monatliche Gebühr. Im Router muss dann noch eine Portweiterleitung eingerichtet werden.

6. Adressbücher und Kalender importieren

Der schnellste Weg, Adressbücher und Kalender in die eigene Wolke zu laden, führt über die Webanwendung von Owncloud, die Dateien im VCF- und ICS-Format importieren kann.

Kalenderdateien (.ics) werden dann über den Menüpunkt „Dateien” hochgeladen. Beim Klick auf die Datei fragt Owncloud dann, ob es diesen als Kalender importieren soll.

Kalenderdateien (.ics) werden über den Menüpunkt „Dateien” hochgeladen. Beim Klick auf die Datei fragt Owncloud, ob es diese als Kalender importieren soll.

Bei Adressbüchern (.vcf) klappte der Import in unserem Versucht allerdings nicht immer reibungslos: Bei einem Adressbuch, in dessen Feldern Doppelpunkte vorkamen, brach der Import sang- und klanglos ab. Im Zweifel muss man vor dem Import noch an den Daten feilen. Auch Gruppen ließen sich nicht importieren, da Owncloud sie als regulären Adressbuch-Eintrag interpretierte – ein Fehler, der hoffentlich bald behoben wird.

7. Owncloud-Account auf anderen Geräten einrichten

Im letzten Schritt müssen die Owncloud-Daten noch auf allen abzugleichenden Geräten eingegeben werden – in diesem Beispiel im Kalender und der Kontaktverwaltung für iOS und Mac OS X. Owncloud bietet zwar Clients für alle gängigen Betriebssysteme an, zum Abgleich von Adressbüchern und Kalendern sind sie aber nicht notwendig.

In Mac OS X lassen sich die Owncloud-Daten für Kalender über „Systemeinstellungen“, „Internetaccounts“ eingeben (beziehungsweise „Mail, Kontakte und Kalender“). Unter „Anderen Account hinzufügen“ gibt es die Optionen „CalDAV-Account“ für Kalender und „CardDAV-Account“ für Adressbücher. Hier muss man den Owncloud-Benutzernamen, das Passwort und die Serveradresse eingeben.

Die Serveradresse für Kalender hat das Schema:

https://Server:Port/owncloud/remote.php/caldav/principals/Name/

Für Adressbücher:

https://Server/owncloud/remote.php/carddav/principals/Name/

Server ist in diesem Fall durch den Gerätenamen des Raspberry Pi und die „myfritz.net“-Adresse zu ersetzen – bei anderen DynDNS-Diensten durch die dort vergebene Webadresse, Port durch den im Router freigebenen Port, Name durch den Owncloud-Benutzernamen.

Die Owncloud-Zugangsdaten werden in den Account-Einstellungen unter „CalDAV-“ und „CardDAV-Account eingegeben. Startet man anschließend die Programme, kann das erste Synchronisieren einige Minuten dauern.

Die Owncloud-Zugangsdaten werden in den Account-Einstellungen unter „CalDAV-“ und „CardDAV-Account eingegeben. Das erste Synchronisieren kann einige Minuten dauern.

Für iOS-Geräte ist das Vorgehen nahezu identisch, allerdings kam es in unserem Versuch zu Meldungen, dass eine Verbindung über SSL nicht möglich sei. Statt mit der Einrichtung ohne SSL fortzufahren, sollte man die eingebenen Daten trotzdem speichern. Stimmen alle Daten, stellen Kalender und Adressbuch später dennoch eine sichere Verbindung her, wenn man das bei der Owncloud-Installation selbst erzeugte Zertifikat akzeptiert hat.

iOS meckert zwar bei der Eingabe der Owncloud-Daten mehrfach, ignoriert man die Fehlermeldungen, funktioniert der Abgleich aber anschließend trotzdem.

iOS beschwert sich zwar bei der Eingabe der Owncloud-Daten mehrfach, der Abgleich funktioniert anschließend aber trotzdem.

Fazit

Die eigene Mini-Cloud für Adressbücher und Kalender einzurichten, bringt zwar zunächst etwas Aufwand mit sich – läuft das System erst einmal rund, war im Alltag bei unserem Versuch kaum ein Unterschied zu bemerken. Dennoch lässt sich etwa bei der Owncloud-Installation noch viel vereinfachen. Ob die eigene Mini-Cloud als Alternative zu den großen Diensteanbietern taugt, hängt von den eigenen Präferenzen ab. Bedenken sollte man:

  • Wer nicht mehr als ein paar Klicks investieren will und auf größtmöglichen Komfort setzt, ist bei der Cloud im Selbstbau an der falschen Adresse; auch der Funktionsumfang ist etwas geringer. Bei der dauerhaften Verfügbarkeit etwa kann die Mini-Cloud natürlich nicht mit „echten“ Cloud-Infrastrukturen mithalten. Fällt ein Teil aus oder ist das System fehlerhaft eingerichtet, zeigen sich die Nachteile schnell.
  • Für die Datensicherheit ist man selbst verantworlich: Es liegt in der Hand des Nutzers, die richtigen Einstellungen vorzunehmen und alle Komponenten aktuell zu halten – nicht zu vergessen den Router. Auch Owncloud ist keine Wunderwaffe, sondern ein Programm mit Lücken und Schwächen wie andere auch.

Dennoch: Wer bereit ist, etwas Zeit und Einrichtungs-Arbeit in die eigene Mini-Cloud zu investieren, liegt mit dem Raspberry Pi nicht verkehrt; mit Owncloud gibt es zudem eine freie und kostenlose Software, die mittlerweile beachtliche Dienste leistet. Wer sie installiert, kann dabei nicht nur eine Menge lernen – Owncloud & Co. zeigen auch, dass es Alternativen zur Zentralisierung der Daten bei wenigen Anbietern gibt. Die Ansätze jedenfalls sind vorhanden.

February 14 2014

Four short links: 14 February 2014

  1. Bitcoin: Understanding and Assessing Potential Opportunities (Slideshare) — VC deck on Bitcoin market and opportunities, long-term and short-term. Interesting lens on the development and gaps.
  2. Queensland Police Map Crime Scenes with 3D Scanner (ComputerWorld) — can’t wait for the 3D printed merchandise from famous trials.
  3. Atheer LabsAn immersive 3D display, over a million apps, sub-mm 3D hand interaction, all in 75 grams.
  4. libcloudPython library for interacting with many of the popular cloud service providers using a unified API.

January 24 2014

Rüdiger Weis: Wer unverschlüsselt kommuniziert, kann seine Daten auch gleich an die Geheimdienste schicken

Rüdiger Weis, Professor für Informatik an der Beuth-Hochschule Berlin, spricht im iRights.info-Interview über Kryptographie, die Reaktionen von Internetdiensten und Politik auf die Überwachungsenthüllungen – und darüber, wie jeder mit freier Software für mehr Datensicherheit sorgen kann.

Der Journalist Glenn Greenwald zog in einer Anhörung des Europäischen Parlaments im Dezember folgendes Fazit über die Enthüllungen aus dem Fundus von Edward Snowden: Die Überwachungsprogramme der NSA und seines britischen Partners GCHQ liefen – ohne Übertreibung – darauf hinaus, dass es bei elektronischer Kommunikation schlechthin keine Privatsphäre mehr geben solle.

Für Internet-Dienste – ob E-Mail-Anbieter oder Cloud-Provider – gehen die Enthüllungen auch mit einem Vertrauensverlust einher. Viele Anbieter haben darauf unter anderem damit reagiert, internen Datenverkehr zwischen den Rechenzentren oder den Transport von E-Mails zu verschlüsseln.

Rüdiger Weis ist Kryptograph und Professor für Informatik an der Beuth-Hochschule für Technik Berlin und leitet die Arbeitsgruppe Cryptolabs in Amsterdam. Er ist Mitglied des Chaos Computer Clubs und bei Digitale Gesellschaft e.V. Foto: WP/Tobias Klenze, CC BY-SA.

Rüdiger Weis ist Kryptograph und Professor für Informatik an der Beuth-Hochschule für Technik Berlin. Er leitet die Cryptolabs in Amsterdam, ist Mitglied im Chaos Computer Club und bei Digitale Gesellschaft e.V. Foto: WP/Tobias Klenze, CC BY-SA

Rüdiger Weis, Professor für Informatik und Krytographie-Experte sieht das mit gemischten Gefühlen: Einerseits sei es ein Schritt in die richtige Richtung – andererseits zeige es, wie unverantwortlich die Unternehmen bislang mit Nutzerdaten umgegangen seien und selbst geringen Aufwand scheuten, die Daten der Nutzer zu schützen. Die Industrie sei aber dabei, bei der Datensicherheit umzudenken.

Freie Software zum Verschlüsseln für jeden

„Sicherheit ist immer mit Arbeit verbunden“, räumt Weis ein. Die gute Nachricht aber liege darin, dass für jeden Nutzer Möglichkeiten bereit stehen, selbst für mehr Sicherheit zu sorgen. Mit relativ geringem Aufwand einsetzen lassen sich etwa:

Mehr Aufwand erfordert Ende-zu-Ende-Verschlüsselung mit OpenPGP, die nicht nur den Transport, sondern auch die Inhalte von E-Mails verschlüsselt. Ähnlich ist es mit der Anonymisierungssoftware Tor, die den Datenverkehr über mehrere Ecken schickt. Weil all das freie Softwareprodukte sind, kann man nicht nur die Sicherheit öffentlich überprüfen, sie sind auch kostenlos.

Abschalten sollte man dagegen Verschlüsselungsverfahren, die als gebrochen gelten können, rät Weis. Dazu gehört das Verfahren RC4, das beispielsweise bei gesicherten HTTPS-Verbindungen zum Online-Banking eingesetzt wird. Microsoft etwa hat es bereits weitgehend abgeschaltet, man kann es aber auch selbst im Browser deaktivieren.

„Schengen-Cloud“ und Kryptographie in der digitalen Gesellschaft

Für die Pläne zu einem deutschen oder europäischen Datenverkehr („Schengen-Cloud“) hat Weis ebenso Verständnis wie Unverständnis: Wenn etwa Unternehmen in Deutschland sich vor Wirtschaftsspionage durch den US-Geheimdienst schützen wollen, sei das berechtigt und verständlich. Die Situation in Europa sei aber nicht viel besser, wenn auch der britische Geheimdienst den Datenverkehr umfassend ablausche und mit der Vorratsdatenspeicherung eine „Komplettüberwachung” der Bürger geplant werde.

Kryptographie ist für Weis nicht nur ein Mittel für den Schutz des Einzelnen, sondern hat gesesellschaftspolitische Bedeutung. Er denkt dabei etwa an gesicherte Online-Wahlen, aber auch an digitale Währungen wie Bitcoin. Die Entwicklung digitaler Währungen zeige jedoch ebenso, wie Bürger sich dort vom Staat abwenden und ihm Loyalität entziehen können, wo es um seine Kernaufgaben geht. Wenn Staaten die Bürger nur mehr als Gefahrenquelle ansehen, werde diese Tendenz der Abwendung noch weiter gestärkt, warnt Weis.

Four short links: 24 January 2014

  1. What Every Computer Scientist Should Know About Floating Point Arithmetic — in short, “it will hurt you.”
  2. Ori a distributed file system built for offline operation and empowers the user with control over synchronization operations and conflict resolution. We provide history through light weight snapshots and allow users to verify the history has not been tampered with. Through the use of replication instances can be resilient and recover damaged data from other nodes.
  3. RoboEartha Cloud Robotics infrastructure, which includes everything needed to close the loop from robot to the cloud and back to the robot. RoboEarth’s World-Wide-Web style database stores knowledge generated by humans – and robots – in a machine-readable format. Data stored in the RoboEarth knowledge base include software components, maps for navigation (e.g., object locations, world models), task knowledge (e.g., action recipes, manipulation strategies), and object recognition models (e.g., images, object models).
  4. Mother — domestic sensors and an app with an appallingly presumptuous name. (Also, wasn’t “Mother” the name of the ship computer in Alien?) (via BoingBoing)

January 15 2014

Big Data in der Medizin

In Blutwerten, DNA-Profilen und Fallstudien könnten sich medizinisch nutzbare Erkenntnisse verbergen – wenn man sie im großen Stil erfasst und analysiert. Allerdings wirft „Big Data“ in der Medizin auch Fragen auf – von der Rolle der Ärzte bis zum Datenschutz.

Ein Forscherteam am Institute of Technology der University of Ontario überraschte die 2010 Fachwelt mit einer Beobachtung. Anders als man das intuitiv vermuten würde, stabilisieren sich bei Frühgeborenen zunächst die Vitalfunktionen, bevor es zu einer schweren Infektion kommt.

Möglich machte diese Erkenntnis eine Software, die pro Sekunde 1.260 Datensätze von Patienten erfasst – von der Atmung bis zum Sauerstoffgehalt im Blut. Erst die Zusammenführung und Analyse der gewaltigen Mengen an Körperdaten brachte die zuvor unbekannten Krankheitssymptome zu Tage. „Sie können es nicht mit dem bloßen Auge sehen, aber der Computer kann es“, erklärt Forschungsleiterin Carolyn McGregor. Ärzte können anhand der Daten nun früher gegen drohende Infektionen vorzugehen.

McGregors Untersuchung ist ein beliebtes Beispiel für den Einzug der „Big Data“-Forschung in die Medizin. Gemeint sind damit Verfahren, bei denen große Datenmengen aus vielfältigen Quellen erfasst, verteilt, gespeichert, durchsucht, analysiert, miteinander in Beziehung gesetztund visualisiert werden.

Im Gesundheitswesen sollen sie helfen, Krankheiten früher und besser zu erkennen, zu therapieren oder gar zu vermeiden – so zumindest die Vision von Wissenschaftlern und Unternehmen. Der Internetforscher Viktor Mayer-Schönberger (Universität Oxford) ist sich bereits sicher, Big Data helfe in Zukunft „ganz unmittelbar Menschenleben zu retten“. Doch wie genau macht Big Data das?

Zusammenhänge erstmal beobachten

IT-Technik ist in der Medizin nichts Neues. Charakteristisch für Big-Data-Analysen ist allerdings, dass sie den üblichen wissenschaftliche Arbeitsweg umdrehen können. Klassischerweise stellen Forscher eine Hypothese über ursächliche Zusammenhänge auf und überprüfen sie mit statistischen Verfahren. Doch die gezielte Datensammlung ist aufwendig und kostspielig. Also gehen die Forscher normalerweise nur einer begrenzten Zahl von Hypothesen nach, und beschränken die Zahl der Parameter. Sie fragen etwa, ob die Wirkstoffe X, Y, Z – wie theoretisch vorhergesagt – einen Einfluss auf die jeweilige Krankheit  haben.

Big Data-Verfahren ermöglichen dagegen den umgekehrten Weg – von den Daten zur Hypothese. Sie setzen beim immer größer werdenden Datenschatz an, der beispielsweise in Millionen von elektronischen Krankenakten oder Umweltregistern steckt. Big-Data-Ansätze folgen der Devise: Je größer und vielfältiger die Datenmenge ist, und je schneller sie anfällt, desto besser. Ermöglicht wurde diese Entwicklung erst durch neue, kostengünstige Techniken zur Datensicherung und -auswertung.

Die Forscher untersuchen die Daten mit Hilfe von Algorithmen automatisiert nach Zusammenhängen. Im besten Fall entdecken sie so Korrelationen, nach denen sie gar nicht gefragt hatten – wie im Fall der neu entdeckten Infektionssymptome bei Frühgeborenen. „Der medizinische Forscher muss nicht selbst Hypothesen bilden und diese dann in den Daten testen, sondern bekommt aus den Daten belegbare Hypothesen präsentiert und kann sie inhaltlich bewerten“, erklärt Stefan Rüping, Experte für Data Mining und Big Data Analytics am Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS). „Der neue Ansatz besteht also darin, die Phantasie des Forschers beim Finden neuer Fragestellungen durch Datenintelligenz zu ergänzen.“

Die Hoffnungen in dieses Data Mining sind groß. Datenanalysen im großen Stil könnten beispielweise preisgeben, wie bestimmte Gene und Blutwerte mit Krankheiten wie Alzheimer, Krebs oder Schizophrenie zusammenhängen.

Handeln, ohne zu wissen, warum?

Allerdings liefern die Big-Data-Analysen keine Erklärung für die Zusammenhänge, die sie zu Tage fördern. Umstritten bleibt die Frage, inwieweit Mediziner sie zur Grundlage ihres Handels machen sollten, bevor die Ergebnisse auch kausal begründbar sind.

Mit Blick auf die Segnungen von Big Data verweist der Internetforscher Mayer-Schönberger beispielhaft auf die Grippe-Vorhersage der Suchmaschinen-Firma Google („Google Flu Trends“). Das Unternehmen fand rückblickend Zusammenhänge zwischen dem Verlauf von Grippewellen und den Internetsuchen in den betroffenen Gebieten. Daraus entwickelte das Unternehmen Algorithmen, die neue Grippewellen teilweise erstaunlich genau und vor allem weit schneller vorhersagen als übliche Prognoseverfahren.

Mayer-Schönberger zufolge können Gesundheitsämter die Google-Prognose schon heute nutzen, etwa um bestimmte Regionen rechtzeitig mit Impfstoff zu versorgen. Dazu müssten sie nicht einmal wissen, welcher kausale Zusammenhang zwischen den Suchabfragen und der Grippe besteht. „Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können“, so Mayer-Schönberger im Interview mit iRights.info. Eben diesen Paradigmenwechsel in der Forschung hält er für eine Revolution.

Zwar beziehen Länder wie die Vereinigten Arabischen Emiraten Google Flu Trends bereits in ihr Frühwarnsystem für Epidemien ein. Allerdings wurden zuletzt Zweifel an dem Verfahren laut, das vielerorts stellvertretend für die Big-Data-Segnungen in der Medizin steht. So schätzte die Analyse-Software die Zahl der Grippe-Infizierten in den USA im Januar 2013 als etwa doppelt zu hoch ein,  wie das Wissenschaftsmagazin „Nature“ berichtet.

Forscher vermuten, dass die Medienberichterstattung zur Grippe sich auf das Suchverhalten der Internetnutzer ausgewirkt und so die Prognose verzerrt. Google Flu Trends könnte die Ergebnisse sogar selbst beeinflussen, wenn etwa Medien über Googles Grippewarnungen berichten, was wiederum mehr Menschen dazu verleitet, die Krankheitssymptome zu googlen.

Grundlagenforschung bleibt wichtig

Grundsätzlich mahnt der Wissenschaftstheoretiker Klaus Mainzer (TU München) mit Blick auf Big-Data-Erkenntnisse in der Medizin: „Erst eine gründliche Grundlagenforschung erklärt die kausalen Zusammenhänge und garantiert damit nachhaltige Diagnosen und Therapien.“ Speziell bei den Big-Data-Algorithmen bestehe die Gefahr, dass man nur noch auf ihre Schnelligkeit setze. „Es wäre fatal, wenn aus schneller Profitgier die Bedeutung der Grundlagenforschung unter die Räder käme.“ Auch der Literaturwissenschaftler Manfred Schneider warnt davor, den Erkenntnisgewinn von rein statistischen Zusammenhängen zu überschätzen. „Auch die Korrelation des Bierkonsums in Europa mit der Häufigkeit von Verkehrsunfällen in Bangladesh an Wochenenden ergäbe einen Befund.“

Ängste vor rein datenbasierten Fehldiagnosen und -therapien hält Stefan Rüping vom IAIS indes für unbegründet. Die Vorschriften seien sehr strikt. Neues medizinisches Wissen müsse immer noch einmal unabhängig in kontrollierten Studien verifiziert werden. „Die relevante Frage ist allerdings nicht, ob eine neue Diagnosemethode oder Therapie fehlerfrei ist – das ist in der Medizin üblicherweise nicht der Fall – sondern ob sie klar besser ist als die beste bekannte Standardbehandlung.“ Darüber hinaus sei ein rein statistisches Vorgehen ohne inhaltliches Verständnis in der Datenanalyse immer eine schlechte Idee. „Die Entwicklung neuerer, besserer Datenanalyseverfahren ist in vielen Fällen eher eine Evolution statt eine Revolution.“

Der gläserne Patient

Neben der Entdeckung von Zusammenhängen verspricht Big Data in der Medizin eine maßgeschneiderte Behandlung. Indem konkrete Fälle mit großen Datenmengen – etwa über Krankheitsverläufe – abgeglichen werden, sollen bessere Diagnosen und Medikationen möglich sein. Beispielsweise nutzt das Memorial Sloan-Kettering Cancer Center in New York den IBM-Supercomputer „Watson“ zur Entwicklung einer Software, die personalisierte Krebs-Therapien vorschlägt. Dazu verarbeitet Watson zum Beispiel 1,5 Millionen Patientenakten und 600.000 Forschungsberichte und  Fachartikel. Auch am Hasso-Plattner-Institut in Potsdam suchen Forscher nach Methoden, das weltweite medizinische Wissen „am Krankenbett“ verfügbar zu machen.

Der Wissenschaftstheorethiker Mainzer ist sich bereits sicher: „Ohne den Einsatz hochentwickelter Algorithmen wird die Medizin in Zukunft nicht mehr auskommen.“ Das medizinische Wissen wachse täglich in unvorstellbarer Weise. Allein über Diabetes gebe es circa 400.000 Fachartikel. „Selbst ein Spezialist kann diese Artikel in einem kurzen Leben nicht bewältigen“, so Mainzer. „Hier bedarf es intelligenter Software, die über semantisches Verständnis verfügt und die jeweils relevanten Informationen für eine Diagnose und Therapie herausfiltert.“

Prinzipiell hält es Mainzer für möglich, den Menschen im Sinne einer personalisierten Medizin eines Tages in allen Details zu erfassen. „Der gläserne Patient, der bis auf die molekulare Ebene individuell durchleuchtet wird, ist aus Sicht der Rechnertechnologie möglich.“ Bei Krankheitsverläufen wie Krebs wäre ein dauerndes Screening auch notwendig, da Krebstumore und Krebszellen sich genetisch dauernd verändern und die Therapien angepasst werden müssten. Allerdings werde es Zeit und sehr viel Geld kosten, alle ungeheuer komplexen Details des menschlichen Organismus bis auf Molekularebene zu erforschen.

Sind Maschinen die besseren Ärzte?

Schon heute werfen computergestützte Diagnosen und Therapievorschläge die Frage nach der künftigen Rolle der Ärzte auf. Der US-Investor Vinod Khosla provoziert den Berufsstand mit seiner These, Computer beziehungsweise „Dr. Algorithmus“ würden künftig 80 Prozent der bisherigen Tätigkeit eines Arztes überflüssig machen.

Der Wissenschaftstheoretiker Mainzer warnt dagegen davor, sich allzu sehr auf scheinbar „objektive“ Daten und Verfahren zu verlassen. „Warum haben Ärzte eine Wissenschaft wie die Medizin studiert, wenn sie am Ende nur noch Daten ablesen und zusammenstellen?“ so Mainzer. „Die Einordnung und das Verständnis der Daten erfordert die medizinische Urteilskraft des Arztes.“ Hierzu gehörten auch psychologisches und soziales Verständnis für die Situation eines Patienten, das nicht in Algorithmen abbildbar sei.

Stefan Rüping vom IAIS sieht statt einer Konkurrenz von Mensch und Maschine eher eine Koexistenz. „Dem Arzt werden automatisch deutlich mehr relevante Informationen zur Verfügung stehen, auf denen er seine Entscheidung stützen kann – die er aber selbstverständlich weiterhin selbst trifft.“

Probleme bei der Datenbereitstellung

Noch liegt die Erfüllung vieler Big-Data-Träume in weiter Ferne. Eine erste Hürde besteht in der Qualität und der technischen Bereitstellung der Daten. Beispielsweise liegen die theoretisch nutzbaren Datenmengen oftmals dezentral und in uneinheitlichen Dateiformaten vor – wenn sie überhaupt schon digitalisiert sind.

„Vielfach wird noch mit Papierakten gearbeitet, elektronische Patientenakten können selbst im selben Krankenhaus zwischen verschiedenen Abteilungen sehr verschiedene Formate haben und die Semantik der Daten ist durch automatisierte Verfahren nur sehr schwer zu verstehen“, erklärt Stefan Rüping zur Lage in Deutschland. Ein Großteil der Arbeit in klinischen Studien liege darin, die Daten sinnvoll und korrekt einzugeben. „Erst danach kann sinnvoll eine wie auch immer geartete Datenanalyse ansetzen.“

Auch in den USA macht die Datenqualität Probleme. Man sei bei der Datenerfassung immer noch auf 100 Jahre alte Transkriptionstechnik angewiesen, sagte jüngst der Mediziner Douglas Johnsten (Cleveland Clinic) auf einem Podium zur Frage, woran Big Data in der Medizin bisher scheitert. „Ich sehe, dass die Ergebnisse mangelhaft sind, weil Müll raus kommt, wenn Müll rein geht.“ Außerdem stellt sich die Frage, welchen Daten man trauen kann: Ob Daten etwa aus Studien der Pharmaindustrie immer zuverlässig sind, bleibt problematisch.

Zumindest im Bereich der Krebsforschung will Deutschland vorangehen. Mitte 2013 startete der Aufbau des flächendeckenden klinischen Krebsregisters. Nach einheitlichen Kriterien werden darin die Daten der Krebspatienten in Deutschland gesammelt, von der Diagnose über die Therapie bis zu Rückfällen, Genesung und Tod.

Großbritannien geht noch einen Schritt weiter, indem es mit dem Projekt Clinical Practice Research Datalink (CPRD) die Krankenakten aller Einwohner zentral sammelt und mit anderen Registern wie Gen-Datenbanken und Umweltregistern verknüpft. Der Datenschatz soll Wissenschaftlern anonymisiert zur Verfügung stehen.

Rechtliche Hürde: Datenschutz

Ebenfalls zur Debatte steht der rechtliche Rahmen für Big-Data-Forschung in der Medizin. Daten zur Gesundheit eines Menschen sind als „sensible Daten“ vom Bundesdatenschutzgesetz besonders geschützt. IAIS-Experte Rüping entwickelt im Rahmen des EU-Projekts EURECA Techniken (unter dem Stichwort Privacy-Preserving Data Mining), die im Einklang mit dem Datenschutz stehen, und beispielsweise die Anomymisierung personenbezogener Daten garantieren sollen.

Auch in Fällen, in denen die Patienten der Datenverwendung zustimmen müssen, bleiben offene Fragen. „Ein Problem ist, dass ein Patient um rechtlich und ethisch einwandfrei der Verarbeitung seiner Daten zustimmen zu können, verstehen können muss, was mit seinen Daten passiert, welche Ergebnisse zu erwarten sind und welches Risiko von Missbräuche potentiell besteht“, so Rüping. „Dies ist bei sehr komplexen Verfahren der Datenanalyse sehr schwierig.“

Krankheitsrisiken: Fluch der Erkenntnis?

Schließlich wirft Big Data in der Medizin eine Reihe von ethischen Fragen auf. Das neue Wissen um Krankheitsrisiken könnte beispielsweise Versicherungen dazu verleiten, von Riskopatienten höhere Prämien zu verlangen. „Das ist eine konkrete Gefahr“, meint der Internetforscher Mayer-Schönberger. „Hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.“ Auch die Frage nach der Prävention könnten Big-Data-Erkenntnisse neu aufwerfen. Wäre es vertrebar oder sogar geboten, gesunden Patienten vorsorglich Medikamente zu geben, weil etwa das Genprofil hohe Krankheitsrisiken anzeigt?

Schließlich steht zur Debatte, wem eine kostenintensive, personalisierte Medizin zu Gute kommt. Kann die Gesellschaft schwer kranken aber armen Patienten die Segnungen einer teuren High-Tech-Medizin verweigern? „Hier werden ethische und rechtliche Probleme der Verteilungsgerechtigkeit auf uns zukommen, von denen wir uns heute noch keine Vorstellung machen“, meint der Wissenschaftstheoretiker Klaus Mainzer.

Dem Medizinsektor ergeht es also so wie anderen gesellschaftlichen und wirtschaftlichen Bereichen:  Big Data löst große Hoffnungen aus, aber auch Ängste.

January 08 2014

How did we end up with a centralized Internet for the NSA to mine?

I’m sure it was a Wired editor, and not the author Steven Levy, who assigned the title “How the NSA Almost Killed the Internet” to yesterday’s fine article about the pressures on large social networking sites. Whoever chose the title, it’s justifiably grandiose because to many people, yes, companies such as Facebook and Google constitute what they know as the Internet. (The article also discusses threats to divide the Internet infrastructure into national segments, which I’ll touch on later.)

So my question today is: How did we get such industry concentration? Why is a network famously based on distributed processing, routing, and peer connections characterized now by a few choke points that the NSA can skim at its leisure?

I commented as far back as 2006 that industry concentration makes surveillance easier. I pointed out then that the NSA could elicit a level of cooperation (and secrecy) from the likes of Verizon and AT&T that it would never get in the US of the 1990s, where Internet service was provided by thousands of mom-and-pop operations like Brett Glass’s wireless service in Laramie, Wyoming. Things are even more concentrated now, in services if not infrastructure.

Having lived through the Boston Marathon bombing, I understand what the NSA claims to be fighting, and I am willing to seek some compromise between their needs for spooking and the protections of the Fourth Amendment to the US Constitution. But as many people have pointed out, the dangers of centralized data storage go beyond the NSA. Bruce Schneier just published a pretty comprehensive look at how weak privacy leads to a weakened society. Others jeer that if social networking companies weren’t forced to give governments data, they’d be doing just as much snooping on their own to raise the click rates on advertising. And perhaps our more precious, closely held data — personal health information — is constantly subject to a marketplace for data mining.

Let’s look at the elements that make up the various layers of hardware and software we refer to casually as the Internet. How does centralization and decentralization work for each?

Public routers

One of Snowden’s major leaks reveals that the NSA pulled a trick comparable to the Great Firewall of China, tracking traffic as it passes through major routers across national borders. Like many countries that censor traffic, in other words, the NSA capitalized on the centralization of international traffic.

Internet routing within the US has gotten more concentrated over the years. There were always different “tiers” of providers, who all did basically the same thing but at inequitable prices. Small providers always complained about the fees extracted by Tier 1 networks. A Tier 1 network can transmit its own traffic nearly anywhere it needs to go for just the cost of equipment, electricity, etc., while extracting profit from smaller networks that need its transport. So concentration in the routing industry is a classic economy of scale.

International routers, of the type targeted by the NSA and many US governments, are even more concentrated. African and Latin American ISPs historically complained about having to go through US or European routers even if the traffic just came back to their same continent. (See, for instance, section IV of this research paper.) This raised the costs of Internet use in developing countries.

The reliance of developing countries on outside routers stems from another simple economic truth: there are more routers in affluent countries for the same reason there are more shopping malls or hospitals in affluent countries. Foreigners who have trespassed US laws can be caught if they dare to visit a shopping mall or hospital in the US. By the same token, their traffic can be grabbed by the NSA as it travels to a router in the US, or one of the other countries where the NSA has established a foothold. It doesn’t help that the most common method of choosing routes, the Border Gateway Protocol (BGP), is a very old Internet standard with no concept of built-in security.

The solution is economic: more international routers to offload traffic from the MAE-Wests and MAE-Easts of the world. While opposing suggestions to “balkanize” the Internet, we can applaud efforts to increase connectivity through more routers and peering.

IaaS cloud computing

Centralization has taken place at another level of the Internet: storage and computing. Data is theoretically safe from intruders in the cloud so long as encryption is used both in storage and during transmission — but of course, the NSA thought of that problem long ago, just as they thought of everything. So use encryption, but don’t depend on it.

Movement to the cloud is irreversible, so the question to ask is how free and decentralized the cloud can be. Private networks can be built on virtualization solutions such as the proprietary VMware and Azure or the open source OpenStack and Eucalyptus. The more providers there are, the harder it will be to do massive data collection.

SaaS cloud computing

The biggest change — what I might even term the biggest distortion — in the Internet over the past couple decades has been the centralization of content. Ironically, more and more content is being produced by individuals and small Internet users, but it is stored on commercial services, where it forms a tempting target for corporate advertisers and malicious intruders alike. Some people have seriously suggested that we treat the major Internet providers as public utilities (which would make them pretty big white elephants to unload when the next big thing comes along).

This was not technologically inevitable. Attempts at peer-to-peer social networking go back to the late 1990s with Jabber (now the widely used XMPP standard), which promised a distributed version of the leading Internet communications medium of the time: instant messaging. Diaspora more recently revived the idea in the context of Facebook-style social networking.

These services allow many independent people to maintain servers, offering the service in question to clients while connecting where necessary. Such an architecture could improve overall reliability because the failure of an individual server would be noticed only by people trying to communicate with it. The architecture would also be pretty snoop-proof, too.

Why hasn’t the decentralized model taken off? I blame SaaS. The epoch of concentration in social media coincides with the shift of attention from free software to SaaS as a way of delivering software. SaaS makes it easier to form a business around software (while the companies can still contribute to free software). So developers have moved to SaaS-based businesses and built new DevOps development and deployment practices around that model.

To be sure, in the age of the web browser, accessing a SaaS service is easier than fussing with free software. To champion distributed architectures such as Jabber and Diaspora, free software developers will have to invest as much effort into the deployment of individual servers as SaaS developers have invested in their models. Business models don’t seem to support that investment. Perhaps a concern for privacy will.

January 06 2014

Security firms must retool as clients move to the cloud

This should be flush times for firms selling security solutions, such as Symantec, McAfee, Trend Micro, and RSA. Front-page news about cyber attacks provides free advertising, and security capabilities swell with new techniques such as security analysis (permit me a plug here for our book Network Security Through Data Analysis). But according to Jane Wright, senior analyst covering security at Technology Business Research, security vendors are faced with an existential threat as clients run their applications in the cloud and rely on their cloud service providers for their security controls.

Most of security vendors’ bread and butter — firewalls; intrusion detection; and, to a lesser extent, anti-virus scanning — are installed on the client’s premises and run by the client’s own IT team. But Wright told me that 41% of the businesses interviewed by TBR (businesses using SaaS in a public cloud) want the cloud provider to handle all that.

Cloud service providers are also eager to meet client concerns about security. Many potential customers are held back from choosing cloud solutions out of worries over security, with 75% telling the Technology Business Research investigators that security has an impact on their cloud decisions. So, according to Wright, cloud service providers trumpet the measures they take to cover security at all levels: content scanning, data encryption, user authentication, and so on.

There does, in fact, seem to be a tipping point toward cloud use. Highly regulated industries such as health care and finance, which used to say they were barred from using cloud solutions, now see them as a boon to security.

The vigilance of cloud providers makes them turn to traditional security providers so that standard measures can be built in the cloud solutions. This offers security firms a new market, but it may not enhance their business stability. Wright said that cloud providers usually don’t like to advertise which security firms they’re partnering with so they can switch them around if needed. Thus, the partnerships fail to provide publicity to the security firms, and they live in a chronically uncertain environment.

Technology Business Research says that the adoption of open standards will help the best solutions be more widely adopted. But I think that, like other open standards, they can also lead to commoditization and lower revenues. Meanwhile, providing bulk security to cloud providers will probably be less lucrative than providing it on an individual basis to stand-alone clients, although the difference may be made up by increases in scale as virtually every firm comes to depend more and more heavily on the Internet.

What interests me is whether security vendors can rethink the concept of the security they provide and recapture the market for business security. Whether you’re running applications in your own data center or on servers provisioned in a cloud, employees still need to follow policies and good practices. Maybe security firms can expand their roles and maintain their relevance to end-users by smoothing the path toward proper use of resources in the cloud. It’s worth looking for creative business opportunities.

January 04 2014

Seda Gürses: Bei der Privatsphäre darf es keine Zweiklassengesellschaft geben

Technologien wie Tor und Verschlüsselung für Mails bleiben trotz der Angriffe der NSA darauf wichtige taktische Werkzeuge, sagt die Informatikerin und Privacy-Expertin Seda Gürses im iRights.info-Interview. Es komme aber darauf an, dass die Technologien nicht nur für einige, sondern für alle Nutzer zugänglich werden.

iRights.info: Wir haben schon letztes Jahr miteinander gesprochen – hauptsächlich über soziale Netzwerke und Datenschutz. Welche Entwicklungen gab es in diesem Jahr?

Seda Gürses: Soziale Netzwerke waren­ auch in diesem Jahr Thema, aber ich würde den Schwerpunkt diesmal woanders setzen, nämlich darauf, wer kon­trolliert, was gezeigt wird und was nicht. Das ist meiner Meinung nach auch ein Teil von privacy im Sinne von informationeller Selbstbestimmung.

Seda Gürses ist Informatikerin und beschäftigt sich mit Privatsphäre und Datenschutz, Sicherheit und Überwachung, und Anforderungsanalyse. Sie forscht an der NYU in New York am Media, Culture and Communications Department.

Seda Gürses ist Informatikerin und beschäftigt sich mit Privatsphäre und Datenschutz, Sicherheit, Überwachung und Anforderungsanalyse. Sie forscht an der NYU in New York am Media, Culture and Communications Department.

Vor allem Facebook scheint Probleme mit politischen Inhalten zu haben. Bei den Protesten in der Türkei seit Ende Mai war zu sehen, dass Facebook irgendwann Zensur ausgeübt und bestimmte Inhalte nicht mehr gezeigt hat. Wir haben mit Richard Allen („Director of Policy“ bei Facebook, Anm. der Red.) gesprochen, der bestätigt hat, dass Face­book kurdische Seiten zensiert hat. Er sagte, dass geschehe bei Seiten, die die PKK und Terroristengruppen unterstützt haben.

Ich habe mit einigen dieser Gruppen gesprochen. Sie hätten zum Beispiel nur über Unabhängigkeitsbewegungen in Syrien berichtet, die kurdische Wurzeln hatten – das wurde dann von Facebook gelöscht. Zensiert wurden nicht nur Postings, sondern ganze Seiten und Gruppen. Die Maßstäbe von Facebook waren teilweise härter als die der türkischen Regierung.

iRights.info: Was waren die Folgen dieser Löschungen?

Seda Gürses: Besonders Bürgerjournalismus-Projekte verloren teilweise ihre Arbeit von Monaten, weil sie Facebook als Archiv nutzten. Das ist vielleicht nicht sehr schlau gewesen, dass sie das auf Facebook gemacht haben, aber es fehlten ihnen die Ressourcen, eigene Server aufzusetzen.

iRights.info: Wie kam Facebook dazu, diese Gruppen zu zensieren? Und wie sah es bei den anderen Netzwerken aus?

Seda Gürses: Es gab Gerüchte, dass Facebook mit der türkischen Regierung zusammengearbeitet hätte. Ich habe nachgefragt und Face­book hat das bestritten. Andererseits gaben Offizielle des Staates in den türkischen Medien zu, sie hätten mit Facebook zusammengearbeitet. Das ist schon etwas merkwürdig. Angeblich schickten sie auch Leute zu Twitter, hätten dort aber wenig Erfolg gehabt.

iRights.info: Edward Snowden und PRISM, die Überwachung durch die NSA ist wahrscheinlich das wichtigste Thema in diesem Jahr in der netzpolischen Diskussion. Welche Konsequenzen hat das für die Privacy-Debatte?

Seda Gürses: Es macht den Leuten bewusst, was mit diesen Technologien möglich ist. Privacy ist nicht nur ein Problem zwischenmenschlicher Beziehungen – also zum Beispiel, dass meine Mutter nicht erfahren soll, dass ich schwul bin. Es ist nicht nur ein Konsumentenproblem, also dass mein Konsumverhalten getrackt wird und ich vielleicht von Firmen diskriminiert werde. Das, was wir jetzt sehen, ist, dass diese Firmen – manchmal freiwillig, manchmal gegen ihren Willen – Teil eines riesigen Überwachungsprogramms sind.

Viele Leute schauen jetzt zum Beispiel mit größeren Fragezeichen auf Klarnamen-Policies, also die Forderung von Webservice-Anbietern, sich mit dem eigenen, richtigen Namen anzumelden. Für politische Aktivisten in vielen Ländern war das schon lange ein Problem.

Ich hoffe außerdem, dass diese komische Unterscheidung zwischen sogenannten zivilisierten Ländern und den Ländern mit autoritären Regimen aufweicht, jetzt wo wir sehen, dass die westlichen Länder nicht nur Überwachungstechnologien in andere Länder exportieren, sondern im gleichen Maße ihre eigenen Bürger überwachen.

iRights.info: Sollten wir jetzt alle unsere Kommunikation verschlüsseln, anonym mit Tor surfen und PGP-Verschlüsselung für unsere E-Mails nutzen?

Seda Gürses: Grundsätzlich ist das nicht falsch. Wir müssen daran arbeiten, solche taktischen Werkzeuge, die ein bisschen mehr Schutz gegen Überwachung bieten, zu unterstützen. Aber wir müssen auch drauf achten, dass es keine Zweiklassengesellschaft gibt, in der manche Leute Zugang zu Technologien erhalten, die Überwachung zu vermindern, und andere gar nicht. Die Technologien müssen zugänglicher werden, um sie effektiv benutzen zu können.

Es ist nicht klar, ob Tor es zum Beispiel aushalten würde, wenn es alle Nutzer gleichzeitig benutzten. Das ist eine Kapazitätsfrage. Es gibt mathematische Modelle, die besagen, dass wenn viele Leute auf der Welt Tor benutzen, die Verteilung der unterschiedlichen Verbindungen zwischen ihnen es erlauben würde, herauszufinden, wer mit wem kommuniziert. Dazu sollte es nicht kommen und deshalb besteht weiterhin Entwicklungsbedarf.

iRights.info: Sind denn die üblichen Verschlüsselungstechniken wirklich sicher? Kann die NSA nicht doch mitlesen?

Seda Gürses: Nein, so einfach ist es nicht. Die meisten Kryptografen sagen, dass die NSA die Verschlüsselungen selbst nicht geknackt hat, sondern die Schwachstellen in der Umgebung darum ausnutzt. Die meisten Verschlüsselungstechniken sind, soweit wir wissen, mathematisch gesehen in Ordnung. Aber Kryptografie ist nicht nur Mathematik. Sie muss implementiert werden. Um die Implementierung global zugänglich zu machen, muss es irgendeine Standardorganisation oder zumindest eine Verständigung geben, an die sich alle halten, und hier setzt die NSA an.

Mit Kryptografie verschiebt man das Problem der Geheimhaltung der Inhalte auf die Geheimhaltung der Schlüssel. Bei einer Verschlüsselung verschlüsselt man die Information, die man schützen möchte, mit einem kryptografischen Schlüssel und versteckt diesen anschließend. Das Problem ist also: Wer hat diesen Schlüssel? Und wer hat Zugang dazu? Wir wissen, dass die NSA Personen oder Firmen dazu gezwungen hat, ihre Schlüssel herzugeben. Zum Beispiel die Firma Lavabit, die verschlüsselte Webmail-Zugänge angeboten hat.

Das kryptografische Verfahren an sich wurde nicht gebrochen. Lavabit war sicher nicht die einzige Firma, die ihre Schlüssel hergeben musste, nur normalerweise dürfen diese nicht darüber sprechen. Der Betreiber von Lavabit, Ladar Levison, hat sich dafür entschieden, an die Öffentlichkeit zu gehen und den Service einzustellen, weil er wusste, dass er die Sicherheit der Nutzer nicht ausreichend gewährleisten konnte, wobei auch er keine Details verraten durfte.

iRights.info: Ist das auch bei den SSL-Verschlüsselungen passiert? Das ist die Verschlüsselung, die die auf Webseiten benutzt wird, zum Beispiel beim Online-Banking. Das erkennt man anhand des klei­nen Schlosses in der Adresszeile des Webbrowsers.

Seda Gürses: Genau. Die Geheimschlüssel sind bei den Anbietern, und wenn sie die hergeben, hat das genau den beschriebenen Effekt.

iRights.info: Was bedeutet das für mich als Nutzer? Was soll ich tun?

Seda Gürses: Sich mehr mit Verschlüsselung auseinanderzusetzen, ist auf jeden Fall gut. Wenn zum Beispiel nur die Menschen, die etwas zu verstecken haben, Verschlüsselungen benutzen, werden sie automatisch verdächtigt, auch ohne dass die Nachrichtendienste die Inhalte ihrer Kommunikation kennen.

Das ist eine Art Solidarität: Man verschlüsselt seine Nachrichten nicht nur in der Hoffnung, dass sie vertraulich bleiben, sondern auch weil man dadurch Personen unterstützt, die wirklich etwas verbergen müssen – aus unterschiedlichsten Gründen, zum Beispiel weil sie Journalisten oder Aktivisten sind, oder einfach weil sie keine Lust haben, dass die Serviceprovider ihre Kommunikation mitlesen.

iRights.info: Wo liegen denn die größten Probleme?

Seda Gürses: Im Augenblick sehe ich diese bei den ganzen mobilen Geräten, die wir ununterbrochen mit uns herumtragen. Die Sicherheit auf Mobiltelefonen ist schlicht eine Katastrophe. Sie sind komplett unter der Kontrolle der Firmen, die die Software und Hardware anbieten. Man kann zwar eigene Betriebssysteme auf das Handy spielen und das hilft auch ein bisschen. Aber sobald man eine App herunterlädt, ergeben sich große Sicherheitslücken. Man muss also entweder Einbußen bei der Funktionalität oder bei der Sicherheit hinnehmen.

iRights.info: Haben die ganzen Cloud-Dienste die Überwachung eigentlich erleichtert und möglich gemacht? Sollten wir mehr auf – verschlüsselte – Festplatten speichern?

Seda Gürses: Das ist schwer zu sagen. Manche Leute aus der Security-Community setzen darauf, dass, wenn wir großflächig auf Cloud-Dienste verzichteten, die Kosten für die Nachrichtendienste steigen würden, auch wenn die Überwachung sicherlich trotzdem stattfinden würde. Auch wenn wir alles verschlüsselten würde das nicht all unsere Probleme lösen, denn wir können auch unseren Rechnern nicht einfach so vertrauen.

Im Prinzip müsste man einen Zweitrechner haben, der nicht ans Internet angeschlossen ist, auf dem man die Daten verschlüsselt. Das ist aber keine Arbeitsweise für Menschen, die noch etwas anderes zu tun haben im Leben oder nur mit ihren mobilen Geräten das Internet nutzen können. Deshalb gibt es auch die Meinung, dass wir das über die Politik regeln müssen, weil es allein über Technologie nicht möglich ist.

Es gibt aber auch die Meinung, dass nun, wo die Überwachungskapazitäten in der Welt sind, irgendjemand sie benutzen wird. Wir werden im kommenden Jahr sehen, in welche Richtung es geht.

iRights.info: Wo sehen Sie die wichtigsten Entwicklungen für die Zukunft?

Seda Gürses: Ich denke, mehr Leute werden sich mit der Sicherheit von mobilen Geräten beschäftigen, und ich hoffe, dass sie Fortschritte machen. Die Sammlung von Information, die im Moment über Mobiltelefone stattfindet, ist erschreckend – zumal sie uns eindeutig identifizieren. Mobiltelefone verraten ständig, wo wir uns bewegen. Ich hoffe, dass sie unsere Geräte werden und nicht die Instrumente von Firmen und Staaten bleiben, wie es sich jetzt herausgestellt hat.

Ich würde mir wünschen, dass die Diskussion über Überwachung und Sicherheit nicht der Logik des Kalten Krieges folgt, sondern dass wir schauen können, was eine solche Überwachung bringt, was sie uns wegnimmt, welche politischen Probleme übrig bleiben. Wir folgen derzeit stark diesem NSA-Blick auf die Welt und vergessen teilweise, dass wir auch andere Probleme haben – auch mit der Technologie – als Konsumenten, als Leute in Institutionen, als Menschen, die miteinander kommunizieren. Ich hoffe, dass wir diese Differenzierung wiederfinden. .

Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

December 19 2013

Wie weit darf Big Data gehen?

Körperdaten kündigen früh eine Infektion an. Facebook-Likes verraten den IQ der Nutzer. Big-Data-Analysen versprechen neue Erkenntnisse für Wissenschaft und Wirtschaft. Warum von einer Revolution zu sprechen ist, erläutert der Internetforscher Viktor Mayer-Schönberger im Interview.

iRights.info: In Ihrem Buch beschreiben Sie, wie die Analyse großer Datenmengen aus allen Lebensbereichen bestimmte Zusammenhänge erst sichtbar macht. So weiß etwa die US-Supermarktkette Walmart, dass ein bestimmter Frühstückssnack immer dann besonders nachgefragt wird, wenn ein Unwetter droht. Welche Zusammenhänge haben Sie bei Ihren Recherchen am meisten überrascht?

mayer-schoenberger

Viktor Mayer-Schönberger ist Professor für Internet Governance und -Regulierung am Oxford Internet Institute. Jüngst erschien sein Buch „Big Data. Die Revolution, die unser Leben verändern wird“ (gemeinsam mit Kenneth Cukier, Redline Verlag). Foto: Privat

Viktor Mayer-Schönberger: Besonders eindrücklich fand ich die Arbeiten von Dr. Carolyn McGregor an der Uniklinik in Toronto, die in den Daten der Vitalfunktionen von Frühgeborenen Muster erkennen konnte, die mit hoher Wahrscheinlichkeit eine Infektion vorhersagen, 24 Stunden bevor noch erste Symptome auftreten. Das hilft in Zukunft ganz unmittelbar Menschenleben zu retten.

iRights.info: Die neue Verfügbarkeit von großen Datenmengen und kostengünstiger Analysetechnik machen prinzipiell neuartige Prognosen möglich. Welchen Einfluss haben diese Vorhersagen auf das Wirtschaftsleben und was wäre möglich?

Viktor Mayer-Schönberger: Schon heute erlaubt uns Big Data, menschliches Verhalten relativ gut vorherzusagen. Das ist hilfreich in der Planung und für bessere Entscheidungen. Denn Tatsache ist, dass wir bis zu Big Data viel weniger Daten über unser wirtschaftliches Handeln hatten, als wir glaubten. Bessere Vorhersehbarkeit bedeutet geringeres Risiko – und das wiederum bedeutet geringere Volatilität. Die Märkte wären damit also weniger starken Schwankungen ausgesetzt. Eine Vorhersage der Börsenkurse, worauf manche hoffen, ist freilich in weiter Ferne, denn dazu ist die Vorhersage des Verhaltens sehr vieler Entscheidungsträger notwendig, und das ist auch in absehbarer Zukunft nicht zu stemmen.

iRights.info: Neben ökonomischen Chancen verspricht Big Data Fortschritte für die Allgemeinheit. Wo können die Analysen segensreich sein?

Viktor Mayer-Schönberger: Big Data kann uns in vielen Bereichen nutzen. In der Medizin kann Big Data zum Beispiel helfen, zu einer individualisierten und personalisierten Diagnose und Behandlung zu gelangen, die noch nicht möglich ist – wir nehmen ja heute immer noch die Standard-Dosis von Medikamenten, obwohl jeder Mensch und jeder Krankheitsfall anders ist. In der Bildung können wir mit Big Data die Chance haben, endlich besser zu verstehen, welche Lernmaterialen und Lernwerkzeuge, aber auch Lernkontexte für welche Lerngruppen optimal sind.

iRights.info: Sie betonen, dass Big-Data-Analysen zwar Zusammenhänge aufzeigen, nicht aber über ihre Ursachen Aufschluss geben. Daraus leiten Sie eine „Abwendung von der jahrtausendealten Suche nach kausalen Zusammenhängen“ ab. Umgekehrt ließe sich doch auch argumentieren, die neuen Big-Data-Beobachtungen verleihen der Suche nach ihren Ursachen erst einen neuen Schub…

Viktor Mayer-Schönberger: Beides ist zutreffend. Aber der Kernpunkt ist: Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können. Das Online-Versandhaus Amazon muss nicht wissen, warum manche Bücher mir empfohlen werden sollen und andere nicht – es reicht für Amazon, wenn ich relativ häufig aus den mir empfohlenen Büchern welche kaufe. Die Gesundheitsbehörden müssen auch nicht wissen, warum Internetsuchen mit der Verbreitung der Grippe korrelieren – wie Google Flu Trends es gezeigt hat. Es reicht zu wissen, dass anhand der Suchabfragen die Grippeverbreitung vorhergesagt werden kann.

Das ist insofern auch von Vorteil, weil wir in der Vergangenheit oftmals weniger erfolgreich in der Ursachenforschung waren, als wir glaubten, und uns mit Scheinursachen zufrieden gegeben haben. Hier zu verstehen, dass das „Was“ bereits hilfreich ist, und das „Warum“ danach kommen kann, aber nicht immer muss, erlaubt uns auch etwas demütiger zu sein. Es lehrt uns zu akzeptieren, dass wir weniger von der Welt wissen als wir glauben.

Black Box der Big-Data-Prognosen

iRights.info: Nun hat die Wissenschaft schon lange mit statistischen Methoden gearbeitet, um Erkenntnisse zu überprüfen oder erst zu gewinnen. Warum sprechen Sie in Punkto Big Data gleich von einer Revolution und nicht von einer Evolution?

Viktor Mayer-Schönberger: Weil bisher das Sammeln und Auswerten von Daten sehr zeitaufwändig und kostenintensiv war, und wir deshalb all unsere Mechanismen und Institutionen, unsere Verfahren, darauf ausgelegt haben, Antworten auf unsere Fragen aus der geringstmöglichen Menge an Daten zu gewinnen. Das bedeutet aber auch, dass wir nur jene Fragen beantworten konnten, die uns schon vor der Sammlung der Daten bekannt waren. Stehen hingegen nahezu alle Daten eines Phänomens zur Verfügung, können wir damit auch Fragen beantworten, die bei Sammlung noch gar nicht offenkundig waren.

Das ist tatsächlich ein anderer Ansatz. Es werden nicht mehr basierend auf einer Theorie Hypothesen erdacht und dann mit Daten geprüft. Hypothesen können jetzt parametrisch generiert und getestet werden. Statt also bloß eine bestimmte Hypothese zu bestätigen,  können wir aus einer großen Menge an Hypothesen die optimale finden.

iRights.info: Nun gibt es Zusammenhänge in den Daten, die intuitiv Unwohlsein hervorrufen. So ergibt etwa eine britische Untersuchung von „Gefällt mir“-Angaben auf Facebook: Fans der Motorradmarke Harley Davidson weisen eher einen niedrigeren IQ auf. Besteht die Gefahr, dass unser digitales Profil uns stigmatisiert und schließlich dazu genutzt wird, uns zu diskriminieren?

Viktor Mayer-Schönberger: Ja, diese Gefahr besteht – insbesondere wenn dank Big Data die Analyse genauer wird und damit nicht mehr so leicht vom Tisch gewischt werden kann. Es bedarf klarer gesetzlicher und gesellschaftlicher Rahmenbedingungen, wie weit Big Data gehen darf, und für welche Zwecke eine Anwendung nicht oder nur unter ganz bestimmten Bedingungen zulässig ist.

iRights.info: Was ist, wenn wir gar nicht bemerken, wie sich Algorithmen auf Entscheidungen auswirken. Vielleicht wundern wir uns irgendwann: „Warum bekomme ich keinen Kredit?“ Oder: „Warum lädt mich niemand zum Vorstellungsgespräch ein?“ Muss der Einsatz von Big-Data-Erkenntnissen in sensiblen Lebensbereichen transparent gemacht werden?

Viktor Mayer-Schönberger: Ja, es muss mehr Transparenz geben – wobei wir selbst als Betroffene mit der formalen Transparenz nicht viel anfangen können werden, weil die Zusammenhänge zu komplex sind. Dafür brauchen wir eine eigene neue Gruppe an Experten – die Algorithmiker – die diese Black Box der Big-Data-Prognosen für Betroffene öffnen können, um die Vorhersage in ihrem Namen einer Überprüfung zuzuführen.

„Wir verstecken uns heute schon”

iRights.info: Big Data kann helfen, die Lebensrisiken des Einzelnen besser einzuschätzen – etwa die Wahrscheinlichkeit eines Autounfalls, einer Sucht oder einer Krebs-Erkrankung. Versicherungskonzerne könnten diese Erkenntnisse nutzen und bei höheren Risiken höhere Prämien verlangen. Gerät so das Solidaritätsprinzip von Versicherungen in Gefahr?

Viktor Mayer-Schönberger: Das ist eine konkrete Gefahr. Auch hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.

iRights.info: Denkbar wäre auch, dass Menschen auf ihren Datenschatten besser Acht geben, weil sie die Analyse fürchten. Um nicht „dumm“ zu wirken, könnten sie eben auf den „Like“ der Motorradmarke Harley Davidson verzichten – um in diesem einfachen Beispiel zu bleiben. Führen die Big-Data-Analysen bald zur Unfreiheit des Einzelnen, zum großen Versteckspiel vor den Maschinen?

Viktor Mayer-Schönberger: Wir verstecken uns heute schon ganz regelmäßig – nicht vor der Maschine, sondern vor den anderen. Menschen schauen links und rechts, ob jemand sie beobachtet, bevor sie ein Stück Papiermüll einfach auf den Boden fallen lassen. Das Versteckspiel ist also uralt und geht natürlich auch in Zukunft weiter. Wer auf die Ergebnisse einer Big-Data-Analyse vertrauen möchte, sollte deshalb zusehen, dass dafür nur „Honest Signals“ verwendet wurden, also Signale, die zu fälschen aufwändig ist.

iRights.info: Das Sammeln von Daten ist auch eine große Wette auf die Zukunft. Google und Facebook könnten dank ihrer datenbasierten Prognose-Fähigkeiten irgendwann sagen: Jetzt steigen wir in den Aktienhandel ein oder in die Personalvermittlung. Muss der Staat die großen Daten-Sammler von heute präventiv regulieren, damit sie nicht zu Monoplisten in allen möglichen Geschäftsfeldern aufsteigen?

Viktor Mayer-Schönberger: Ja, das muss er – nicht primär wegen der Datenmonopole, obwohl es auch diese zu vermeiden gilt, sondern um zu verhindern, dass Big-Data-Infrastrukturen geschaffen werden, die nur unter großem Aufwand rückgebaut werden können. Denken Sie an die Datencenter der NSA.

iRights.info: Setzt mit dem NSA-Skandal nun das große Nachdenken über Big Data ein?

Viktor Mayer-Schönberger: Das hoffe ich – auch wenn die NSA nur die Spitze des Eisbergs ist. Mit unserem Buch wollten wir jedenfalls einen Beitrag zur Diskussion leisten.

November 27 2013

Four short links: 27 November 2013

  1. CT Scanning and 3D Printing for Paleo (Scientific American) — using CT scanners to identify bones still in rock, then using 3D printers to recreate them. (via BoingBoing)
  2. Growing the Use of Drones in Agriculture (Forbes) — According to Sue Rosenstock, 3D Robotics spokesperson, a third of their customers consist of hobbyists, another third of enterprise users, and a third use their drones as consumer tools. “Over time, we expect that to change as we make more enterprise-focused products, such as mapping applications,” she explains. (via Chris Anderson)
  3. Serving 1M Load-Balanced Requests/Second (Google Cloud Platform blog) — 7m from empty project to serving 1M requests/second. I remember when 1 request/second was considered insanely busy. (via Forbes)
  4. Boil Up — behind the scenes for the design and coding of a real-time simulation for a museum’s science exhibit. (via Courtney Johnston)

November 20 2013

Landgericht Berlin: 25 Klauseln in Googles AGB und Datenschutzerklärung unzulässig

Verbraucherschützer haben vor dem Landgericht Berlin einen Streit über Googles Nutzungs- und Datenschutzbestimmungen gewonnen: Das Gericht hat eine Reihe von Klauseln für rechtswidrig erklärt, weil sie zu schwammig sind und Nutzer unzulässig benachteiligten.

Wie der Verbraucherzentrale Bundesverband mitteilt, geht es bei den fraglichen Klauseln unter anderem um Standortdaten und die Zusammenführung von Nutzerdaten über verschiedene Dienste. Diese seien zu vage:

Google hatte sich in der Datenschutzerklärung unter anderem das Recht vorbehalten, „möglicherweise“ gerätespezifische Informationen und Standortdaten zu erfassen oder „unter Umständen“ personenbezogene Daten aus den verschiedenen Google-Diensten miteinander zu verknüpfen. Für Verbraucher blieb unklar, wozu sie ihre Zustimmung genau erteilen sollten.

Bei weiteren umstrtittenen Bestimmungen geht es unter anderem um die Fernlöschung von Apps auf Mobilgeräten und das von Google reservierte Recht, Funktionen und Dienste sowie die Nutzungsbedingungen selbst einseitig zu ändern. Das Urteil (15 O 402/12) oder die fraglichen 25 Klauseln konkret sind bis jetzt nicht veröffentlicht.

Google hat Berufung gegen das Urteil angekündigt, das Unternehmen hält die Klauseln für zulässig; ein weiterer Streitpunkt dreht sich um die Klagebefugnis der Verbraucherzentralen. Wenn das Urteil rechtskräftig wird, muss Google sein Kleingedrucktes ändern. Vergangene Woche hatte Google seine Nutzungsbedingungen geändert, um „soziale Werbung” mit Nutzerdaten zu erlauben. Die Klage des VZBV bezieht sich auf Änderungen an AGB und Datenschutzerklärung im März 2012.

November 18 2013

Schöpfungshöhe bei angewandter Kunst, Google-Books-Entscheidung, Schengen-Cloud

Nach dem BGH-Urteil „Geburtstagszug” muss angewandte Kunst nicht „schöpferischer” als andere Werke sein, US-Autoren verlieren in erster Instanz im Google-Books-Streit. Außerdem im Wochenrückblick: Informationsfreiheit bei Bundestagsakten, Thilo Weichert und die Apothekendaten, De-CIX zur „Schengen-Cloud”.

Geburtstagszug – BGH entscheidet zur Schöpfungshöhe bei angewandter Kunst

Der BGH hat diese Woche in einem Urteil seine bisherige Rechtsprechung zur Schöpfungshöhe bei angewandter Kunst aufgegeben. Dies geht aus der bisher vorliegenden Pressemitteilung hervor. Danach seien an die Schöpfungshöhe bei der sogenannten „angewandten Kunst” keine höheren Anforderungen zu stellen als bei anderen Werken. Dies begründete das Gericht mit dem Konkurrenzverhältnis zwischen Urheberrecht und Geschmacksmusterrecht: Diese beiden Schutzrechte könnten mittlerweile aufgrund ihrer gesetzlichen Ausgestaltung unabhängig voneinander bestehen.
Zur Pressemitteilung des BGH.

USA: Autorenvereinigung unterliegt im Streit um Google Books

Bereits seit mehreren Jahren streiten die US-amerikanische Autorenvereinigung Authors Guild und Google bereits über die urheberrechtliche Zulässigkeit von Google Books. Nun hat das erstinstanzliche Gericht entschieden: Der Dienst ist zulässig. Google Books, bei dem Bücher digitalisiert und online bereit gestellt werden, verletze zwar möglicherweise urheberrechtliche Regeln – jedoch sei es letztlich durch die Fair Use Doktrin gedeckt. Die Authors Guild will das Urteil jedoch nicht hinnehmen und Rechtsmittel einlegen.
Zur Meldung auf urheberrecht.org.
iRights.info: „Die Google-Buchsuche ist nicht nur legal, sie nützt der Gesellschaft” – Ein Kommentar

OVG Berlin: UFO- und Guttenbergakten sind parlamentarische Tätigkeit

Das Oberverwaltungsgericht Berlin hat in zwei Verfahren darüber entschieden, dass kein informationsfreiheitsrechtlicher Zugangsanspruch zu zwei besonders interessanten Akten des Bundestags besteht. Bei der ersten handelt es sich um die sogenannte Ufo-Akte, bei der zweiten um wissenschaftliche Ausarbeitungen für den ehemaligen Bundestagsabgeordneten zu Guttenberg. Das Gericht entschied anders als noch die Vorinstanz, dass es sich bei den Ausarbeitungen um rein parlamentarische Tätigkeiten handelt, die vom Anwendungsbereich des Gesetzes ausgenommen sind. Das Gericht hat die Revision zugelassen.
Telemedicus zum erstinstanzlichen Urteil über die Ufo-Akten.
Zur Pressemiteilung des OVG.

„Größter Datenskandal der Nachkriegszeit”: Einstweilige Verfügung gegen Thilo Weichert

Der schleswig-holsteinische Datenschützer Thilo Weichert darf im Zusammenhang mit einem Apothekenrechenzentrum nicht mehr vom „größten Datenskandal der Nachkriegszeit” sprechen. Dies berichtete Heise diesen Mittwoch. Bei der Äußerung von Weichert ging es nicht um die massive Überwachung durch verschiedene Geheimdienste, sondern um den Handel von Patientendaten.
Zur Nachricht bei heise.de.

Folgen des Überwachungsskandals: DE-CIX stellt sich gegen Schengen-Cloud und Kontrolle

Der Betreiber des größten europäischen Internetknotens DE-CIX hat sich diese Woche gegen verschiedene Pläne ausgesprochen, die als Reaktion auf die Überwachungsskandale dieses Sommers gedacht waren. So wendet er sich unter anderem gegen die sogenannte Schengen-Cloud, da diese nationale Überwachungsmöglichkeiten fördere. Außerdem lehnt er die von Innenminister Friedrich gewünschte Überwachung des Knotens ab. DE-CIX wird von der DE-CIX Management GmbH betrieben, die selbst wieder eine 100 %-ige Tochter des Internetverbands eco ist. Auf europäischer Ebene treibt Kommissarin Neelie Kroes die Pläne für eine gemeinsame sichere Cloud voran, warnt dabei jedoch auch vor übermäßiger Abschottung.
„DE-CIX gegen die Schengen-Cloud” auf heise.de.

 

Lizenz dieses Artikels: CC BY-NC-SA.

November 11 2013

Neue AGB: Google-Nutzer machen soziale Reklame

Was bei Facebook schon länger üblich ist, führt auch Google jetzt ein: soziale Reklame. Heute treten dafür neue Nutzungsbedingungen in Kraft. Während die sogenannten „sozialen Empfehlungen“ automatisch aktiviert sind, müssen Nutzer Anzeigen mit diesen erst zustimmen.

Wer ein Google-Plus-Profil besitzt und damit zum Beispiel ein Restaurant bewertet, kann bei den Diensten des Unternehmens nun auch zum Werbeträger werden. In den heute in Kraft tretenden neuen Nutzungsbedingungen erklärt das Unternehmen, Nutzeraktionen als „soziale Empfehlungen” zu verwerten. Das können unter anderem Kommentare, Bewertungen und „+1”-Klicks sein, die nun mit Name und Profilfoto in Suchergebnissen und begleitenden Anzeigen angezeigt werden können.

Die Änderung wurde vor einigen Wochen bereits angekündigt, in der Fußzeile bei Google findet sich ein Hinweis darauf. Zu einer ausdrücklichen Zustimmung fordert Google die Nutzer bis jetzt nicht auf. Unterschiedliche Berichte gab es bislang dazu, ob die neue Empfehlungsfunktion automatisch aktiviert wird oder nicht. Tatsächlich verwendet Google eine Mischung aus beiden Varianten: Wer auf die neue Einstellungsseite für „soziale Empfehlungen” geht, muss dort erst ein Häkchen setzen, um Google zu erlauben, seinen Namen und das Profilbild in Anzeigen zu verwenden. Ein Beispiel für eine solche Anzeige wird auf der Seite aufgeführt:

google-anzeige-spa

„Soziale Empfehlung in Anzeigen”. Screenshot: google.com.

Nicht davon betroffen sind allerdings solche Empfehlungen, die „an anderen Stellen als in Anzeigen erscheinen”, wie es auf der Einstellungsseite heißt. Diese werden also automatisch aktiviert, ein Opt-out ist hier nicht vorgesehen – Google weist allerdings darauf hin, dass Nutzer die Sichtbarkeit solcher Empfehlungen einstellen können. Zwei Beispiele zeigt die Seite ebenfalls:

„Soziale Empfehlung” ohne Anzeige. Screenshot: google.com.

„Soziale Empfehlungen” ohne Anzeige. Screenshot: google.com.

Opt-our nur für Empfehlungen bei Anzeigen

Grundsätzlich gilt die neue Funktion „soziale Empfehlungen” also für alle Nutzer von Google Plus. Nur wo diese Funktion auch in bezahlten Anzeigen verwendet wird – bei Google dezent farblich unterlegt –, muss der Nutzer zustimmen. Unbezahlte Reklame aber machen im Grunde alle Nutzer, die ein entsprechendes Profil eingerichtet haben und deren Aktionen nun als „soziale Empfehlungen” auch an anderer Stelle dargestellt werden können. Erst wenn ein Werbekunde die Suchbegriffe kauft, werden diese Empfehlungen dann zusätzlich als Anzeige geschaltet.

Ob es für Nutzer verständlich ist, dass sie das Aktivierungshäkchen nur für „Anzeigen”, nicht aber für andere „soziale Empfehlungen” setzen können, muss sich noch zeigen. Wer nicht akribisch auf die Formulierungen achtet, könnte diesen Unterschied leicht übersehen.

Im Wortlaut heißt die neue Passage in den Nutzungsbedingungen:

Wenn Sie ein Google-Konto haben, zeigen wir im Rahmen unserer Dienste zusammen mit Ihrem Profilnamen und Profilbild Aktivitäten an, die Sie in unseren Diensten oder in Diensten Dritter, die mit Ihrem Google-Konto verbunden sind, vornehmen (zum Beispiel +1s, Bewertungen und Kommentare, die Sie posten). Sofern wir hierfür Ihre Einwilligung erhalten haben, erfolgt dies auch im Rahmen unserer Werbedienste. Die von Ihnen im Google-Konto vorgenommenen Einstellungen zum Teilen und zur Sichtbarkeit berücksichtigen wir auch insoweit.

Soziale Reklame: Vorreiter Facebook, Nutzer mürrisch

Facebook hat solche soziale Reklame schon länger eingeführt. Während Werbetreibende sich über die neue Funktion freuen – gelten Empfehlungen von Freunden und Bekannten doch als besonders glaubwürdig – stieß sie bei vielen Nutzern auf Kritik. Wohl auch, weil sie sich bei der Einführung überrumpelt sahen. Eine Sammelklage in Kalifornien gegen die neuen Regeln endete mit einem Vergleich – und einer von Facebook als „Präzisierung” bezeichneten Änderung der Datenschutzbestimmungen. Wie ein Echo darauf wirkt nun die Erklärung, die Google in einer Zusammenfassung der neuen Änderungen gibt: Allein der Nutzer bestimme, wer was sehen darf. „Denn bei Google entscheiden Sie, was Sie mit anderen teilen”, lobt sich das Unternehmen.

Facebook kennt mittlerweile mehrere Schattierungen sozialer Reklame. Bei den sogenannten „Sponsored Stories” wird einem Nutzer zum Beispiel angezeigt, wenn seinem Facebook-Freund eine Kaffeehauskette gefällt; die entsprechende „Interaktion” wird in der Timeline sichtbarer. Ähnlich funktionieren „soziale Werbeanzeigen”, bei denen daraus ein Banner in der Werbespalte wird. Die letzte Variante können Nutzer abschalten, die erste allerdings nicht. Facebook selbst erklärt das bis heute recht kryptisch.

Mit der eigens eingerichteten Erklärseite versucht Google ähnlich negative Resonanz nun erkennbar zu vermeiden – ob mit Erfolg, wird sich zeigen. Grundsätzlich nicht in Anzeigen verwendet werden sollen Empfehlungen von Nutzern unter 18 Jahren. Mit der neuen Funktion jedenfalls entwickelt Google zugleich sein Werbemodell weiter: Bislang waren die Daten der Nutzer die Grundlage für fein austarierte Werbeschaltungen, nun werden zusätzlich die Nutzer selbst zu Werbeträgern gemacht. Zugleich verschafft Google dem eigenen sozialen Netzwerk Google Plus noch mehr Sichtbarkeit bei seinen anderen Diensten.

Weitere AGB-Änderungen: Nutzer sollen achtsam sein

Daneben hat Google weitere Änderungen und Ergänzungen in den Nutzungsbedingungen vorgenommen. Das Unternehmen hat einige Sätze hinzugefügt, in denen die Nutzer zum umsichtigen Verhalten mit mobilen Geräten aufgefordert werden – hier werden besonders Verkehrsregeln und Sicherheitsvorschriften genannt. Damit dürfte auch eine weitere Änderung im Abschnitt „Haftung für unsere Dienste“ zusammenhängen, der nun auch Ausführungen zu Verletzungen und gesundheitlichen Schäden enthält.

Die Frage einmal ausgeklammert, ob die Bestimmungen hierzulande nötig und zulässig sind, geht es Google hier augenscheinlich darum, alle Nutzungsszenarien und Eventualitäten bei mobilen Anwendungen – etwa dem Navigationsdienst von Google Maps – auch in den Nutzungsbedingungen abzudecken. Neu ist zudem eine Passage, die dazu anhält, das Passwort für ein Google-Konto vertraulich zu behandeln und nicht bei Diensten anderer Unternehmen noch einmal dasselbe zu verwenden.

Wer selbst nachlesen will: Hier die neuen und alten Nutzungsbedingungen im Textvergleich.

google-tos-diff

November 01 2013

NSA infiltriert Google- und Yahoo-Netzwerke, Adobe-Kopierschutz, iCloud-Schlüsselbund

In den Cloud-Links der Woche: NSA zapft interne Datenleitungen an, US-Dienste wollen E-Mail sicherer machen, neuer Kopierschutz für E‑Books von Adobe, Klage um Streaming-Einnahmen und Passwörter bei iCloud.

NSA soll auch in interne Netze von Google und Yahoo eindringen

Wie zuerst von der Washington Post berichtet, zapft die NSA in Verbindung mit dem britischen Geheimdienst GCHQ offenbar auch interne Datenleitungen von Google und Yahoo an. Im Unterschied zum bereits bekannten „PRISM” soll das „Muscular” genannte Programm ohne Kenntnis der Unternehmen und ohne gerichtliche Grundlage ablaufen. Mit welchen Methoden genau die Dienste in private Netze eindringen, ist nicht mit Sicherheit zu sagen. Die Washington Post stellt mögliche Szenarien in einer Infografik dar. In einer Einschätzung meint Sicherheitsforscher Bruce Schneier, dass auch Microsoft, Apple, Facebook, Dropbox und andere Clouddienste in gleicher Weise als kompromittiert gelten müssten.

US-Anbieter wollen Sicherheit bei Mails weiterentwickeln

Die US-Dienste Lavabit und Silent Circle haben sich einer Entwicklungsallianz zusammengeschlossen, die E-Mails sicherer vor Ausspähung machen will. Wie aus einem Blogpost bei Silent Circle hervorgeht, will die neugegründete „Dark Mail Alliance” wohl vorerst keinen eigenen Dienst anbieten, sondern die dem Mailverkehr zugrundeliegenden Protokolle und Verfahren weiterentwickeln und dafür unter anderem auf das bei Chat-Programmen verbreitete XMPP-Protokoll zurückgreifen. Lavabit hatte im August seinen Dienst eingestellt, statt private Schlüssel an US-Behörden zu übergeben. Kurz darauf schaltete auch das von PGP-Erfinder Phil Zimmermann gegründete Unternehmen „Silent Circle” seinen E-Mail-Dienst ab. Nun hoffen die Unternehmen darauf, größere Mailanbieter ins Boot zu holen.

Adobe plant neues Kopierschutzsystem

Wie Johannes Haupt bei lesen.net berichtet, will Adobe in den kommenden Monaten eine neue Version seines DRM-Systems für E‑Books einführen. Kopierschutz von Adobe ist bei E‑Books im Epub-Format und PDF-Dateien das am weitesten verbreitete System und wird an Verlage unterlizenziert. Adobe nennt das neue System „unknackbar”; erfahrungsgemäß ist es nur eine Zeitfrage, bis Kopierschutz-Systeme geknackt sind. Beim jetzigen von Adobe eingesetzten System ist das bereits seit einigen Jahren der Fall.

Streaming-Einnahmen: Schwedische Künstler wollen Labels verklagen

Musiker in Schweden haben angekündigt, gegen die Plattenfirmen Universal und Warner Music vor Gericht zu ziehen. Wie musikmarkt.de berichtet, will die schwedische Musikergewerkschaft einen höheren Anteil für die Künstler an den Einnahmen von Streaming-Diensten erstreiten. In Schweden machen die Dienste – an erster Stelle das dort gegründete Spotify – dem Bericht nach 70 Prozent der Umsätze im Musikmarkt aus. Die Musiker erhielten 6 bis 10 Prozent der Einnahmen, ebenso wie im klassischen Tonträgermarkt. Die Künstler dagegen fordern 50 Prozent.

Heise: Wie sicher sind Passwörter in der iCloud?

Mit Apples neuen Betriebssystemen iOS 7 und Mavericks lassen sich auch Passwörter im Clouddienst des Unternehmens sichern. Bei Heise Security untersucht Jürgen Schmidt, wie es um die Sicherheit steht. Gegen Angriffe durch Dritte sei das System „schon recht gut abgesichert”, „erschreckend schlecht” sei jedoch die Sicherheit zu bewerten, wenn man Zugriffe von oder über Apple selbst in die Betrachtung einbezieht. Für eine genaue Sicherheitsbewertung müsste Apple jedoch entweder technische Details offenlegen oder Forscher müssten weitere Analysen durchführen.

October 29 2013

Four short links: 29 October 2013

  1. Mozilla Web Literacy Standard — things you should be able to do if you’re to be trusted to be on the web unsupervised. (via BoingBoing)
  2. Berg Cloud Platform — hardware (shield), local network, and cloud glue. Caution: magic ahead!
  3. Sharka large-scale data warehouse system for Spark designed to be compatible with Apache Hive. It can execute Hive QL queries up to 100 times faster than Hive without any modification to the existing data or queries. Shark supports Hive’s query language, metastore, serialization formats, and user-defined functions, providing seamless integration with existing Hive deployments and a familiar, more powerful option for new ones. (via Strata)
  4. The Malware of Thingsa technician opening up an iron included in a batch of Chinese imports to find a “spy chip” with what he called “a little microphone”. Its correspondent said the hidden devices were mostly being used to spread viruses, by connecting to any computer within a 200m (656ft) radius which were using unprotected Wi-Fi networks.

October 28 2013

Ausschreibung: Ideen, Konzepte und Lösungen für „Privatheit in der E-Society”

Bei der „Integrata-Stiftung für humane Nutzung der Informationstechnologie” läuft noch bis Ende des Jahres eine Ausschreibung für den jährlich von der Stiftung vergebenen Preis. Dieses Jahr werden Vorschläge und Lösungen zum Thema „Privatheit” gesucht.

In der Ausschreibung (PDF) heißt es:

Privatheit ist einerseits notwendige Voraussetzung für die Autonomie des Individuums in einer demokratischen Zivilgesellschaft. Andererseits ist sie durch die aktuelle Entwicklung auf bisher unvorstellbare Weise bedroht. Dieser Konflikt ist sichtbar unter anderem in Bereichen wie:

  • Zunehmend virtualisierte Erwerbsumgebungen
  • Virtuelle Identitäten wie z.B. in social media
  • Nutzerorientiertes Identitätsmanagement
  • Energieinformations- und Energieversorgungssysteme (smart grids, smart metering)
  • Gesundheits- und Altersgerechte Assistenzsysteme

Wir fragen uns: Wie kann Privatheit in der E-Society gewahrt bleiben? Auf welche Weise sollten virtuelle Identitäten geschützt werden? Gesucht werden dafür Vorschläge, Konzepte und Lösungen für den Einsatz von Informationstechnologie, um Privatheit von physischer und virtueller Identität auf humane und gemeinwohlorientierte Weise in der E-Society zu gewährleisten.

Der Preis ist mit 10.000 Euro verbunden und kann auch auf mehrere, maximal drei Träger aufgeteilt werden. Damit lassen sich zwar keine Welten bewegen, aber zumindest Konzepte und Lösungen weiterverfolgen und -entwickeln. Was genau unter die Ausschreibung fällt, kann bei der Stiftung erfragt werden, dort auch mehr zu den Teilnahmemodalitäten.

Bei der letzten Runde unter dem Titel „Mehr Lebensqualität” wurden abgeordnetenwatch.de und das Informationsregister des Landes Bremen ausgezeichnet.

October 26 2013

Cloud-Links: Datenschutz-Verordnung, digitaler Binnenmarkt, nationale Clouds

Datenschutz-Verordnung, nationale Clouds, europäische IT-Industrie und Risiken bei Apples iCloud. Cloud-Links der Woche:

EP-Innenausschuss votiert für Datenschutz-Verordnung, Staatschefs wollen „rechtzeitig” verabschieden

Am Montag einigte sich der Innenausschuss des EU-Parlaments auf einen Kompromisstext für die geplante europäische Datenschutz-Grundverordnung. Im Rückenwind der Überwachungsenthüllungen ist auch die Verordnung wieder stärker in der Diskussion. Oft übersehen dabei allerdings: Auf die Arbeit von Geheimdiensten zielt sie nicht. Der „Guardian” zitiert dazu Berichterstatter Jan Philipp Albrecht: „Of course, national security is a huge loophole and we need to close it. But we can’t close it with this regulation.” Ebenfalls dazu Thomas Stadler bei Internet-Law. Unterschiedliche Interpretationen gibt es nun über die beim EU-Gipfel proklamierte „rechtzeitige” Verabschiedung der Verordnung, netzpolitik.org fasst sie zusammen.

Neelie Kroes gegen nationale Clouds

EU-Digitalkommissarin Neelie Kroes hat sich einem Interview mit dem „Spiegel” (nur als Meldung online) kritisch zu nationalen IT-Initiativen als Reaktion auf die Überwachungsenthüllungen geäußert. Mit Blick auf nationale Clouds und Routing-Pläne der Deutschen Telekom sagte Kroes: „Ich verstehe ja, wenn Deutschland seine hohen Sicherheitsstandards besser vermarkten will. Aber es macht keinen Sinn, bald 28 Clouds in Europa zu haben, das wäre ein Fehler”. Europäische Telekommunikationsunternehmen hätten an Innovationskraft verloren, gerade eine europäische IT-Industrie aber sei nun gefragt.

EU-Staatschefs wollen digitalen Binnenmarkt schaffen

Auch der am Freitag beendete EU-Gipfel der nationalen Staats- und Regierungschefs beschäftigte sich mit der europäischen IT-Wirtschaft. Die Europäische Union müsse Rahmenbedingungen schaffen, um Investitionen in die digitale Wirtschaft zu fördern. Insbesondere gelte es, einen „gemeinsamen Markt für Big Data und Cloud Computing” zu schaffen, heißt es in den Beschlüssen (PDF) des Europäischen Rats. Den wollen die Staats- und Regierungschefs bereits bis 2015 erreichen.

Apples iCloud erlaubt offenbar unbemerkten Ferndownload

Daten bei Apples iCloud-Dienst lagern dort wahrscheinlich nicht so unzugänglich wie vom Unternehmen bislang dargestellt. ZDNet fasst Ausführungen dazu von Vladimir Katalov zusammen, dem Chef der Sicherheitsfirma Elcomsoft. Demnach soll es die Backup-Funktionalität für mobile Geräte einem Angreifer erlauben, darauf gespeicherte Daten ohne physischen Zugang zum Gerät zu sichern und unbemerkt herunterzuladen, sofern er Benutzerkonto und -Passwort kennt. Nach Aussagen von Katalov greift Apple darüber hinaus auf Microsoft und Amazon als Drittanbieter für Speicherplatz zurück. Von dort könnten sich wiederum staatliche Behörden Zugang zu den Daten verschaffen.

October 24 2013

Google: Ein Werkzeug des Wissens, eine technokratische Macht

Google durchsucht und akkumuliert das Wissen der Welt für gezielte, kapillare Werbung. Das Pagerank-Verfahren gilt als elektronische Variante der direkten Demokratie, doch seine genaue Funktionsweise bleibt uns verschlossen. Das italienische Autorenkollektiv Ippolita hält die kritische Neugier der Hackerethik dagegen.

Bei der Analyse des Phänomens Google zeigt sich schnell, dass die Ökonomie der Suche nur ein Element in einem wesentlich größeren und komplexeren Bild ist. Mountain View ist dabei – und Eric Schmidt sagt es selbst – eine globale Unternehmung in der Informationstechnologie voranzutreiben, einen Hundert-Milliarden-Dollar-Betrieb, der weit über eine bloße Suchmaschinen-Firma hinausgeht.

In der Tat verkörpert Google eher ein alles durchdringendes Wissensmanagement-System, das unter anderem folgende Entwicklungen und Methoden einschließt:

  • Strategien, die aggressives Marketing und clevere Imagepflege verbinden,
  • die Verbreitung umfassend konfigurierbarer, dennoch stets wiedererkennbarer Schnittstellen,
  • Instrumente, mit denen Nutzer und Entwickler Inhalte nach Google-Standards erstellen,
  • die Übernahme von kooperativen Entwicklungsmodellen aus dem Lehrbuch der Freien- und Open-Source-Software,
  • die Nutzung neuester Datenerhebungs- und -archivierungssysteme,
  • die Verbindung von Information Retrieval mit Profiling-Techniken, und last but not least:
  • die ausgefeilte und hochentwickelte Personalisierung von Anzeigen.

Aus der wissenschaftlichen Forschung hervorgegangen, ist Google heute ebenso zum allgemeinen Werkzeug der Wissensverwaltung wie zur technologischen Macht geworden; man kann sagen: zum direkten Ausdruck von Technokratie.

Die Autorität der Maschinen

Natürlich können wir alles im Internet veröffentlichen, was wir wollen, und Google wird es indexieren. Doch wir dürfen nicht erwähnen, dass Googles Akkumulationsstrategie perfekt zum System der Marktwirtschaft passt, das auf unendlichem Wachstum basiert. Insofern ist das Pagerank-Verfahren mehr als ein Algorithmus: Es wird zu einem kulturellen Prisma, durch das Google uns die Welt wahrnehmen lässt. In einem gewissen Sinn forciert es die Ausdehnung des Peer-Review-Systems – das innerhalb der akademischen Welt seine Berechtigung hat – auf die gesamte Skala des menschlichen Wissens.

Die traditionellen religiösen und politischen Autoritäten sind mit ihrer Glaubwürdigkeit am Tiefpunkt angelangt. Nun steht ihnen die Autorität der Maschinen gegenüber. Sie zeigt sich vor allem in den Suchergebnissen, die der wohlhabenden Klasse der ‚Prosumer’ geliefert werden; gespeist von einer Datenbasis, die die Hohepriester der Technologie, die Experten, bereitgestellt haben.

Charakteristisch für solche Verfahren, die vorgeben, aus der verfügbaren und vermeintlich grenzenlosen Menge an Daten „die Wahrheit” zu extrahieren, ist eine extreme Form des Relativismus. Schon an der Vielzahl von Algorithmen und Filtern, die Google verwendet, um diese Wahrheit zu gewinnen, lässt sich das erahnen. Die eigentliche Bedeutung der passenden Antwort auf eine Suchanfrage aber liegt darin, dass sie für jeden Konsumenten ein fertiges, personalisiertes Produkt liefert.

Technikhass und Technikeuphorie

Wo uns auf diese Weise die Erzeugung, Verwaltung und Anwendung von Wissen aus den Händen genommen wird, scheinen nur zwei Optionen übrig: Entweder die Ablehnung der Wissenschaftskultur überhaupt als Wurzel allen Übels; oder – im direkten Gegensatz dazu – das blinde und enthusiastische Akzeptieren jeglicher durch Technologie hervorgebrachter Innovation.

Doch zwischen diesen beiden Extrempositionen – Technikhass hier, Technikeuphorie dort – lässt sich eine Position entwickeln, die jene Neugier befördert, die wir aus der Hackerethik kennen. Sie steht ebenso für das Teilen von Wissen, die kritische Haltung gegenüber „Wahrheiten” wie für das rigorose Prüfen von Quellen und den freien Fluss von Information.

Ein fundamental wichtiges Thema in diesem Zusammenhang ist Bildung, doch es fehlen die Mittel, um Wissen in großem Maßstab zu verbreiten. Die Bildungsstrukturen in Europa und in Nordamerika sind nur darauf ausgerichtet, Spezialisten zu produzieren. Und ein pädagogisches Modell, das sich am Bedürfnis nach einer Art „dilettantischem” wissenschaftlichen Zugang zu Wissen orientiert, ist im Moment nicht in Sicht.

Die Logik der Informationstechnologie

Der Aufstieg der Informationstechnologie zum Motor technischer Innovation überhaupt hat neue Szenarien eröffnet: Informationstechnologie ist nicht nur ein Verfahren, um den Umgang mit Informationen zu automatisieren. Sie besitzt eine eigene Logik, die darin besteht, kontinuierlich ihre eigene Basis zu verändern. Informationstechnologie ist gleichzeitig physikalisch-materiell und experimentelle Theorie. Sie befasst sich mit der Formalisierung der Sprache, bringt diese mit physischen Komponenten der Elektronik zur Wirkung, woraus wiederum neue Sprachen entstehen, die erneut die Theorien des Wissens beeinflussen.

Vor zehn Jahren geschriebene Software unterscheidet sich strukturell von Software für einen heutigen Computer. Wir wissen, dass das, was wir gestern für wahr hielten, morgen nicht mehr stimmen wird, wenn wir stärkere Maschinen haben und mit ihnen völlig neue Dinge tun können.

Wunder der Technologie: Von subjektiven Meinungen zur objektiven Wahrheit

In dieser gigantischen Datenwelt nun taucht der gute Riese Google auf und erklärt uns, dass wir alle Teil einer großen, bislang nicht gekannten globalen elektronischen Demokratie seien. Und so seien auch die Ergebnisse von Pagerank korrekt, entspringen sie doch der direkten Demokratie der Links, die durch Googles Algorithmen validiert werden – und uns in gewisser Weise unser Recht zurückgeben, für uns selbst zu sprechen.

Epistemologisch betrachtet kann Popularität jedoch nie als Beleg für objektive Qualität gelten. Dann würde das Konzept der Objektivität auf der unausgesprochenen Annahme beruhen, dass eine Masse subjektiver Ideen – die Meinungen, die über Links ausgedrückt werden – sich scheinbar magisch in ihr exaktes Gegenteil verwandeln kann: in die aufscheinende objektive Wahrheit in dem Moment, da sie eine bestimmte Zahl überschreiten und zur Mehrheit werden. So wird das Ranking zum Ausweis von Qualität, weil es augenscheinlich das Ergebnis informationsverarbeitender Technologien darstellt.

Algorithmen und der Schein der Objektivität

Dennoch: Wie kann Quantität zu Qualität werden? Man geht davon aus – ohne es allzu offen zuzugeben – dass die technische Vermittlung durch den Algorithmus selbst bereits eine Garantie für „Objektivität” ist und assoziiert diese Objektivität mit „gut”, „besser” und schließlich mit „wahr”. Dieser Mechanismus der Konsensbildung, den Google als Manifestation direkter Demokratie betrachtet, da er über die Voten der User funktioniert, überzeugt aber aus zwei wesentlichen Gründen nicht: Erstens unterstellt er, dass die Mehrheit immer recht hat. Zweitens impliziert er, dass Meinungen mehrheitlich und notwendig eine technologische Vermittlung durchlaufen müssen, um dem User wirklich zu nutzen. Wie das genau funktioniert, wird aber nie erläutert.

Die Dichotomie zwischen dem Objektiven und dem Subjektiven und die Gegenüberstellung von Wahrheit und Meinung ist in der Welt der Netzwerke aber selbst völlig deplaziert. Bei genauerer Betrachtung hat die Wissenschaft, wenn sie Techniken erfunden und Technologien gefördert hat, immer Hybride aus Natur und Kultur erzeugt.

Die Technologie hinter den Netzwerken ist nur die gegenwärtige Anwendung der wissenschaftlichen Methode, die ‚Natur-Kultur-Hybride’ erschafft und zu unzähligen wissenschaftlichen Objekten führt, die sich – anstelle der Menschen – als brauchbarere Zeichen für die Wirklichkeit präsentieren. Der Algorithmus von Pagerank und sein Urteil gilt nunmehr als vertrauenswürdiger als die Meinung eines Individuums, selbst als die eines fachlichen Experten – und sei es, weil Pageranks Empfehlung immer nur einen Klick entfernt ist, im Gegensatz zu der des Experten.

Was ist für wen relevant?

Ein anderer möglicher Gesichtspunkt auf das Thema „Subjektivität vs. Objektivität” bezieht sich auf das Modell der Entscheidungsfindung: Wie entscheidet man, was relevant ist? In einem relativistischen Kontext kann man eher davon ausgehen, dass eine Information ‚objektiv’ ist, wenn sie von einer Website (oder einem Blog oder Google oder einer offiziellen Quelle) stammt, deren Bewertungskriterien auf klare Vorgaben, transparente Prozesse und eine begrenzte, lokale Perspektive zurückgehen.

Ein Netzwerk, das auf Vertrauen basiert – also eine Gruppe von Leuten, die untereinander Informationen, Meinungen und ganz allgemein Wissen teilen – kann problemlos seine Arbeitsweisen offenlegen, ebenso seine Hierarchie, wenn es eine hat; auch die Voraussetzungen, um Mitglied des Netzwerks oder des Projekts zu werden.

Opake Entscheidungsmechanismen

Wenn man die Antworten prüft, die von einem solchen Vertrauensnetzwerk gegeben werden, kann man diese immer als ‚objektiv’ betrachten: in dem Sinne, dass sie für und in diesem Netzwerk wahr und relevant in Bezug auf dessen Erfahrungen sind. Diese Objektivität und Relevanz ist das Ergebnis vieler verschiedener Subjektivitäten und des Austauschs zwischen den Mitgliedern dieses Netzwerks. Wenn man sich mit seiner Gemeinschaft in Übereinstimmung sieht, kann die jeweilige Information für einen von Interesse sein, oder man kann sie zugunsten anderer Netzwerke des Vertrauens verwerfen.

Folgt man diesem Ansatz, und wäre Google bereit, seine Entscheidungsmechanismen offenzulegen und damit die Internetuser in der Lage, sie nachzuvollziehen, dann könnte man das Problem „objektiv vs. subjektiv” leicht überwinden. Man würde sich nicht nur Schritt für Schritt, Suche für Suche in das jeweils bevorzugte Netzwerk hineinversetzen können, sondern wäre auch in der Lage, es direkt zu beeinflussen und es im Rahmen unserer Geschmäcker und unserer Vorlieben, unserer Ideen und Eigenheiten zu halten – oder kurz: in Übereinstimmung mit uns selbst.

Dieser Artikel ist ein gekürzter Auszug aus „Luci e ombre di Google/ The Dark Side of Google” von Ippolita. Ippolita versteht sich als Forschungsgruppe und „Kollektiv für geselliges Schreiben”. Zuerst auf Italienisch 2007 veröffentlicht, ist die Schrift jetzt in der Reihe „Theory on Demand” des Amsterdamer Institute of Network Cultures in neuer Fassung erschienen.

Übersetzung: Andreas Kallfelz. Lizenz: CC BY-NC-SA 2.5 IT

Apple Mavericks: Der diskrete Zwang zur Cloud

Wer Apples neues Betriebsystem Mavericks installiert, hat vermutlich auch ein Konto in der iCloud, so dass eine kleine Änderung sich leicht übersehen lässt: Zwar werden Musik, Filme und alles andere weiter über iTunes verwaltet; Kontakte, Kalenderdaten und Mailkonten aber lassen sich nicht mehr lokal mit mobilen Geräten synchronisieren. Auch dafür ist nun nur noch iCloud zuständig – oder eben, wenn man will, Alternativdienste wie das Google-Adressbuch, der zugehörige Kalender oder eigene Server. Auf Googles Android-Plattform ging das ohnehin nie lokal. Nun hat Apple den lokalen „Sync Services”-Dienst abgeschafft.

Was auf den ersten Blick wenig bemerkenswert scheint, ist aus zwei Gründen dennoch: Es zeigt zum einen, wie Cloud-Dienste in immer mehr Bereichen zum Standard werden. Man gibt die Daten immer seltener bewusst „in die Cloud”, sie sind ohnehin schon dort – ohne dass man als Nutzer noch abwägen müsste, ob einem das behagt: Die Macht der Standardeinstellung sorgt dafür.

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Zum anderen zeigt sich auch hier: ein iCloud-Account wird ebenso wie das Amazon- oder Google-Konto zur Eintrittskarte in digitale Ökosysteme, die geschlossene Plattformen sind. Wäre die Metapher nicht so schief, könnte man von walled clouds sprechen, die sich aus den walled gardens der Webunternehmen entwickelt haben. Interoperabilität – also mit seinen Daten ohne größere Hindernisse umziehen zu können – ist so gut wie nie vorgesehen.

Das Bemerkenswerte daran: Es sind weniger die großen Änderungen, durch die sich die geschlossenen Plattformen herausbildet haben, sondern viele kleine, diskrete Schritte: Ein plattformgebundenes E-Book hier, ein Häkchen mehr, ein Feature weniger dort: zusammen ergibt das den Lock-in-Effekt. Wer im goldenen Käfig der iCloud sitzt, hat es bequem – solange er nicht wechseln will.

Dabei wäre für einen Blick aus dem Käfig Anlass genug: Welche Regeln für die Clouds gelten werden, für die wir hier und da schon die Häkchen gesetzt haben, wird gerade verhandelt: Bei der Datenschutz-Grundverordnung in Brüssel, für die nun die Verhandlungen mit dem Ministerrat bevorstehen. Ob die Verordnung bis auf Unternehmen wie Apple durchgreift oder neue Schlupflöcher entstehen, wird sich dann erst erweisen. Auch dort sollte man auf die unscheinbaren Änderungen achten.

Reposted bykrekk krekk
Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl