Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 18 2014

January 15 2014

Big Data in der Medizin

In Blutwerten, DNA-Profilen und Fallstudien könnten sich medizinisch nutzbare Erkenntnisse verbergen – wenn man sie im großen Stil erfasst und analysiert. Allerdings wirft „Big Data“ in der Medizin auch Fragen auf – von der Rolle der Ärzte bis zum Datenschutz.

Ein Forscherteam am Institute of Technology der University of Ontario überraschte die 2010 Fachwelt mit einer Beobachtung. Anders als man das intuitiv vermuten würde, stabilisieren sich bei Frühgeborenen zunächst die Vitalfunktionen, bevor es zu einer schweren Infektion kommt.

Möglich machte diese Erkenntnis eine Software, die pro Sekunde 1.260 Datensätze von Patienten erfasst – von der Atmung bis zum Sauerstoffgehalt im Blut. Erst die Zusammenführung und Analyse der gewaltigen Mengen an Körperdaten brachte die zuvor unbekannten Krankheitssymptome zu Tage. „Sie können es nicht mit dem bloßen Auge sehen, aber der Computer kann es“, erklärt Forschungsleiterin Carolyn McGregor. Ärzte können anhand der Daten nun früher gegen drohende Infektionen vorzugehen.

McGregors Untersuchung ist ein beliebtes Beispiel für den Einzug der „Big Data“-Forschung in die Medizin. Gemeint sind damit Verfahren, bei denen große Datenmengen aus vielfältigen Quellen erfasst, verteilt, gespeichert, durchsucht, analysiert, miteinander in Beziehung gesetztund visualisiert werden.

Im Gesundheitswesen sollen sie helfen, Krankheiten früher und besser zu erkennen, zu therapieren oder gar zu vermeiden – so zumindest die Vision von Wissenschaftlern und Unternehmen. Der Internetforscher Viktor Mayer-Schönberger (Universität Oxford) ist sich bereits sicher, Big Data helfe in Zukunft „ganz unmittelbar Menschenleben zu retten“. Doch wie genau macht Big Data das?

Zusammenhänge erstmal beobachten

IT-Technik ist in der Medizin nichts Neues. Charakteristisch für Big-Data-Analysen ist allerdings, dass sie den üblichen wissenschaftliche Arbeitsweg umdrehen können. Klassischerweise stellen Forscher eine Hypothese über ursächliche Zusammenhänge auf und überprüfen sie mit statistischen Verfahren. Doch die gezielte Datensammlung ist aufwendig und kostspielig. Also gehen die Forscher normalerweise nur einer begrenzten Zahl von Hypothesen nach, und beschränken die Zahl der Parameter. Sie fragen etwa, ob die Wirkstoffe X, Y, Z – wie theoretisch vorhergesagt – einen Einfluss auf die jeweilige Krankheit  haben.

Big Data-Verfahren ermöglichen dagegen den umgekehrten Weg – von den Daten zur Hypothese. Sie setzen beim immer größer werdenden Datenschatz an, der beispielsweise in Millionen von elektronischen Krankenakten oder Umweltregistern steckt. Big-Data-Ansätze folgen der Devise: Je größer und vielfältiger die Datenmenge ist, und je schneller sie anfällt, desto besser. Ermöglicht wurde diese Entwicklung erst durch neue, kostengünstige Techniken zur Datensicherung und -auswertung.

Die Forscher untersuchen die Daten mit Hilfe von Algorithmen automatisiert nach Zusammenhängen. Im besten Fall entdecken sie so Korrelationen, nach denen sie gar nicht gefragt hatten – wie im Fall der neu entdeckten Infektionssymptome bei Frühgeborenen. „Der medizinische Forscher muss nicht selbst Hypothesen bilden und diese dann in den Daten testen, sondern bekommt aus den Daten belegbare Hypothesen präsentiert und kann sie inhaltlich bewerten“, erklärt Stefan Rüping, Experte für Data Mining und Big Data Analytics am Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS). „Der neue Ansatz besteht also darin, die Phantasie des Forschers beim Finden neuer Fragestellungen durch Datenintelligenz zu ergänzen.“

Die Hoffnungen in dieses Data Mining sind groß. Datenanalysen im großen Stil könnten beispielweise preisgeben, wie bestimmte Gene und Blutwerte mit Krankheiten wie Alzheimer, Krebs oder Schizophrenie zusammenhängen.

Handeln, ohne zu wissen, warum?

Allerdings liefern die Big-Data-Analysen keine Erklärung für die Zusammenhänge, die sie zu Tage fördern. Umstritten bleibt die Frage, inwieweit Mediziner sie zur Grundlage ihres Handels machen sollten, bevor die Ergebnisse auch kausal begründbar sind.

Mit Blick auf die Segnungen von Big Data verweist der Internetforscher Mayer-Schönberger beispielhaft auf die Grippe-Vorhersage der Suchmaschinen-Firma Google („Google Flu Trends“). Das Unternehmen fand rückblickend Zusammenhänge zwischen dem Verlauf von Grippewellen und den Internetsuchen in den betroffenen Gebieten. Daraus entwickelte das Unternehmen Algorithmen, die neue Grippewellen teilweise erstaunlich genau und vor allem weit schneller vorhersagen als übliche Prognoseverfahren.

Mayer-Schönberger zufolge können Gesundheitsämter die Google-Prognose schon heute nutzen, etwa um bestimmte Regionen rechtzeitig mit Impfstoff zu versorgen. Dazu müssten sie nicht einmal wissen, welcher kausale Zusammenhang zwischen den Suchabfragen und der Grippe besteht. „Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können“, so Mayer-Schönberger im Interview mit iRights.info. Eben diesen Paradigmenwechsel in der Forschung hält er für eine Revolution.

Zwar beziehen Länder wie die Vereinigten Arabischen Emiraten Google Flu Trends bereits in ihr Frühwarnsystem für Epidemien ein. Allerdings wurden zuletzt Zweifel an dem Verfahren laut, das vielerorts stellvertretend für die Big-Data-Segnungen in der Medizin steht. So schätzte die Analyse-Software die Zahl der Grippe-Infizierten in den USA im Januar 2013 als etwa doppelt zu hoch ein,  wie das Wissenschaftsmagazin „Nature“ berichtet.

Forscher vermuten, dass die Medienberichterstattung zur Grippe sich auf das Suchverhalten der Internetnutzer ausgewirkt und so die Prognose verzerrt. Google Flu Trends könnte die Ergebnisse sogar selbst beeinflussen, wenn etwa Medien über Googles Grippewarnungen berichten, was wiederum mehr Menschen dazu verleitet, die Krankheitssymptome zu googlen.

Grundlagenforschung bleibt wichtig

Grundsätzlich mahnt der Wissenschaftstheoretiker Klaus Mainzer (TU München) mit Blick auf Big-Data-Erkenntnisse in der Medizin: „Erst eine gründliche Grundlagenforschung erklärt die kausalen Zusammenhänge und garantiert damit nachhaltige Diagnosen und Therapien.“ Speziell bei den Big-Data-Algorithmen bestehe die Gefahr, dass man nur noch auf ihre Schnelligkeit setze. „Es wäre fatal, wenn aus schneller Profitgier die Bedeutung der Grundlagenforschung unter die Räder käme.“ Auch der Literaturwissenschaftler Manfred Schneider warnt davor, den Erkenntnisgewinn von rein statistischen Zusammenhängen zu überschätzen. „Auch die Korrelation des Bierkonsums in Europa mit der Häufigkeit von Verkehrsunfällen in Bangladesh an Wochenenden ergäbe einen Befund.“

Ängste vor rein datenbasierten Fehldiagnosen und -therapien hält Stefan Rüping vom IAIS indes für unbegründet. Die Vorschriften seien sehr strikt. Neues medizinisches Wissen müsse immer noch einmal unabhängig in kontrollierten Studien verifiziert werden. „Die relevante Frage ist allerdings nicht, ob eine neue Diagnosemethode oder Therapie fehlerfrei ist – das ist in der Medizin üblicherweise nicht der Fall – sondern ob sie klar besser ist als die beste bekannte Standardbehandlung.“ Darüber hinaus sei ein rein statistisches Vorgehen ohne inhaltliches Verständnis in der Datenanalyse immer eine schlechte Idee. „Die Entwicklung neuerer, besserer Datenanalyseverfahren ist in vielen Fällen eher eine Evolution statt eine Revolution.“

Der gläserne Patient

Neben der Entdeckung von Zusammenhängen verspricht Big Data in der Medizin eine maßgeschneiderte Behandlung. Indem konkrete Fälle mit großen Datenmengen – etwa über Krankheitsverläufe – abgeglichen werden, sollen bessere Diagnosen und Medikationen möglich sein. Beispielsweise nutzt das Memorial Sloan-Kettering Cancer Center in New York den IBM-Supercomputer „Watson“ zur Entwicklung einer Software, die personalisierte Krebs-Therapien vorschlägt. Dazu verarbeitet Watson zum Beispiel 1,5 Millionen Patientenakten und 600.000 Forschungsberichte und  Fachartikel. Auch am Hasso-Plattner-Institut in Potsdam suchen Forscher nach Methoden, das weltweite medizinische Wissen „am Krankenbett“ verfügbar zu machen.

Der Wissenschaftstheorethiker Mainzer ist sich bereits sicher: „Ohne den Einsatz hochentwickelter Algorithmen wird die Medizin in Zukunft nicht mehr auskommen.“ Das medizinische Wissen wachse täglich in unvorstellbarer Weise. Allein über Diabetes gebe es circa 400.000 Fachartikel. „Selbst ein Spezialist kann diese Artikel in einem kurzen Leben nicht bewältigen“, so Mainzer. „Hier bedarf es intelligenter Software, die über semantisches Verständnis verfügt und die jeweils relevanten Informationen für eine Diagnose und Therapie herausfiltert.“

Prinzipiell hält es Mainzer für möglich, den Menschen im Sinne einer personalisierten Medizin eines Tages in allen Details zu erfassen. „Der gläserne Patient, der bis auf die molekulare Ebene individuell durchleuchtet wird, ist aus Sicht der Rechnertechnologie möglich.“ Bei Krankheitsverläufen wie Krebs wäre ein dauerndes Screening auch notwendig, da Krebstumore und Krebszellen sich genetisch dauernd verändern und die Therapien angepasst werden müssten. Allerdings werde es Zeit und sehr viel Geld kosten, alle ungeheuer komplexen Details des menschlichen Organismus bis auf Molekularebene zu erforschen.

Sind Maschinen die besseren Ärzte?

Schon heute werfen computergestützte Diagnosen und Therapievorschläge die Frage nach der künftigen Rolle der Ärzte auf. Der US-Investor Vinod Khosla provoziert den Berufsstand mit seiner These, Computer beziehungsweise „Dr. Algorithmus“ würden künftig 80 Prozent der bisherigen Tätigkeit eines Arztes überflüssig machen.

Der Wissenschaftstheoretiker Mainzer warnt dagegen davor, sich allzu sehr auf scheinbar „objektive“ Daten und Verfahren zu verlassen. „Warum haben Ärzte eine Wissenschaft wie die Medizin studiert, wenn sie am Ende nur noch Daten ablesen und zusammenstellen?“ so Mainzer. „Die Einordnung und das Verständnis der Daten erfordert die medizinische Urteilskraft des Arztes.“ Hierzu gehörten auch psychologisches und soziales Verständnis für die Situation eines Patienten, das nicht in Algorithmen abbildbar sei.

Stefan Rüping vom IAIS sieht statt einer Konkurrenz von Mensch und Maschine eher eine Koexistenz. „Dem Arzt werden automatisch deutlich mehr relevante Informationen zur Verfügung stehen, auf denen er seine Entscheidung stützen kann – die er aber selbstverständlich weiterhin selbst trifft.“

Probleme bei der Datenbereitstellung

Noch liegt die Erfüllung vieler Big-Data-Träume in weiter Ferne. Eine erste Hürde besteht in der Qualität und der technischen Bereitstellung der Daten. Beispielsweise liegen die theoretisch nutzbaren Datenmengen oftmals dezentral und in uneinheitlichen Dateiformaten vor – wenn sie überhaupt schon digitalisiert sind.

„Vielfach wird noch mit Papierakten gearbeitet, elektronische Patientenakten können selbst im selben Krankenhaus zwischen verschiedenen Abteilungen sehr verschiedene Formate haben und die Semantik der Daten ist durch automatisierte Verfahren nur sehr schwer zu verstehen“, erklärt Stefan Rüping zur Lage in Deutschland. Ein Großteil der Arbeit in klinischen Studien liege darin, die Daten sinnvoll und korrekt einzugeben. „Erst danach kann sinnvoll eine wie auch immer geartete Datenanalyse ansetzen.“

Auch in den USA macht die Datenqualität Probleme. Man sei bei der Datenerfassung immer noch auf 100 Jahre alte Transkriptionstechnik angewiesen, sagte jüngst der Mediziner Douglas Johnsten (Cleveland Clinic) auf einem Podium zur Frage, woran Big Data in der Medizin bisher scheitert. „Ich sehe, dass die Ergebnisse mangelhaft sind, weil Müll raus kommt, wenn Müll rein geht.“ Außerdem stellt sich die Frage, welchen Daten man trauen kann: Ob Daten etwa aus Studien der Pharmaindustrie immer zuverlässig sind, bleibt problematisch.

Zumindest im Bereich der Krebsforschung will Deutschland vorangehen. Mitte 2013 startete der Aufbau des flächendeckenden klinischen Krebsregisters. Nach einheitlichen Kriterien werden darin die Daten der Krebspatienten in Deutschland gesammelt, von der Diagnose über die Therapie bis zu Rückfällen, Genesung und Tod.

Großbritannien geht noch einen Schritt weiter, indem es mit dem Projekt Clinical Practice Research Datalink (CPRD) die Krankenakten aller Einwohner zentral sammelt und mit anderen Registern wie Gen-Datenbanken und Umweltregistern verknüpft. Der Datenschatz soll Wissenschaftlern anonymisiert zur Verfügung stehen.

Rechtliche Hürde: Datenschutz

Ebenfalls zur Debatte steht der rechtliche Rahmen für Big-Data-Forschung in der Medizin. Daten zur Gesundheit eines Menschen sind als „sensible Daten“ vom Bundesdatenschutzgesetz besonders geschützt. IAIS-Experte Rüping entwickelt im Rahmen des EU-Projekts EURECA Techniken (unter dem Stichwort Privacy-Preserving Data Mining), die im Einklang mit dem Datenschutz stehen, und beispielsweise die Anomymisierung personenbezogener Daten garantieren sollen.

Auch in Fällen, in denen die Patienten der Datenverwendung zustimmen müssen, bleiben offene Fragen. „Ein Problem ist, dass ein Patient um rechtlich und ethisch einwandfrei der Verarbeitung seiner Daten zustimmen zu können, verstehen können muss, was mit seinen Daten passiert, welche Ergebnisse zu erwarten sind und welches Risiko von Missbräuche potentiell besteht“, so Rüping. „Dies ist bei sehr komplexen Verfahren der Datenanalyse sehr schwierig.“

Krankheitsrisiken: Fluch der Erkenntnis?

Schließlich wirft Big Data in der Medizin eine Reihe von ethischen Fragen auf. Das neue Wissen um Krankheitsrisiken könnte beispielsweise Versicherungen dazu verleiten, von Riskopatienten höhere Prämien zu verlangen. „Das ist eine konkrete Gefahr“, meint der Internetforscher Mayer-Schönberger. „Hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.“ Auch die Frage nach der Prävention könnten Big-Data-Erkenntnisse neu aufwerfen. Wäre es vertrebar oder sogar geboten, gesunden Patienten vorsorglich Medikamente zu geben, weil etwa das Genprofil hohe Krankheitsrisiken anzeigt?

Schließlich steht zur Debatte, wem eine kostenintensive, personalisierte Medizin zu Gute kommt. Kann die Gesellschaft schwer kranken aber armen Patienten die Segnungen einer teuren High-Tech-Medizin verweigern? „Hier werden ethische und rechtliche Probleme der Verteilungsgerechtigkeit auf uns zukommen, von denen wir uns heute noch keine Vorstellung machen“, meint der Wissenschaftstheoretiker Klaus Mainzer.

Dem Medizinsektor ergeht es also so wie anderen gesellschaftlichen und wirtschaftlichen Bereichen:  Big Data löst große Hoffnungen aus, aber auch Ängste.

September 20 2013

Wem soll Big Data dienen?

Je mehr Daten, desto besser – das ist der Ansatz von „Big Data”. Ein Konzept, das zunehmend auf Skepsis zu stoßen scheint. Aber nicht die Daten an sich sind das Problem, sondern wer sie nutzen kann und welche Regeln dafür gelten. Denn Big Data hat die Tendenz, die digitale Spaltung zu verstärken.

Hinter „Big Data” steckt ein großes Versprechen. In den Daten, die digitale Welt unablässig produziert, schlummere ein Wissen, das nur noch gehoben werden muss – indem diese gesammelt, zusammengeführt und ausgewertet werden. „Wired”-Chef Chris Anderson glaubte in einem vielzitierten Essay sogar, die statistische Auswertung von Daten werde bald wissenschaftliche Theorien ersetzen.

Solche Heilsversprechen haben sich – wenig überraschend – nicht bewahrheitet, auch wenn die Techniken des Data Mining tatsächlich die Wissenschaft verändern. Big Data ist aber primär ein wirtschaftliches Thema: Mehr Effizienz für Unternehmen, zielgerichtete Werbung oder Vorhersagen über den Markt, wenn etwa eine Supermarkt-Kette die Äußerungen in sozialen Netzwerken auswertet und ihr Sortiment entsprechend anpasst. „Big Data zu nutzen, wird für Unternehmen zum Schlüsselfaktor für Wettbewerb und Wachstum”, heißt es etwa in einer McKinsey-Studie.

Was ist „Big Data”? Zu groß für Excel

Anschaulich wird das in einem Video der Firma Sqrrl, die unter diesem Namen ein Data-Mining-Tool anbietet. Wir sehen ein Daten-Eichhörnchen, das stapelweise Daten gehortet hat, aber nicht zu nutzen versteht, erklärt der Sprecher. Denn Datenschutz und andere Regulierungen verhindern, dass es die Daten auswerten kann. So bleiben sie im Silo ungenutzt eingesperrt. Doch die Entwickler von Sqrrl haben ein Werkzeug ersonnen, mit dem die Daten angeblich nicht mehr im Silo lagern müssen:

Das Programm „Sqrrl” ist eine kommerzielle Weiterentwicklung des Programms „Accumulo”. Entwickelt hat es der US-Geheimdienst NSA, um große Datenmassen verwalten zu können. Heute steht „Accumulo” als freie Software bereit. Man kann sich das Programm wie einige riesige Tabelle vorstellen – nur dass die Tabelle so groß ist, dass sie nicht als Datei auf einem Rechner am Schreibtisch, sondern übers Internet verteilt gespeichert und bearbeitet wird. Eine weit verbreitete, etwas saloppe Definition von „Big Data” heißt dann auch: Alles, was zu groß für eine Excel-Tabelle ist.

Die „Cell Level Security”, die von den Entwicklern angepriesen wird, erwuchs aus den Anforderungen der Arbeit der NSA: Jede Zelle der Tabelle kann nach Geheimdienstanforderungen klassifiziert werden, also zum Beispiel eine Einstufung als „streng geheim”, „vertraulich” und so weiter erhalten. Damit soll der Schatz von Big Data auch in der freien Wirtschaft gehoben werden – auch wenn Datenschützer durch eine Funktion wie „Cell Level Security” keineswegs beruhigt sein werden.

Mit dem Programm und seinen Auswertungsmöglichkeiten könnten Kundentransaktionen, E-Mail-Verkehr oder Aktivitäten in sozialen Netzwerken überwacht und „verdächtiges“ Verhalten erkannt werden, heißt es in einer Broschüre (PDF) des Unternehmens. Der typische Ansatz dabei: Daten verschiedener Quellen lassen sich kombinieren, statistisch auswerten und korrelieren – und man schaut, was sich ergibt. Gibt es etwa interessante Muster, die weiterverfolgt werden können?

Erst sammeln, später auswerten

„Indem wir Datensätze zusammenbringen, konnten wir mit Accumulo Dinge in den Daten erkennen, die wir nicht entdeckt hätten, wenn wir sie uns unter diesem und jenem Gesichtspunkt angesehen hätten“, erklärte Dave Hurry, Chef der Informatikforschungsabteilung der NSA, der Information Week. Es ist ein Ansatz, der sich im Kern nicht groß von demjenigen unterscheidet, den Google-Forscher vor einigen Jahren in einem Aufsatz über Sprachverarbeitung (PDF) vorschlugen, wenngleich mit anderem Ziel: „Gehen Sie raus, sammeln Sie ein paar Daten und schauen Sie dann, was man damit machen kann“.

Beide Zitate bringen den Paradigmenwechsel zu „Big Data” auf den Punkt. Datenschützer standen dem Konzept lange eher reserviert gegenüber. Denn mit den hergebrachten Grundprinzipen des Datenschutzes in Europa steht der Ansatz auf dem Kriegsfuß. Da wären etwa die Gründsätze der Einwilligung und der Zweckbindung, nach der Nutzer der Sammlung ihrer Daten zustimmen müssen und diese nicht für alle möglichen, sondern nur für genau definierte Zwecke verwendet werden können. Oder der Grundsatz der Erforderlichkeit: Daten sammeln, und später schauen, was man damit machen kann, das geht nicht.

Datenschutz entdeckt Big Data

In letzter Zeit scheint sich ein gewisser Wandel zu vollziehen: Thilo Weichert etwa, Chef des Schleswig-Holsteiner Datenschutzzentrums USD, betont, dass auch „Big Data”-Auswertungen datenschutzkonform möglich seien – wenn etwa die Daten soweit anonymisiert würden, dass sie Rückschlüsse auf einzelne Personen nicht mehr erlaubten. Dahinter steht wohl die Einsicht, dass sich der Trend zu immer größeren Datensammlungen kaum mehr stoppen lässt, weil technische Entwicklung und wirtschaftliche Verwertungsmöglichkeiten stärker wiegen. Weicherts Behörde hat etwa einem System zur Kassenauswertung eines Discounters oder Targeting-Systemen in der Online-Werbung ihr Gütesiegel zuerkannt.

Dennoch stößt „Big Data” nach wie vor auf Skepsis – was man gut oder schlecht finden kann. Glaubt man einer Untersuchung im Auftrag der Deutschen Telekom, dann ist infolge der Enthüllungen im Überwachungs- und Spionageskandal in der Bevölkerung die Bereitschaft zurückgegangen, an umfangreichen Datensammlungen und -auswertungen teilzunehmen, egal ob es staatliche oder privatwirtschaftliche Sammlungen sind. So gaben etwa im Juni noch eine knappe Mehrheit der Befragten an, sie fänden es in Ordnung, wenn Unternehmen Diskussionsforen im Internet auswerten, um Produkte zu verbessern. Im August zeigten sich 57 Prozent, also die Mehrheit der Befragten, kritisch.

Die digitale Spaltung

Die Diskussion über Chancen und Risiken von „Big Data” ist allerdings nicht neu: Danah Boyd, Internetforscherin bei Microsoft, stellt eine neue digitale Spaltung fest. „Wer hat Zugang? Für welche Zwecke? In welchem Zusammenhang? Mit welchen Begrenzungen?” fragt sie in einem Aufsatz. Und der Medienwissenschaftler Lev Manovich sah drei „Daten-Klassen” am Entstehen: Zu den Datenproduzenten gehöre praktisch jeder, der ein Handy besitzt oder das Web benutzt. Es folge die Klasse derjenigen, die die Mittel zum Datensammeln besitzen, noch kleiner aber sei die Gruppe derer, die über Zugang und Fähigkeiten zur Auswertung verfügten.

Nach den Erkenntnissen über Prism, Tempora & Co. lässt sich das Modell um eine weitere Klasse ergänzen: Zwar sitzen IT-Riesen wie Amazon oder Google bereits auf umfangreichen Datenbergen. Die am weitesten entwickelten Geheimdienste aber bilden eine Daten-Superelite. Sie können sich aussuchen, bei welchen IT-Unternehmen sie sich anstöpseln oder wo Internetknoten angebohrt werden. Aber auch innerhalb der Staaten, zwischen Regierungen und Behörden ist eine Spaltung in „Daten-Begüterte” und „Daten-Habenichtse” entstanden, wie der Internet-Rechtsprofessor Peter Swire konstatiert. Wer im technischen Wettrennen vorne liegt, hat Zugang zur Cloud, in der ein immer größerer Teil der Informationen lagert, die früher an anderen Stellen abgegriffen wurden.

Die Autoren Viktor Mayer-Schönberger und Kenneth Cukier sprechen sogar vor einer „Diktatur der Daten”, in der „wir uns von Daten derart regieren lassen, dass es mehr Schaden als Nutzen bringt”. Aber nicht „die Daten” regieren uns, sie sind ein Mittel für verschiedene Zwecke. Wer Zugang zu Daten hat und wer nicht, wer sie wann und wo erhebt, welche Regeln fürs Sammeln und Verarbeiten gelten, welche Rechte Nutzer haben, wer die Mittel zum Auswerten hat – all das wird darüber entscheiden, ob die Segnungen von „Big Data” nur ein Versprechen bleiben oder zum Nutzen für viele eingesetzt werden können.

September 06 2013

Cloud-News: SSL-Verschlüsselung, Späh-Affäre, Spotify-Streit

Auch verschlüsselte Datenverbindungen können offenbar von Geheimdiensten ausgespäht werden, Datenschützer kritisieren mangelnde Aufklärung der Späh-Affäre, Streit um Playlists bei Spotify, Warten auf Spiele-Streaming in Europa. Die Cloud-News der Woche:

Bericht: Geheimdienste können auch verschlüsselten Datentransport ausspähen

Auch verschlüsselte Verbindungen über den SSL- bzw. HTTPS-Standard sind offenbar nicht vor möglicher Ausspähung durch die NSA und sein britisches Pendant GCHQ sicher. Das berichten gemeinsam der Guardian, die New York Times und Pro Publica mit Berufung auf Unterlagen aus dem Snowden-Fundus. Solche Verschlüsselungs-Standards bilden eine technische Grundlage für viele alltägliche Nutzungen des Internets und sichern den Datentransport; etwa beim Online-Einkauf, bei Cloud-Diensten oder bei der Übertragung von E-Mails. Sicherheitsforscher Bruce Schneier sagte gegenüber dem Guardian, die Geheimdienst-Programme mit den Codenamen „Bullrun” (NSA) und „Edgehill” (GCHQ) unterminierten die Grundstruktur des Internets.

Datenschützer kritisieren mangelnde Aufklärung und Konsequenzen der Späh-Affäre

Die Konferenz der Datenschutzbeauftragten des Bundes und der Länder hat die Politik aufgefordert, die gegenwärtige Späh-Affäre aufzuklären und das nationale, europäische und internationale Recht zum Schutz der Privatsphäre und der Grundrechte weiterzuentwickeln. „Die staatliche Pflicht zum Schutz der Grundrechte erfordert es, sich nicht mit der gegenwärtigen Situation abzufinden“, heißt es in einer Erklärung. Der Bundesdatenschutzbeauftragte Peter Schaar kritisiert darüber hinaus, das Bundesinnenministerium behindere die Aufklärung. Er habe das Minsterium sowie den Verfassungsschutz wegen Verstoßes gegen ihre gesetzliche Mitwirkungspflicht beanstandet, schreibt Schaar in einem Forenbeitrag.

Playlists: Musiklabel Ministry of Sound klagt gegen Spotify

Die Londoner Plattenfirma Ministry of Sound klagt gegen den Streaming-Dienst Spotify. Das berichtet der Guardian. Das Label sieht offenbar eine Urheberrechtsverletzung im Fall von Playlists, die von Nutzern angelegt wurden und in der Titelauswahl und Benennung Compilations des Labels nahekommen. Während das Label seine eigenen Veröffentlichungen nicht bei Spotify anbietet, handelt es sich bei den Ministry-of-Sound-Compilations überwiegend um anderswo veröffentlichte Titel. Das Musiklabel will Spotify vor dem britischen High Court auf Unterlassung und Schadensersatz in Anspruch nehmen. Das Gericht wird sich nun mit der Frage beschäftigen müssen, ob reine Zusammenstellungen von Musikstücken in Compilations noch einmal eigens geschützt sein können – wahrscheinlich als Datenbank.

„Breitband-Probleme”: Vorerst kein Spiele-Streaming bei Sony

Spielefreunde in Europa werden auf Cloud-Features von Sonys vor kurzem vorgestellter Konsole Playstation 4 noch längere Zeit warten müssen. Über den Dienst „Gakai” ist es dort möglich, Spiele für ältere Generationen der Sony-Konsole aufs Gerät zu streamen. In Europa wird der Dienst jedoch vorerst nicht zur Verfügung stehen. In einem Interview mit dem Spielemagazin Edge machte Sony-Spielechef Jim Ryan nicht näher definierte „Probleme mit Breitband” in Europa dafür verantwortlich. Einen Zeitplan für europäische Nutzer gäbe es daher noch nicht.

August 02 2013

PGP und der Kampf um Verschlüsselung

Schon Mitte der neunziger Jahre warnte der PGP-Entwickler Phil Zimmermann, dass E-Mail-Kommunikation einfach, automatisch und unbemerkt großflächig überwacht werden kann. Heute kann jeder Bürger Verschlüsselungstechniken einsetzen, dennoch sind die Auseinandersetzungen darüber nicht abgeklungen.

Auf der einen Seite: Die USA und ihre Spionageagentur NSA, die einen ungesunden Appetit auf die Daten der Weltbevölkerung entwickelt hat. Sie will die Kommunikation per Telefon und Internet überwachen, speichern und auswerten. Ihr Herausforderer: Ein Hacker, der das Menschenrecht auf freie Kommunikation in das Zeitalter digitaler Vernetzung retten will. Er hat ein Programm geschrieben, dass es den Menschen erlaubt, über digitale Netzwerke verschlüsselte Informationen auszutauschen, ohne sich vor staatlicher Überwachung fürchten zu müssen.

Es kommt zum Kampf zwischen Daten-David und Überwachungs-Goliath. Am Ende geht Goliath in die Knie: Das Programm des Hackers wird erlaubt, verbreitet sich über das Internet rund um den Globus und erlaubt es der Weltbevölkerung wieder, unkontrolliert miteinander zu kommunizieren. Pech gehabt, NSA.

Das mag klingen wie der Plot eines Cyber-Thrillers, aber die zugrundeliegenden Ereignisse haben wirklich statt gefunden – vor gut zwanzig Jahren. Damals entwickelte der amerikanische Programmierer Philip Zimmermann das Programm Pretty Good Privacy (PGP) – und zwar aus Gründen, die im Lichte der jetzt bekannt gewordenen Spionage-Aktivitäten der NSA und europäischer Geheimdienste beängstigend aktuell wirken. PGP erlaubt es Nutzern, ihre Online-Kommunikation so zu verschlüsseln, dass sie nicht ohne Weiteres von ungebetenen Dritten mitgelesen werden können.

Von Clipper über Echelon zu PRISM

Zimmermann, eigentlich ein stiller und unpolitischer Mensch, hatte das Programm geschrieben, als 1991 Pläne der amerikanischen Regierung bekannt wurden, Datenkommunikation abzuhören. Per Gesetz sollten Telekommunikationsunternehmen verpflichtet werden, in ihre Anlagen eine fest installierte Hintertür einzubauen, die es der Polizei und Geheimdiensten erlauben würde, Zugang zu Telefonaten und Datentransfers zu erhalten. Auch wenn das Gesetz nach einem öffentlichen Aufschrei nicht vom US-Senat verabschiedet wurde – Zimmermann sah kommen, was inzwischen beängstigende Realität geworden ist: dass die amerikanischen Dienste nichts unversucht lassen würden, um die internationale digitale Kommunikation abzuschöpfen.

Wie recht er behalten sollte, zeigen in diesen Tagen wieder die Enthüllungen, nach denen die amerikanische Regierung versucht hat, Internetfirmen zu zwingen, ihre Schlüssel für SSL-Datenverbindungen offenzulegen und so Zugang zu verschlüsselter Datenkommunikation zu bekommen. Versuche der US-Behörden, die Online-Kommunikation abzuhören, gibt es allerdings seit mehr als zwei Jahrzehnten. Auf den 1991 gescheiterten Versuch folgte der ebenfalls nicht erfolgreiche Clipper Chip, das Echelon-Programm, schließlich die Programme um PRISM.

Das zeigt, dass US-Geheimdienste unter mehreren verschiedenen Regierungen kontinuierlich darauf hin gearbeitet haben, die internationalen Datennetzwerke flächendeckend abhören zu können. Dank Edward Snowden wissen wir, dass dies unter Präsident Obama nun gelungen ist – in einer Zeit, in der die ehemalige Außenministerin Hillary Clinton weltweit Reden über „Internet-Freiheit” hielt.

Der Beginn von PGP

Philip Zimmermann sah diese Entwicklung voraus. Darum schrieb er Anfang 1991 in wenigen Wochen die Software PGP – Pretty Good Privacy – und stellte sie kostenlos über das Usenet bereit, durch das es sich zunächst unter Hackern in der ganzen Welt verbreitete. Die starke Verschlüsselung des Programms aber fiel unter die Exportkontrolle. Die USA hatten ebenso wie weitere Staaten seit dem kalten Krieg entsprechende Regelungen für kryptografische Verfahren eingeführt, so dass der amerikanische Zoll es als „Munition” klassifizierte und gegen Zimmermann wegen Verstoßes gegen das amerikanische Waffenexportgesetz vorging.

Die Ermittlungen zogen sich fünf Jahre hin, erst 1996 wurden sie schließlich eingestellt. Zimmermann gründete ein Unternehmen, das PGP als kommerzielles Produkt vertrieb. PGP Inc. wurde später vom IT-Unternehmen Network Associates, dann von Symantec unternommen und ist bis heute als verlässliches Verschlüsselungs-Werkzeug im Einsatz.

Zimmermanns knapper Text „Why do you need PGP?”, Mitte der 90er Jahre verfasst, ist aus heutiger Sicht von geradezu hellseherischer Klarheit: „E-Mails können viel zu leicht abgefangen und nach interessanten Schlüsselworten durchsucht werden. Das kann ganz einfach, routinemäßig, automatisch und unbemerkt in großem Maßstab getan werden. Schon jetzt werden Übersee-Telegramme auf diese Weise von der NSA großflächig durchsucht”, stellte Zimmermann fest.

Ein Werkzeug alleine hilft nicht

Dennoch haben sich Zimmermanns PGP oder die kostenlose OpenPGP-Variante bei den meisten Internet-Nutzern bislang nicht durchsetzen können. Es setzt voraus, dass alle Kommunikationsteilnehmer das Programm benutzen und die digitalen Schlüssel zum Öffnen der Nachrichten auf dem Rechner haben. Dem alternativen Standard S/MIME geht es ähnlich. Gegen das jetzt bekannte großflächige Absaugen von Verbindungsdaten – wer mit wem wann Nachrichten austauscht – helfen allerdings auch diese Programme nicht. Hier setzten weitere Techniken wie TOR an: Die Software macht jeden angeschlossenen Computer zu einem Knoten in einem Netzwerk, das der Anonymisierung von Verbindungsdaten dient.

Diese Art von Selbstschutz fürchten Dienste wie die NSA offenbar am meisten: Wer TOR oder PGP verwendet, ist für die Behörde von vornherein verdächtig. Selbst wenn sie solche Botschaften (noch) nicht lesen kann, speichert sie sie länger als andere Daten. Wer wiederum die TOR-Software verwendet, der wird bis auf weiteres „nicht als Bürger der Vereinigten Staaten behandelt”, so dass Überwachungs-Einschränkungen wegfallen.

Den jüngsten, zum Überwachungssystem „XKeyscore” bekannt gewordenen Informationen nach sollen Geheimdienste sogar gezielt suchen können, wo Nutzer Verschlüsselungstechnik einsetzen – „Zeige alle Nutzungen von PGP im Iran” wird dort als eine mögliche Anwendung beschrieben. So scheint es, dass Nutzer vor einer schlechten Alternative stehen, solange Verschlüsselung nicht breit genutzt wird: Wer nicht verschlüsselt, kann jederzeit abgehört werden; wer es aber tut, könnte im Zweifel besondere Aufmerksamkeit auf sich ziehen. Wer sie einsetzt, müsse etwas zu verbergen haben, so die Logik der Geheimdienste. Die Geschichte von David und Goliath ist so schnell noch nicht zu Ende.

March 18 2013

Owncloud bringt Virenscanner und Volltextsuche für die eigene Datenwolke

Die Open-Source-Software Owncloud wird um neue Funktionen erweitert. Das Projekt soll eine Alternative zu den großen Cloud-Anbietern liefern. Der Nutzer organisiert und verwaltet den Speicherplatz selbst.

Die Owncloud-Software zum Betrieb einer privaten Cloud entwickelt sich. In der vergangene Woche vorgestellten Version 5 kommen eine Reihe von Funktionen hinzu. So kann der Nutzer seine Inhalte mit einer Volltext-Suche durchforsten und versehentlich gelöschte Dateien wieder herstellen. Die Benutzeroberfläche soll nun einfacher und schneller zu bedienen sein. Ein Virenscanner überprüft automatisch alle hoch geladenen Dateien.

Hinter Owncloud steht der Gedanke, dass der Nutzer  bei Cloud-Anwendungen auf eigenen Speicherplatz zurückgreift – etwa auf selbst gemietete Serverkapazitäten oder die Festplatte auf dem Heimrechner, der permanent online ist. Damit soll der Nutzer die volle Kontrolle über seine Dateien behalten, zum Beispiel über Texte, Musik, Fotos, Filme, Kalender und Adressbücher. Auch über mobile Endgeräte wie Smartphones lässt sich auf die Verzeichnisse in der eigenen Datenwolke zugreifen. Eine Weboberfläche ermöglicht das direkte  Abspielen und Darstellen von Medieninhalten. Owncloud funktioniert unabhängig vom genutzten Betriebssystem.

Die  sogenannte Community-Version der Software ist für den privaten Endanwender gratis. Ging es den Machern zunächst darum, eine freie Alternative zu kommerziellen Angeboten zu schaffen, arbeitet Owncloud inzwischen auch an Bezahl-Versionen, die sich an Unternehmen richten.

Branche arbeitet an der Datensicherheit

Indem Owncloud auf die Datenspeicher der Anwender setzt, begegnet das Unternehmen zentralen Bedenken gegen das Cloud-Computing. Die selbstgebaute Cloud soll zum Beispiel verhindern, in eine allzu große Abhängigkeit großer Anbieter zu geraten (Lock-in-Effekt).Viele Privatnutzer und Unternehmen sorgen sich zudem um die Sicherheit ihrer sensiblen Daten, wenn sie auf fremden Servern lagern. So könnten die Daten zum einen in fremde Hände geraten, zum anderen vorübergehend oder dauerhaft verloren gehen, etwa wenn Rechenzentren ausfallen.

Eine Studie des Fraunhofer-Instituts für sichere Informationstechnologie vom Mai 2012 attestierte allen geprüften Cloud-Speicherdiensten Mängel bei der Datensicherheit. Der eigene Speicherplatz ist hier nur ein Ansatz. Zahlreiche Unternehmen und Projekte arbeiten an Cloud-Lösungen, die das Vertrauen der Nutzer erhöhen sollen, darunter die staatlich geförderten Programme  „Trusted Cloud” und „Trustworthy Clouds”.

 

March 12 2013

Verpatzter „Sim City”-Start: Worst Case des Cloud-Gamings

Wenn ein Online-Spiel offline geht: Der Fall „Sim City“ zeigt, was beim Cloud-Computing schiefgehen kann.

Unfreiwillig hat die Spielefirma Electronic Arts die große Schwäche des Cloud-Gamings offenbart: die Server des Anbieters müssen permanent online erreichbar sein. Genau das misslang nach dem Verkaufsstart von „Sim City 5” am vergangenen Donnerstag. Als hunderttausende Spieler anfingen, online virtuelle Städte zu bauen, versagten die überlasteten Server den Dienst. Zahlreiche Nutzer machten ihrem Ärger Luft und verlangten ihr Geld zurück. Bei einem großen Online-Shop bekam das Spiel reihenweise schlechte Bewertungen.

Inzwischen erklärt Electronic Arts, man bekomme die technischen Probleme in den Griff. Das Unternehmen habe die Server-Kapazitäten für Sim City um 120 Prozent erhöht, teilte eine Sprecherin am Samstag mit. Grund für die Probleme sei gewesen, dass mehr Kunden gleichzeitig spielen wollten als erwartet. Auch von der „Intensität“ des Spielens zeigt sich das Unternehmen überrascht. Die Kunden sollen mit einem Gratis-Spiel für die Probleme entschädigt werden.„Was passiert ist, tut uns außerordentlich leid“, so die Sprecherin.

Umstrittene Account-Bindung

Viele Nutzer fragen sich, warum Sim City nur spielbar ist, wenn ein stabiler und schneller Online-Datenaustausch zu den Unternehmens-Servern gewährleistet ist. Electronic Arts argumentiert, indem Unternehmens-Server die Berechnung des Spiels übernehmen, könnten auch Nutzer mit weniger leistungsstarken Endgeräten in den Genuss einer anspruchsvollen Grafik kommen. „Wir wollten ein Spiel, das grafisch ansprechend ist, aber keinen Hochleistungscomputer voraussetzt.“

Ein weiterer Grund dürfte sein, dass der Online-Zwang als Kopierschutz wirkt. Die Nutzer müssen sich online registrieren und einloggen, wenn sie spielen wollen. Ihren persönlichen Zugang dürfen sie anderen nicht übertragen. Weil jeder Kunde über eine Seriennummer identifizierbar ist, können sich auch nicht mehrere Nutzer einen Zugang teilen und parallel spielen.

Gegen diese Form von Account-Bindung“ gehen Verbraucherschützer derzeit gerichtlich vor.  Sie führe praktisch dazu, dass Kunden ein Online-Spiel nicht weiterverkaufen können, so das Argument. Die Anbieter verweisen darauf, dass sie dem Kunden nur Nutzungslizenzen einräumen, jedoch keine Eigentumsrechte.

Sim-City-Ausfall verdeutlicht Abhängigkeiten

Der Serverausfall bei Electronic Arts macht die Abhängigkeit bewusst, in die sich Kunden von Cloud-Anbietern begeben. Sollte Electronic Arts beispielsweise einmal pleitegehen, wäre auch Sim City 5 nicht mehr spielbar. Die Tageszeitung taz malt sich diesen Fall aus und vergleicht ihn mit dem Autosektor: „Man stelle sich vor, nach Schließung des letzten Opelwerkes würden alle jemals produzierten Fahrzeuge dieser Marke nicht mehr fahren können, weil die Zündung zum Schutz vor unerlaubtem Weiterverkauf des Fahrzeugs einer Synchronisation mit einem Rüsselsheimer Server bedarf, der dann leider nicht mehr existiert.“

Der vorübergehende Ausfall eines Online-Spiels ist ärgerlich, scheint aber verkraftbar. Sollten jedoch einmal Dokumente, Kalender und Adresslisten nicht mehr verfügbar sein, weil die Server des Cloud-Anbieters streiken, könnte manches Büro nur noch beschränkt arbeitsfähig sein. Ein wenig Vorbereitung auf das Worst-Case-Szenario „Offline-Modus“ scheint also angeraten – zumal Sim City kein Einzelfall bleiben muss.

Was der Nutzer von Cloud-Games rechtlich beachten sollte, hat iRights Cloud in einer Rubrik zusammengestellt.

March 04 2013

Cloud-Dienst „Evernote“ meldet Hacker-Angriff

Unbekannte haben sich  Zugriff auf Benutzerinformationen wie E-Mail Adressen der „Evernote”-Kunden verschafft. Die Angriffe auf Internet-Dienste häufen sich. Über eine gesetzliche Meldepflicht wird noch debattiert.

Der Cloud-Anbieter Evernote hat „verdächtige Aktivitäten” festgestellt und geblockt. Diese glichen einem „koordinierten Versuch”, sich Zugriff auf den gesicherten Bereich des Dienstes zu verschaffen. Das teilte das US-Unternehmen am Samstag mit. Der Cloud-Dienst bietet rund 50 Millionen Kunden die Möglichkeit, Texte und Fotos auf einem Online-Speicher zu sammeln und zu verwalten.

Den Angreifern sei es möglich gewesen, Zugriff auf Benutzernamen, E-Mail Adressen und verschlüsselte Passwörter zu erlangen. Zugleich beschwichtigt Evernote: „Unsere Sicherheitsüberprüfungen haben nicht ergeben, dass auf Ihre Daten zugegriffen, diese geändert oder gelöscht wurden.” Zahlungsinformationen der Premium-Kunden hätten die Angreifer nicht eingesehen. Täter und Motive sind unbekannt.

Nutzer sollten mehrere Passwörter verwenden

Evernote hat alle Kunden-Kennwörter zurückgesetzt. Die Nutzer müssen nun ein neues Passwort anlegen. Allerdings hätten die Angreifer die erbeuteten Passwörter erst noch entschlüsseln müssen, um sie zu nutzen. Das Unternehmen spricht von einer Einweg-Verschlüsselung, technisch auch „Hashed und Salted” genannt, mit der sie automatisch auf den Unternehmens-Servern gesichert werden.

Evernote reiht sich in eine Liste von Internet-Anbietern ein, die in letzter Zeit Ziel von Angriffen wurden. So meldeten auch Twitter, Facebook, Apple und Microsoft Versuche von außen, im großen Stil auf Kunden-Accounts zuzugreifen. Der Nutzer bleibt zunächst machtlos, wenn Unternehmen seine Daten verlieren. Als allgemeine Vorsorgetipps gelten: Keine einfachen Passwörter aus gebräuchlichen Wörtern bilden, sondern auf willkürliche Buchstaben- bzw. Zahlenkombinationen setzen. Das erschwert Angreifern die Entschlüsselung. Ebenso sinnvoll ist es, bei verschiedenen Diensten nicht dasselbe Passwort zu verwenden und Passwörter mehrmals im Jahr zu ändern. Andernfalls können Angreifer mit dem einmal erbeuteten Passwort auf zahlreiche Accounts zugreifen, vom Profil im sozialen Netzwerk bis zum E-Mail-Konto. Das erleichtert zum Beispiel den Identitätsdiebstahl im Internet, bei dem Angreifer zum Beispiel Freunde und Bekannte des Betroffenen um Geld bitten.

Diskussion um Meldepflicht

Vorfälle wie bei Evernote untergraben das Vertrauen der Nutzer in „die Cloud”. Die Bedenken in Punkto Datensicherheit sind groß, wie Umfragen regelmäßig zeigen. Die EU-Kommission will auch deshalb durchsetzen, dass Unternehmen und Verwaltungen „große Sicherheitsvorfälle” – darunter auch Hackerangriffe – den Behörden melden müssen. Sie hat im Februar einen entsprechenden Regelungsentwurf vorgelegt (Richtlinie zur Informations- und Netzsicherheit). Ein großangelegter Datenklau könne Millionen Euro kosten, so Digital-Kommissarin Neelie Kroes. Wenn die Behörden über alle relevanten Vorkommnisse Bescheid wissen, könnten sie besser dagegen vorgehen.

Allerdings ist die Meldepflicht umstritten. Der deutsche Branchenverband Bitkom fürchtet zu viel Bürokratie für kleine Unternehmen und fordert, dass Meldungen größtenteils freiwillig bleiben. Gesetzliche Meldepflichten für IT-Sicherheitsvorfälle sollten sich auf die Betreiber kritischer Infrastrukturen beschränken – etwa von Flughäfen und Kraftwerken. Zugleich berichtet auch Bitkom von zahlreichen Attacken. 40 Prozent der Unternehmen in Deutschland verreichneten bereits Angriffe auf ihre IT-Systeme oder andere IT-Sicherheitsvorfälle, so das Ergebnis einer Umfrage des Verbandes.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl