Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 26 2014

Drones civils, le décollage

Après les drones militaires, une autre révolution est en marche : celle des drones civils. Les utilisations de ces avions sans pilotes commandés à distance sont nombreuses, jusqu'au projet de livraison à domicile de colis achetés sur Amazon . Et les Etats-Unis sont en pointe dans ce domaine. « A (...) / États-Unis, Europe, Agriculture, Droit, Entreprise, Technologie, Télésurveillance, Électronique, Aéronautique, Commerce, Frontières - 2013/12

February 25 2014

Quand le peuple américain refusait qu'on espionne Al Capone

Nul n'a été surpris d'apprendre que Washington disposait d'un puissant système d'espionnage, mais la révélation de son ampleur par l'informaticien Edward Snowden a créé un scandale planétaire. Aux Etats-Unis, la nouvelle a été accueillie avec une certaine apathie. Ce ne fut pas toujours le cas. / (...) / États-Unis (affaires extérieures), États-Unis (affaires intérieures), Droits humains, Histoire, Sécurité, Mutation, Services secrets, Technologies de l'information, Technologie, Terrorisme, Société civile - 2013/08

February 22 2014

Le marketing sonore envahit les villes

Encore balbutiant, le modelage de l'univers sonore des villes suscite une foule d'initiatives… et de questions. / Armement, Audiovisuel, Mutation, Technologie, Transports, Urbanisme, Ville, Marketing - 2013/08 / Armement, Audiovisuel, Mutation, Technologie, Transports, Urbanisme, Ville, Marketing - 2013/08

February 21 2014

Philosophie du fil de fer barbelé

A l'ère des caméras de vidéosurveillance, de l'identification biométrique ou encore du mobilier urbain dissuasif, on aurait pu croire le barbelé obsolète. Il reste pourtant largement utilisé dans le monde entier. / Exclusion sociale, Histoire, Idées, Sécurité, Technologie, Urbanisme, Ville, Violence, (...) / Exclusion sociale, Histoire, Idées, Sécurité, Technologie, Urbanisme, Ville, Violence, Géographie, Torture, Frontières - 2013/08

February 19 2014

Le gaz de schiste chamboule la géopolitique

Le gaz de schiste, nouvelle manne de l'énergie exploitée en premier lieu aux Etats-Unis, n'a pas seulement dopé l'industrie locale : il pourrait bouleverser la géographie énergétique mondiale. / États-Unis, Golfe, Russie, Énergie, Géopolitique, Mondialisation, Technologie, Gaz naturel - (...) / États-Unis, Golfe, Russie, Énergie, Géopolitique, Mondialisation, Technologie, Gaz naturel - 2013/08

February 11 2014

Surveillance, la riposte

« Les espions d'Internet ont passé trop de temps à écouter nos pensées et peurs les plus intimes . » Il serait donc temps de répliquer. A l'initiative de l'Electronic Frontier Foundation (EFF) et d'autres associations de défense des libertés sur Internet, ce mardi 11 février est institué « journée de la (...) / Démocratie, Information, Informatique, Sécurité, Internet, Mondialisation, Services secrets, Technologies de l'information, Technologie, Terrorisme, Électronique - La valise diplomatique

February 05 2014

André Gorz, héritage et héritiers

Disparu en 2007, le philosophe André Gorz reste une source d'inspiration majeure pour de nombreux courants de la gauche radicale et de l'écologie politique. A la suite du colloque qui lui a été consacré en novembre 2012 à Montreuil, l'économiste Christophe Fourel, actuellement fonctionnaire au (...) / Capitalisme, Écologie, Économie, Idées, Monnaie, Mutation, Nucléaire civil, Technologie - 2014/02

February 04 2014

Amazon, l'envers de l'écran

Enquêter sur Amazon révèle l'autre facette de l'immatérialité, l'horizontalité, la créativité. Celle d'usines géantes où des humains pilotés par ordinateur s'activent jusqu'à l'épuisement. / Capitalisme, Entreprise, Informatique, Internet, Livre, Mondialisation, Multinationales, Syndicalisme, Technologies (...) / Capitalisme, Entreprise, Informatique, Internet, Livre, Mondialisation, Multinationales, Syndicalisme, Technologies de l'information, Technologie, Travail, Commerce - 2013/11

February 03 2014

Samsung ou l'empire de la peur

Samsung et Apple se livrent une guerre sans merci devant les tribunaux et les instances internationales. Mais, au-delà de l'électronique, le groupe sud-coréen, aux activités multiformes, constitue un conglomérat si puissant qu'il influence aussi bien la politique que la justice ou la presse du pays. (...) / Corée du Sud, Économie, Entreprise, Industrie, Multinationales, Syndicalisme, Technologie, Télécommunications, Travail, Électronique - 2013/07

January 30 2014

Regards sur la surveillance de masse

La surveillance, dont traite cette livraison de Manière de voir , aime à rester discrète. La National Security Agency américaine fonctionna pendant près de quarante ans sans que son existence soit divulguée au public. Pourtant, au début de l'année 2014, il est difficile pour un individu, même (...) / États-Unis, États-Unis (affaires extérieures), États-Unis (affaires intérieures), Europe, Entreprise, Informatique, Sécurité, Internet, Multinationales, Services secrets, Technologies de l'information, Technologie, Télécommunications, Terrorisme, Télésurveillance, Commerce - 2014/02
Reposted bycheg00 cheg00

January 27 2014

Mise en données du monde, le déluge numérique

Amitiés, pensées, échanges, déplacements : la plupart des activités humaines donnent désormais lieu à une production massive de données numérisées. Pour le meilleur ou pour le pire. / États-Unis, Droits humains, Économie, Industrie, Information, Informatique, Internet, Science, Services secrets, (...) / États-Unis, Droits humains, Économie, Industrie, Information, Informatique, Internet, Science, Services secrets, Technologies de l'information, Technologie, Télécommunications, Électronique, Commerce - 2013/07

January 24 2014

EuGH: Schutzmaßnahmen bei Spielekonsolen darf man umgehen – es kommt auf den Zweck an

Kopierschutzsysteme bei Spielekonsolen dürfen Nutzer dann umgehen, wenn das nicht für jene rechtswidrigen Handlungen passiert, die sie verhindern sollen. Das hat der Europäische Gerichtshof gestern entschieden.

Ausgangspunkt für das Urteil war eine Klage des Spielkonsolenherstellers Nintendo gegen die italienische Vertriebsfirma PC Box. Mit deren Spezial-Zubehör, auch Modchips genannt, ist es möglich, auch solche Games oder andere Werkarten auf den Nintendo-Geräten abzuspielen, die nicht von Nintendo autorisiert sind und am integrierten Kopierschutz scheitern würden. In einer Meldung bei Heise Online heißt es dazu:

Nintendo vertritt in dem Streit die Auffassung, dass PC Box damit in erster Linie das Ablaufen illegal kopierter Spiele ermöglichen wolle. Die Italiener halten dagegen, dass es den Japanern darum gehe, den Einsatz unabhängiger Programme und das Abspielen von Filmen, Videos und MP3-Dateien auf den Konsolen zu verhindern.

EU-Richtlinie bietet keinen absoluten Schutz für DRM-Systeme

Das EuGH geht mit seinem Urteilsspruch (hier im Volltext, deutsche Fassung) den Mittelweg. Es betrachtet die Umgehung des „Digital Rights Management“ (DRM) mittels derartiger technischer Maßnahmen als durchaus zulässig, auch in kommerzieller Hinsicht. Es beruft sich dabei auf die EU-Urheberrechtslinie, die seit 2001 in Kraft ist und keinen absoluten Schutz für DRM-Systeme biete.

Allerdings räumt der EuGH ein, dass damit keine illegalen Kopien abgespielt oder anderweitige rechtswidrige Handlungen einhergehen dürfen. Hiermit wolle das Gericht „den Grundsatz der Verhältnismäßigkeit wahren“. Eine technische Kopierschutzmaßnahme dürfe „nichts untersagen, was einen anderen wirtschaftlichen Zweck hat als die Umgehung der DRM-Systeme zu rechtswidrigen Zielen.“

Zusammen mit der Entscheidung erteilte das EuGH auch einen Auftrag an das betreffende Mailänder Gericht. Es solle prüfen, ob es andere wirksame Schutzmaßnahmen gäbe, die die Nutzer weniger beeinträchtigen würden als die bisher (von Nintendo) eingesetzten, stringenten DRM-Systeme.

BGH legte dem EuGH ähnlichen Fall vor

Desweiteren steht das gestrige Urteil auch im Bezug zu einem Fall, den der Bundesgerichtshof (BGH) im Februar vergangenen Jahres dem EuGH vorlegte. Dort geht es um sogenannte „Slot-1-Karten”: Spezielle Adapter, die das deutsche Unternehmen SR-Tronic herstellt, und mit deren Hilfe man auch normale SD-Karten auf dem Nintendo DS benutzen und so den Zwang zur Nutzung kopiergeschützter Nintendo-SD-Karten umgehen kann.

Dem jetzigen EuGH-Spruch nach müsste nun wohl zunächst geklärt werden, ob der Zweck dieser „Slot-1-Karten“ primär in der Nutzung illegal erworbener Games liegt – dann wären sie rechtswidrig – oder auf die Option, mit der Konsole auch (legale erworbene) Musik, Filme und andere Werkarten abspielen zu können. Ob sich die Luxemburger Richter des EuGH zu der BGH-Vorlage noch gesondert äußern, bleibt laut Heise Online abzuwarten.

Rüdiger Weis: Wer unverschlüsselt kommuniziert, kann seine Daten auch gleich an die Geheimdienste schicken

Rüdiger Weis, Professor für Informatik an der Beuth-Hochschule Berlin, spricht im iRights.info-Interview über Kryptographie, die Reaktionen von Internetdiensten und Politik auf die Überwachungsenthüllungen – und darüber, wie jeder mit freier Software für mehr Datensicherheit sorgen kann.

Der Journalist Glenn Greenwald zog in einer Anhörung des Europäischen Parlaments im Dezember folgendes Fazit über die Enthüllungen aus dem Fundus von Edward Snowden: Die Überwachungsprogramme der NSA und seines britischen Partners GCHQ liefen – ohne Übertreibung – darauf hinaus, dass es bei elektronischer Kommunikation schlechthin keine Privatsphäre mehr geben solle.

Für Internet-Dienste – ob E-Mail-Anbieter oder Cloud-Provider – gehen die Enthüllungen auch mit einem Vertrauensverlust einher. Viele Anbieter haben darauf unter anderem damit reagiert, internen Datenverkehr zwischen den Rechenzentren oder den Transport von E-Mails zu verschlüsseln.

Rüdiger Weis ist Kryptograph und Professor für Informatik an der Beuth-Hochschule für Technik Berlin und leitet die Arbeitsgruppe Cryptolabs in Amsterdam. Er ist Mitglied des Chaos Computer Clubs und bei Digitale Gesellschaft e.V. Foto: WP/Tobias Klenze, CC BY-SA.

Rüdiger Weis ist Kryptograph und Professor für Informatik an der Beuth-Hochschule für Technik Berlin. Er leitet die Cryptolabs in Amsterdam, ist Mitglied im Chaos Computer Club und bei Digitale Gesellschaft e.V. Foto: WP/Tobias Klenze, CC BY-SA

Rüdiger Weis, Professor für Informatik und Krytographie-Experte sieht das mit gemischten Gefühlen: Einerseits sei es ein Schritt in die richtige Richtung – andererseits zeige es, wie unverantwortlich die Unternehmen bislang mit Nutzerdaten umgegangen seien und selbst geringen Aufwand scheuten, die Daten der Nutzer zu schützen. Die Industrie sei aber dabei, bei der Datensicherheit umzudenken.

Freie Software zum Verschlüsseln für jeden

„Sicherheit ist immer mit Arbeit verbunden“, räumt Weis ein. Die gute Nachricht aber liege darin, dass für jeden Nutzer Möglichkeiten bereit stehen, selbst für mehr Sicherheit zu sorgen. Mit relativ geringem Aufwand einsetzen lassen sich etwa:

Mehr Aufwand erfordert Ende-zu-Ende-Verschlüsselung mit OpenPGP, die nicht nur den Transport, sondern auch die Inhalte von E-Mails verschlüsselt. Ähnlich ist es mit der Anonymisierungssoftware Tor, die den Datenverkehr über mehrere Ecken schickt. Weil all das freie Softwareprodukte sind, kann man nicht nur die Sicherheit öffentlich überprüfen, sie sind auch kostenlos.

Abschalten sollte man dagegen Verschlüsselungsverfahren, die als gebrochen gelten können, rät Weis. Dazu gehört das Verfahren RC4, das beispielsweise bei gesicherten HTTPS-Verbindungen zum Online-Banking eingesetzt wird. Microsoft etwa hat es bereits weitgehend abgeschaltet, man kann es aber auch selbst im Browser deaktivieren.

„Schengen-Cloud“ und Kryptographie in der digitalen Gesellschaft

Für die Pläne zu einem deutschen oder europäischen Datenverkehr („Schengen-Cloud“) hat Weis ebenso Verständnis wie Unverständnis: Wenn etwa Unternehmen in Deutschland sich vor Wirtschaftsspionage durch den US-Geheimdienst schützen wollen, sei das berechtigt und verständlich. Die Situation in Europa sei aber nicht viel besser, wenn auch der britische Geheimdienst den Datenverkehr umfassend ablausche und mit der Vorratsdatenspeicherung eine „Komplettüberwachung” der Bürger geplant werde.

Kryptographie ist für Weis nicht nur ein Mittel für den Schutz des Einzelnen, sondern hat gesesellschaftspolitische Bedeutung. Er denkt dabei etwa an gesicherte Online-Wahlen, aber auch an digitale Währungen wie Bitcoin. Die Entwicklung digitaler Währungen zeige jedoch ebenso, wie Bürger sich dort vom Staat abwenden und ihm Loyalität entziehen können, wo es um seine Kernaufgaben geht. Wenn Staaten die Bürger nur mehr als Gefahrenquelle ansehen, werde diese Tendenz der Abwendung noch weiter gestärkt, warnt Weis.

January 15 2014

Von der Kirche bis zum Internet

„Das Internet ist kaputt”, schrieb Johnny Haeusler im Sommer, als die ersten Enthüllungen zur Überwachungs- und Spionageaffäre bekannt wurden. Bei iRights.info antworteten Jürgen Geuter und Lorenz Matzat. In der FAS hat Sascha Lobo die Diskussion mit seinem Beitrag über die digitale Kränkung des Menschen wieder entfacht.

Don Dahlmann meint: Es braucht sehr viel Zeit, die Überwachung einzuschränken und Bürger- und Freiheitsrechte zu stärken. Der folgende Beitrag erschien zuerst auf Irgendwas ist ja immer und steht unter der Lizenz CC BY-NC-ND. – Anm. d. Red.

Miniatur: Étienne Collaut, PD

Miniatur: Étienne Collaut, PD

Von der Kirche bis zum Internet

Ich kann den Frust von Sascha Lobo verstehen. Ich habe das ähnlich empfunden, als mir im Sommer klar wurde, dass die Überwachung des Netzes derartig weit fortgeschritten ist. Man fühlt sich etwas ratlos, stumpf und hilflos, zumal die Überwachung ja nicht spürbar ist. Aber sie nistet sich wie ein unsichtbarer Nebel im Kopf ein und der innere Zensor springt vielleicht hier und da schon früher an, als es vor Snowden der Fall war. Aber ich stimme nicht mit Sascha überein, wenn es um die Frage geht, ob das Internet „kaputt“ ist.

Als Johannes Gutenberg um 1450 die beweglichen Lettern und damit den modernen Buchdruck erfand, gab es eine Menge Leute, die echt sauer waren. Vor allem innerhalb der katholischen Kirche. Aber nicht sofort. Zunächst war man recht angetan von der Sache, diente das neue Druckverfahren doch auch dazu, dass man die Bibel schneller und kosteneffizienter verbreiten konnte. Denn zuvor waren ganze Klöster monatelang damit beschäftigt, auch nur ein Exemplar handschriftlich zu erstellen. Die Mühe konnte man sich jetzt sparen.

Womit die Kirche aber nicht gerechnet hatte, war die Tatsache, dass nicht nur jeder mit ein bisschen Geschick drucken konnte, sondern auch dass jeder den Inhalt der Bibel verändern konnte. Prominentestes Beispiel war dann später Luther, der seine Fassung der Bibel dank der Druckwerkzeuge unters Volk bringen konnte. Doch bevor Luther überhaupt auf seine Ideen kam, hatte die Kirche mit anderen Problemen zu kämpfen. Denn plötzlich neigten Hinz und Kunz dazu, sich eine Variante der Bibel drucken zu lassen, die gerade ihnen in Kram passte. Oder mit der man viel Geld verdienen konnte. Im Grunde ein früher Urheberrechtsstreit zwischen Rechteinhaber und Kopierern.

Man löste das Problem elegant, in dem man sich europaweit bemühte, Druck auf Staaten, Stadtstaaten, Bürgermeister und so weiter auszuüben und man führte ein Lizenzsystem ein. Nur wer „die echte“ Bibel drucken wollte, der bekam auch eine Lizenz zum Buchdruck. Teilweise wurde pro Stadt nur eine Lizenz vergeben, die praktischerweise bei der Kirche landete. Alle Druckereien wurden überwacht und stichprobenartig überprüft. Hat es deswegen das Buch kaputt gemacht? Eher nicht. Und auch, als die Kirche sich mit allen Mitteln gegen die Verbreitung der Luther-Bibel wehrte, änderte das nichts. Weder konnte die Überwachung der Druckereien, noch konnten Strafen die Verbreitung verhindern. Mitte des 17. Jahrhunderts stand die Luther-Bibel in 40 Prozent aller deutschsprachigen Haushalte.

Im Grunde war durch den vehementen Kontrolleingriff der Kirche der Buchdruck zunächst einmal so gut wie tot. In manchen Gegenden durften die Druckereien gar nichts anderes als die von der Kirche sanktionierte Bibel mehr drucken. Manche Staatsfürsten verboten den Buchdruck gleich ganz. Geholfen hat es am Ende nichts.

Denn gewisse Dinge lassen sich nicht mehr aus der Welt schaffen. Ideen und Technologien gehören dazu, wenn sie denn einmal eine gewisse Verbreitung erlangt haben. Man kann sie temporär eingrenzen, verbieten, aber nicht aus der Welt schaffen. Im Fall des Buchdrucks wanderten die Druckereien einfach in die Keller der Wohnhäuser, oder man druckte in den deutlich schwerer zu kontrollierenden ländlichen Gebieten. Am Ende war das Buch der große Befreier der Menschen, denn ein Buch verbreitet Gedanken, Ideen, Träume, Möglichkeiten und schafft Hilfe.

Auf jede Aktion erfolgt eine Reaktion. Dieser physikalische Grundsatz gilt auch für disruptive Technologien, die eine Bedrohung für den Status quo darstellen. Nach einem Jahrzehnt des fast unkontrollierten Wachstums des Netzes erleben wir seit Anfang der 2000er Jahre nach und nach stärkere Kontrollen durch die Industrie und staatliche Organisationen. Die Unterhaltungsindustrie überwacht sämtliche Torrentnetzwerke, die NSA den ganzen Rest. Aber die Technologien und die Möglichkeiten des Internets haben sich durch die Überwachung nicht verändert. Auch die mit dem Netz verbundenen, immer noch etwas diffusen Utopien in Sachen Mitbestimmung usw. sind deswegen nicht verloren, noch fallen sie auf einen Status quo ante zurück.

Veränderungen benötigen Zeit. Von Guttenberg bis Luther waren es knapp 100 Jahre. Von Luther bis zur Französischen Revolution noch mal weitere 250 Jahre. Das Internet als neues Medium, das alle bisherigen Medienkanäle vereint und die Demokratisierung der medialen Produktion und der Kommunikation in den Bereich der Anarchie getrieben hat, ist gerade mal 20 Jahre alt. Das ist ein so kleiner Zeitraum, dass man ihn historisch kaum messen kann. Was wir gerade erleben, ist der Versuch, die Büchse der Pandora zu schließen. Was man auch teilweise verstehen kann, wenn man über Bedrohungsszenarien nachdenkt. Aber zum einen bekommt man diese Büchse nicht mehr zu, zum anderen lag auf dem Boden der Büchse noch was anderes als Schmerz und Leid: Hoffnung.

Und ich habe die Hoffnung, dass sich die Gewichte im Laufe der Zeit wieder neu verteilen werden. Dass digitale Bürger- und Freiheitsrechte akzeptiert werden, dass die Überwachung und die Speicherung privater wie wirtschaftlicher Daten eingeschränkt wird. Wir erleben einen solche Verschiebung der Gewichte interessanterweise vielleicht gerade in der EU in Sachen Vorratsdatenspeicherung. Das Internet ist also nicht kaputt, es durchlebt nur gerade eine Wandlung und es zerren ganz schön viele Leute an allen Seiten. Wie die Wandlung am Ende aussehen wird, bestimmen aber auch die Menschen, die die guten Seiten des Internet leben, lieben und weiter ausbauen. Die Strategien dafür sind vorhanden, es geht wie in all den Jahren zuvor darum, sie nach und nach umzusetzen. Und daran verändert die Überwachung, so wie sie sich jetzt darstellt, auch nichts.

Big Data in der Medizin

In Blutwerten, DNA-Profilen und Fallstudien könnten sich medizinisch nutzbare Erkenntnisse verbergen – wenn man sie im großen Stil erfasst und analysiert. Allerdings wirft „Big Data“ in der Medizin auch Fragen auf – von der Rolle der Ärzte bis zum Datenschutz.

Ein Forscherteam am Institute of Technology der University of Ontario überraschte die 2010 Fachwelt mit einer Beobachtung. Anders als man das intuitiv vermuten würde, stabilisieren sich bei Frühgeborenen zunächst die Vitalfunktionen, bevor es zu einer schweren Infektion kommt.

Möglich machte diese Erkenntnis eine Software, die pro Sekunde 1.260 Datensätze von Patienten erfasst – von der Atmung bis zum Sauerstoffgehalt im Blut. Erst die Zusammenführung und Analyse der gewaltigen Mengen an Körperdaten brachte die zuvor unbekannten Krankheitssymptome zu Tage. „Sie können es nicht mit dem bloßen Auge sehen, aber der Computer kann es“, erklärt Forschungsleiterin Carolyn McGregor. Ärzte können anhand der Daten nun früher gegen drohende Infektionen vorzugehen.

McGregors Untersuchung ist ein beliebtes Beispiel für den Einzug der „Big Data“-Forschung in die Medizin. Gemeint sind damit Verfahren, bei denen große Datenmengen aus vielfältigen Quellen erfasst, verteilt, gespeichert, durchsucht, analysiert, miteinander in Beziehung gesetztund visualisiert werden.

Im Gesundheitswesen sollen sie helfen, Krankheiten früher und besser zu erkennen, zu therapieren oder gar zu vermeiden – so zumindest die Vision von Wissenschaftlern und Unternehmen. Der Internetforscher Viktor Mayer-Schönberger (Universität Oxford) ist sich bereits sicher, Big Data helfe in Zukunft „ganz unmittelbar Menschenleben zu retten“. Doch wie genau macht Big Data das?

Zusammenhänge erstmal beobachten

IT-Technik ist in der Medizin nichts Neues. Charakteristisch für Big-Data-Analysen ist allerdings, dass sie den üblichen wissenschaftliche Arbeitsweg umdrehen können. Klassischerweise stellen Forscher eine Hypothese über ursächliche Zusammenhänge auf und überprüfen sie mit statistischen Verfahren. Doch die gezielte Datensammlung ist aufwendig und kostspielig. Also gehen die Forscher normalerweise nur einer begrenzten Zahl von Hypothesen nach, und beschränken die Zahl der Parameter. Sie fragen etwa, ob die Wirkstoffe X, Y, Z – wie theoretisch vorhergesagt – einen Einfluss auf die jeweilige Krankheit  haben.

Big Data-Verfahren ermöglichen dagegen den umgekehrten Weg – von den Daten zur Hypothese. Sie setzen beim immer größer werdenden Datenschatz an, der beispielsweise in Millionen von elektronischen Krankenakten oder Umweltregistern steckt. Big-Data-Ansätze folgen der Devise: Je größer und vielfältiger die Datenmenge ist, und je schneller sie anfällt, desto besser. Ermöglicht wurde diese Entwicklung erst durch neue, kostengünstige Techniken zur Datensicherung und -auswertung.

Die Forscher untersuchen die Daten mit Hilfe von Algorithmen automatisiert nach Zusammenhängen. Im besten Fall entdecken sie so Korrelationen, nach denen sie gar nicht gefragt hatten – wie im Fall der neu entdeckten Infektionssymptome bei Frühgeborenen. „Der medizinische Forscher muss nicht selbst Hypothesen bilden und diese dann in den Daten testen, sondern bekommt aus den Daten belegbare Hypothesen präsentiert und kann sie inhaltlich bewerten“, erklärt Stefan Rüping, Experte für Data Mining und Big Data Analytics am Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS). „Der neue Ansatz besteht also darin, die Phantasie des Forschers beim Finden neuer Fragestellungen durch Datenintelligenz zu ergänzen.“

Die Hoffnungen in dieses Data Mining sind groß. Datenanalysen im großen Stil könnten beispielweise preisgeben, wie bestimmte Gene und Blutwerte mit Krankheiten wie Alzheimer, Krebs oder Schizophrenie zusammenhängen.

Handeln, ohne zu wissen, warum?

Allerdings liefern die Big-Data-Analysen keine Erklärung für die Zusammenhänge, die sie zu Tage fördern. Umstritten bleibt die Frage, inwieweit Mediziner sie zur Grundlage ihres Handels machen sollten, bevor die Ergebnisse auch kausal begründbar sind.

Mit Blick auf die Segnungen von Big Data verweist der Internetforscher Mayer-Schönberger beispielhaft auf die Grippe-Vorhersage der Suchmaschinen-Firma Google („Google Flu Trends“). Das Unternehmen fand rückblickend Zusammenhänge zwischen dem Verlauf von Grippewellen und den Internetsuchen in den betroffenen Gebieten. Daraus entwickelte das Unternehmen Algorithmen, die neue Grippewellen teilweise erstaunlich genau und vor allem weit schneller vorhersagen als übliche Prognoseverfahren.

Mayer-Schönberger zufolge können Gesundheitsämter die Google-Prognose schon heute nutzen, etwa um bestimmte Regionen rechtzeitig mit Impfstoff zu versorgen. Dazu müssten sie nicht einmal wissen, welcher kausale Zusammenhang zwischen den Suchabfragen und der Grippe besteht. „Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können“, so Mayer-Schönberger im Interview mit iRights.info. Eben diesen Paradigmenwechsel in der Forschung hält er für eine Revolution.

Zwar beziehen Länder wie die Vereinigten Arabischen Emiraten Google Flu Trends bereits in ihr Frühwarnsystem für Epidemien ein. Allerdings wurden zuletzt Zweifel an dem Verfahren laut, das vielerorts stellvertretend für die Big-Data-Segnungen in der Medizin steht. So schätzte die Analyse-Software die Zahl der Grippe-Infizierten in den USA im Januar 2013 als etwa doppelt zu hoch ein,  wie das Wissenschaftsmagazin „Nature“ berichtet.

Forscher vermuten, dass die Medienberichterstattung zur Grippe sich auf das Suchverhalten der Internetnutzer ausgewirkt und so die Prognose verzerrt. Google Flu Trends könnte die Ergebnisse sogar selbst beeinflussen, wenn etwa Medien über Googles Grippewarnungen berichten, was wiederum mehr Menschen dazu verleitet, die Krankheitssymptome zu googlen.

Grundlagenforschung bleibt wichtig

Grundsätzlich mahnt der Wissenschaftstheoretiker Klaus Mainzer (TU München) mit Blick auf Big-Data-Erkenntnisse in der Medizin: „Erst eine gründliche Grundlagenforschung erklärt die kausalen Zusammenhänge und garantiert damit nachhaltige Diagnosen und Therapien.“ Speziell bei den Big-Data-Algorithmen bestehe die Gefahr, dass man nur noch auf ihre Schnelligkeit setze. „Es wäre fatal, wenn aus schneller Profitgier die Bedeutung der Grundlagenforschung unter die Räder käme.“ Auch der Literaturwissenschaftler Manfred Schneider warnt davor, den Erkenntnisgewinn von rein statistischen Zusammenhängen zu überschätzen. „Auch die Korrelation des Bierkonsums in Europa mit der Häufigkeit von Verkehrsunfällen in Bangladesh an Wochenenden ergäbe einen Befund.“

Ängste vor rein datenbasierten Fehldiagnosen und -therapien hält Stefan Rüping vom IAIS indes für unbegründet. Die Vorschriften seien sehr strikt. Neues medizinisches Wissen müsse immer noch einmal unabhängig in kontrollierten Studien verifiziert werden. „Die relevante Frage ist allerdings nicht, ob eine neue Diagnosemethode oder Therapie fehlerfrei ist – das ist in der Medizin üblicherweise nicht der Fall – sondern ob sie klar besser ist als die beste bekannte Standardbehandlung.“ Darüber hinaus sei ein rein statistisches Vorgehen ohne inhaltliches Verständnis in der Datenanalyse immer eine schlechte Idee. „Die Entwicklung neuerer, besserer Datenanalyseverfahren ist in vielen Fällen eher eine Evolution statt eine Revolution.“

Der gläserne Patient

Neben der Entdeckung von Zusammenhängen verspricht Big Data in der Medizin eine maßgeschneiderte Behandlung. Indem konkrete Fälle mit großen Datenmengen – etwa über Krankheitsverläufe – abgeglichen werden, sollen bessere Diagnosen und Medikationen möglich sein. Beispielsweise nutzt das Memorial Sloan-Kettering Cancer Center in New York den IBM-Supercomputer „Watson“ zur Entwicklung einer Software, die personalisierte Krebs-Therapien vorschlägt. Dazu verarbeitet Watson zum Beispiel 1,5 Millionen Patientenakten und 600.000 Forschungsberichte und  Fachartikel. Auch am Hasso-Plattner-Institut in Potsdam suchen Forscher nach Methoden, das weltweite medizinische Wissen „am Krankenbett“ verfügbar zu machen.

Der Wissenschaftstheorethiker Mainzer ist sich bereits sicher: „Ohne den Einsatz hochentwickelter Algorithmen wird die Medizin in Zukunft nicht mehr auskommen.“ Das medizinische Wissen wachse täglich in unvorstellbarer Weise. Allein über Diabetes gebe es circa 400.000 Fachartikel. „Selbst ein Spezialist kann diese Artikel in einem kurzen Leben nicht bewältigen“, so Mainzer. „Hier bedarf es intelligenter Software, die über semantisches Verständnis verfügt und die jeweils relevanten Informationen für eine Diagnose und Therapie herausfiltert.“

Prinzipiell hält es Mainzer für möglich, den Menschen im Sinne einer personalisierten Medizin eines Tages in allen Details zu erfassen. „Der gläserne Patient, der bis auf die molekulare Ebene individuell durchleuchtet wird, ist aus Sicht der Rechnertechnologie möglich.“ Bei Krankheitsverläufen wie Krebs wäre ein dauerndes Screening auch notwendig, da Krebstumore und Krebszellen sich genetisch dauernd verändern und die Therapien angepasst werden müssten. Allerdings werde es Zeit und sehr viel Geld kosten, alle ungeheuer komplexen Details des menschlichen Organismus bis auf Molekularebene zu erforschen.

Sind Maschinen die besseren Ärzte?

Schon heute werfen computergestützte Diagnosen und Therapievorschläge die Frage nach der künftigen Rolle der Ärzte auf. Der US-Investor Vinod Khosla provoziert den Berufsstand mit seiner These, Computer beziehungsweise „Dr. Algorithmus“ würden künftig 80 Prozent der bisherigen Tätigkeit eines Arztes überflüssig machen.

Der Wissenschaftstheoretiker Mainzer warnt dagegen davor, sich allzu sehr auf scheinbar „objektive“ Daten und Verfahren zu verlassen. „Warum haben Ärzte eine Wissenschaft wie die Medizin studiert, wenn sie am Ende nur noch Daten ablesen und zusammenstellen?“ so Mainzer. „Die Einordnung und das Verständnis der Daten erfordert die medizinische Urteilskraft des Arztes.“ Hierzu gehörten auch psychologisches und soziales Verständnis für die Situation eines Patienten, das nicht in Algorithmen abbildbar sei.

Stefan Rüping vom IAIS sieht statt einer Konkurrenz von Mensch und Maschine eher eine Koexistenz. „Dem Arzt werden automatisch deutlich mehr relevante Informationen zur Verfügung stehen, auf denen er seine Entscheidung stützen kann – die er aber selbstverständlich weiterhin selbst trifft.“

Probleme bei der Datenbereitstellung

Noch liegt die Erfüllung vieler Big-Data-Träume in weiter Ferne. Eine erste Hürde besteht in der Qualität und der technischen Bereitstellung der Daten. Beispielsweise liegen die theoretisch nutzbaren Datenmengen oftmals dezentral und in uneinheitlichen Dateiformaten vor – wenn sie überhaupt schon digitalisiert sind.

„Vielfach wird noch mit Papierakten gearbeitet, elektronische Patientenakten können selbst im selben Krankenhaus zwischen verschiedenen Abteilungen sehr verschiedene Formate haben und die Semantik der Daten ist durch automatisierte Verfahren nur sehr schwer zu verstehen“, erklärt Stefan Rüping zur Lage in Deutschland. Ein Großteil der Arbeit in klinischen Studien liege darin, die Daten sinnvoll und korrekt einzugeben. „Erst danach kann sinnvoll eine wie auch immer geartete Datenanalyse ansetzen.“

Auch in den USA macht die Datenqualität Probleme. Man sei bei der Datenerfassung immer noch auf 100 Jahre alte Transkriptionstechnik angewiesen, sagte jüngst der Mediziner Douglas Johnsten (Cleveland Clinic) auf einem Podium zur Frage, woran Big Data in der Medizin bisher scheitert. „Ich sehe, dass die Ergebnisse mangelhaft sind, weil Müll raus kommt, wenn Müll rein geht.“ Außerdem stellt sich die Frage, welchen Daten man trauen kann: Ob Daten etwa aus Studien der Pharmaindustrie immer zuverlässig sind, bleibt problematisch.

Zumindest im Bereich der Krebsforschung will Deutschland vorangehen. Mitte 2013 startete der Aufbau des flächendeckenden klinischen Krebsregisters. Nach einheitlichen Kriterien werden darin die Daten der Krebspatienten in Deutschland gesammelt, von der Diagnose über die Therapie bis zu Rückfällen, Genesung und Tod.

Großbritannien geht noch einen Schritt weiter, indem es mit dem Projekt Clinical Practice Research Datalink (CPRD) die Krankenakten aller Einwohner zentral sammelt und mit anderen Registern wie Gen-Datenbanken und Umweltregistern verknüpft. Der Datenschatz soll Wissenschaftlern anonymisiert zur Verfügung stehen.

Rechtliche Hürde: Datenschutz

Ebenfalls zur Debatte steht der rechtliche Rahmen für Big-Data-Forschung in der Medizin. Daten zur Gesundheit eines Menschen sind als „sensible Daten“ vom Bundesdatenschutzgesetz besonders geschützt. IAIS-Experte Rüping entwickelt im Rahmen des EU-Projekts EURECA Techniken (unter dem Stichwort Privacy-Preserving Data Mining), die im Einklang mit dem Datenschutz stehen, und beispielsweise die Anomymisierung personenbezogener Daten garantieren sollen.

Auch in Fällen, in denen die Patienten der Datenverwendung zustimmen müssen, bleiben offene Fragen. „Ein Problem ist, dass ein Patient um rechtlich und ethisch einwandfrei der Verarbeitung seiner Daten zustimmen zu können, verstehen können muss, was mit seinen Daten passiert, welche Ergebnisse zu erwarten sind und welches Risiko von Missbräuche potentiell besteht“, so Rüping. „Dies ist bei sehr komplexen Verfahren der Datenanalyse sehr schwierig.“

Krankheitsrisiken: Fluch der Erkenntnis?

Schließlich wirft Big Data in der Medizin eine Reihe von ethischen Fragen auf. Das neue Wissen um Krankheitsrisiken könnte beispielsweise Versicherungen dazu verleiten, von Riskopatienten höhere Prämien zu verlangen. „Das ist eine konkrete Gefahr“, meint der Internetforscher Mayer-Schönberger. „Hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.“ Auch die Frage nach der Prävention könnten Big-Data-Erkenntnisse neu aufwerfen. Wäre es vertrebar oder sogar geboten, gesunden Patienten vorsorglich Medikamente zu geben, weil etwa das Genprofil hohe Krankheitsrisiken anzeigt?

Schließlich steht zur Debatte, wem eine kostenintensive, personalisierte Medizin zu Gute kommt. Kann die Gesellschaft schwer kranken aber armen Patienten die Segnungen einer teuren High-Tech-Medizin verweigern? „Hier werden ethische und rechtliche Probleme der Verteilungsgerechtigkeit auf uns zukommen, von denen wir uns heute noch keine Vorstellung machen“, meint der Wissenschaftstheoretiker Klaus Mainzer.

Dem Medizinsektor ergeht es also so wie anderen gesellschaftlichen und wirtschaftlichen Bereichen:  Big Data löst große Hoffnungen aus, aber auch Ängste.

January 11 2014

Storytelling im Netz: Das Jahr eins nach Snow Fall

Für Geschichtenerzähler begann das Jahr bereits am 20. Dezember 2012 in den USA: An diesem Tag stellte die New York Times „Snow Fall – The Avalanche at Tunnel Creek“ online. Ein Meilenstein, der zum Vorbild wurde. In Deutschland sind Verlage nur in Ausnahmefällen bereit, in neues Storytelling zu investieren.

Das Feature erzählt die Geschichte von 16 Ski- und Snowboardfahrern, die sich an einem Februartag des Jahres 2012 aufmachen zum Gipfel des Cowboy Mountain in den Kaskaden, etwa 120 Kilometer östlich von Seattle. Abfahren wollen sie nicht über das Skigebiet Stevens Pass, sondern über den Tunnel Creek, auf dem Rücken des Cowboys. Doch was als eine traumhafte Abfahrt durch unberührten Pulverschnee beginnt, endet in einem Fiasko. Die Gruppe wird von Schneemassen in den Abgrund gerissen.

Was die New York Times daraus gemacht hat, ist ein Meilenstein im Multi­media-Storytelling. In sechs Kapiteln protokolliert der Reporter John Branch­ das Geschehen. Nicht allein in einer ausführlichen Reportage, die detailliert den Hergang schildert, sondern auch in Videointerviews mit den Beteiligten. Mit Animationen, bei denen man zur Orientierung im Gelände sanft über die Berggipfel gleitet, als säße man in einem Segelflugzeug. Mit animierten Grafiken, die die Entstehung von Lawinen beschreiben. Mit Videomaterial aus einer an einem Skihelm befestigten Go-Pro-Kamera. Mit animierten Wetterkarten. Und mit der Darstellung einer Lawine, der man in Echtzeit beim Abgehen zusehen kann. Vielmehr: muss.

Ältere Projekte wirkten wie eine Leistungsschau

All das ist integriert in eine Technik, die die einzelnen Elemente jeweils erst offenbart, wenn sie an der Reihe sind. Der Leser … nein. Der Zuschauer … trifft es auch nicht. Am ehesten noch: Der Bestauner scrollt abwärts, folgt dem Lauf des geschriebenen Textes und sieht dabei zu, wie Animationen und Bilder ins Blickfeld hineingleiten und wieder verschwinden. Immer tiefer wird er auf diese Weise hineingezogen in eine Erzählform, deren Anfänge in den 1940er-Jahren liegen. Beim Parallax-Scrolling werden verschiedene Ebenen so kunstvoll miteinander verwoben, dass das Ergebnis mehr ist als die Summe seiner Einzelteile.

Damit markiert das Jahr 2013 eine Zäsur. Hinter uns liegt eine Zeit, in der viele mit den Möglichkeiten des multimedialen Erzählens experimentiert haben. Der überragende Wert des Netzes besteht darin, dass jede Geschichte genau die Form findet, die am besten zu ihr passt. Doch viele Projekte wirkten in der Vergangenheit weniger wie eine sinnvoll aufgebaute Erzählung als wie eine Leistungsschau, bei der Journalisten, Filmer und Programmierer demonstrieren wollten, was jeweils in ihnen steckt. Bei „Snow Fall“ dagegen werden Text, Ton, Fotografie, Animation, Grafik und Bewegtbild virtuos miteinander verwoben. Schon vorher gab es Projekte, die sich dieser Technik bedient hatten. Erst durch „Snow Fall“ wurde sie einem weltweiten Publikum bekannt.

Jede Geschichte hat ein angemessenes Gefäß

Doch bei aller Begeisterung: Das Projekt fordert sein Publikum auch ziemlich heraus. Will man sich dem Stück mit der gebotenen Aufmerksamkeit widmen, muss man dabei die Zeit investieren, die man auch für einen guten Dokumentarfilm braucht. Wer kann und will sich die nehmen, tagsüber im Büro, abends mit dem Laptop auf den Oberschenkeln? Die Geschichte wurde zwar bald darauf auch als E-Book veröffentlicht und verwandelte sich damit gewissermaßen in das Pendant zur Single-Auskopplung eines Musik-Albums. Doch in der Ipad-Version schnurrt das Feature zusammen auf die Substanz des Textes. Von dem Zauber der Multimedialität bleibt nichts übrig.

Auch das ist eine Erkenntnis dieses Jahres: Die Instrumente sind inzwischen ausgereift, um jede Geschichte in das ihr angemessene Gefäß zu gießen. Doch wir haben noch nicht die passenden Geräte, um das Ergebnis in einer Weise zu präsentieren, dass sie auch den vollen Zauber ausbreiten können.

Und trotzdem war zu spüren, dass „Snow Fall“ einen Standard gesetzt hatte. Nur wenige Monate später stellte der Guardian „Firestorm“ ins Netz. Das Feature erzählt die Geschichte einer Feuersbrunst, die Anfang Januar über Tasmanien wütete. Internationale Berühmtheit erlangte die Katastrophe durch ein Foto, das Tammy Holmes zeigt, die mit ihren fünf Enkelkindern unter einem Steg im Wasser kauert. Eingehüllt ist die Szenerie in das surreale Orange des Feuers. „Firestorm“ erzählt die Geschichte hinter diesem Bild – in einer so dramatischen und direkten Weise, dass man beinahe das Gefühl bekommt, selbst vor Ort gewesen zu sein.

In Deutschland setzen einzelne Web-Pioniere die Standards

Sieht man sich in Deutschland nach solchen Leuchttürmen um, steht man schnell im Dunkeln. Im Sommer veröffentlichte Zeit Online die liebevoll produzierte Hommage an die Tour de France zu deren hundertjährigem Jubiläum. Mit schön geschriebenen Porträts dreier Autoren, Filminterviews mit den Protagonisten, Videos aus der Tour-Geschichte und hübschen Ideen wie einer animierten Zeitleiste, auf der man sich mit einem Schieber durch die Evolution der Rennräder bewegen kann. Das Projekt ist ein guter Beweis dafür, dass es in Deutschland nicht am Talent und der Leidenschaft der Kreativen liegt, dass so wenig Innovatives entsteht – sondern an der Weigerung vieler Verlage, zu investieren.

Es sind hierzulande immer noch vor allem Web-Pioniere wie Uwe H. Martin, die die Standards setzen. Jahrelang hatte der Fotograf aus Hamburg über die tragische Situation indischer Baumwollbauern recherchiert, die die Kommerzialisierung des Saatguts zu Tausenden in den Selbstmord treibt. Auf eigene Kosten und mit der Hilfe von Stipendien hatte Martin sie besucht und interviewt.

KillingSeeds from Uwe H. Martin on Vimeo.

In diesem Jahr erlebte er gleich in zweifacher Hinsicht, dass sich das Durchhalten gelohnt hat. Nicht nur kaufte das Magazin Geo seine Filme, Fotos und eine Reportage und verarbeitete das Material unter anderem zu der beeindruckenden Ipad-Reportage „Der Stoff, der über das Leben entscheidet“. Martin gewann damit auch zwei Preise: den „Salus-Medienpreis“ und den „Deutschen Medienpreis Entwicklungspolitik“, bei dem er auch Teams öffentlich-rechtlicher Sender aus dem Rennen warf. Und was nicht minder schön ist: Geo bezahlte dafür sogar ein seriöses Honorar. Das ist in Deutschland immer noch eine Nachricht.

Finanzierung bleibt wackelig

Das beweist das Projekt der Filmemacherin Lela Ahmadzai, die in Afghanistan aufgewachsen ist. In dem aufwühlenden, knapp sechs Minuten langen Film „Stille Nacht“ zeigt sie die Gesichter hinter dem Amoklauf des Amerikaners Robert Bales. Am 11. März 2012 erschoss der Sergeant in Kandahar 16 Menschen. Der Film, zu dem es auch eine Website gibt, die die Hintergründe der Tat beleuchtet, stellt einen Bauern vor, der seine Mutter, seine Frau und sechs Kinder verlor. Und zeigt einen Sohn, der eine Nacht lang neben der Leiche seines Vaters kauerte. Fertig wurde er zum Jahrestag des Massakers.

Stille Nacht from 2470media on Vimeo.

Inhaltlich ist er von einer Intensität, ästhetisch von einer Kunstfertigkeit, dass man die Augen nicht abwenden kann. Die Produktionsfirma 2470media, die den Film gemeinsam mit Ahmadzai produziert hatte, schlug den Film vergeblich mehreren Verlagsportalen als redaktionellen Beitrag an. Damit er wenigstens ein breites Publikum findet, entschied sie sich schließlich, ihn kostenlos zur Verfügung zu stellen. Dieses Angebot nahmen mehrere Portale an. Wie man unter solchen Umständen wegweisende Webprojekte entwickeln kann, ist ein Geheimnis, das die Verlage vielleicht im kommenden Jahr lüften werden.

In der ursprünglichen Version dieses Textes und in der Printausgabe stand, dass der Film auch Zeit Online angeboten worden sei, wo er als „Netzfilm der Woche“ präsentiert wurde. Diese Information ist falsch. Wir bitten, den Fehler zu entschuldigen.

foto_kai-schaechteleKai Schächtele, 39, ist Journalist und Buchautor aus Berlin. 2011 war er gemeinsam mit Christian Frey mit dem Blog wintermaerchen2010.com zur Fußball-WM in Südafrika für den „Grimme Online Award“ nominiert. Die Tickets für die WM in Brasilien sind bereits gebucht. Foto: Thomas Duffé.

 


Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

January 06 2014

Computer müssen Isländisch, Lettisch, Litauisch und Maltesisch noch lernen

Sprachenvielfalt gehört zu Europa. Während für große Sprachen wie Englisch, Französisch und Spanisch automatische Übersetzungstechnologien verfügbar sind, klaffen bei anderen Sprachen große Lücken. Die europäische Initiative Meta-Net will das ändern.

Als Sprecher des Deutschen nimmt man bei der Nutzung aktueller Betriebssysteme, Rechner, Telefone und Internetdienste viele komfortable Annehmlichkeiten als gegeben hin. Natürlich steht der E-Mail-Dienst in einer deutschsprachigen Version zur Verfügung, der Kalender und die Tabellenkalkulation ebenfalls. Die Textverarbeitung ist seit Jahren in der Lage, Tipp- und einfache Grammatikfehler zu markieren. Besitzt eine Software keine deutschsprachige Schnittstelle, können sich viele Menschen mit dem Englischen behelfen.

Andere europäische Sprachen mit vielen Sprechern, speziell Spanisch, aber auch Französisch und Italienisch, schneiden ähnlich gut wie das Deutsche ab. Was ist aber mit den Sprachen mit deutlich weniger Sprechern, zum Beispiel Griechisch (circa 13 Millionen Sprecher weltweit), Tschechisch (circa 9,5 Millionen), Finnisch (circa 5 Millionen) und den noch kleineren, teils regionalen Sprachen wie Slowenisch (circa 2 Millionen), Baskisch (circa 650.000) oder Isländisch (circa 245.000)?

Die EU verfügt mit ihren 28 Mitgliedsstaaten über 24 offizielle Sprachen, im geografischen Europa werden mehr als 80 Sprachen gesprochen, hinzu kommen Sprachen von Immigranten, Diplomaten und Handelspartnern. Kann innerhalb der Union von einer solide aufgestellten digitalen Teilhabe gesprochen werden, wie sie für das Englische und die wenigen großen Sprachen gang und gäbe ist?

EU will übersetzen, schafft es aber nicht

In Wirtschaft und Wissenschaft mag das Englische den Status einer Verkehrssprache besitzen, im gesellschaftlichen Alltag jedoch nicht. Weniger als die Hälfte der etwa 500 Millionen Europäer besitzen Englischkenntnisse. Viele derjenigen, die die Sprache sprechen, tun dies nur auf geringem Niveau. Die politisch gewollte Dominanz einer Sprache ist keine Option, basiert Europa doch auf dem Prinzip der Einigkeit durch Vielfalt, auch in sprachlicher Hinsicht.

Tatsächlich betrachtet die EU unsere Sprachen als integralen und schützenswerten Teil des Kulturerbes, was sich unter anderem darin widerspiegelt, dass viele Jahre lang alle im Europaparlament geführten Debatten in alle offiziellen Sprachen übersetzt wurden. Aber trotz der weltweit größten Übersetzungsabteilung, die sich die europäischen Institutionen jährlich mehr als eine Milliarde Euro kosten lassen, können die eigenen, Mehrsprachigkeit favorisierenden Regularien nicht mehr in Gänze befolgt werden. Das Textvolumen ist so immens, dass Debatten, Resolutionen und Ausschreibungen nur noch selektiv übersetzt werden können.

Möchte man sich im Internet über ein Thema informieren, zu dem in der eigenen Sprache online keine Informationen vorliegen, in einer anderen jedoch schon, hat man zwangsläufig das Nachsehen. Sprachbarrieren sind das zentrale Hindernis bei der Schaffung eines gemeinsamen digitalen Binnenmarktes, wie er von der Europäischen Kommission propagiert wird. Noch besteht dieser aus isolierten Inseln, streng nach Sprachgrenzen getrennt. Da nur etwa ein Drittel der europäischen Bürger bereit ist, Produkte oder Dienstleistungen online zu kaufen, wenn der entsprechende Service nicht in der eigenen Muttersprache angeboten wird, verhindern Sprachbarrieren das Wachstum. Ideen, Innovationen, Wissen, Güter, Dialoge und Debatten können nicht ungehindert über Sprachgrenzen hinweg fließen.

Für kleine Sprachen fehlen Automatiken

Bei den heutigen Text- und Informationsmengen kann der Schlüssel zur Überwindung von Sprachgrenzen nur in möglichst vollautomatischen Übersetzungstechnologien liegen. Das europäische Exzellenznetzwerk Meta-Net hat im Rahmen der Studie „Europas Sprachen im digitalen Zeitalter“ 31 europäische Sprachen genauer untersucht. Die Studie, an der mehr als zweihundert Experten aus ganz Europa mitgewirkt haben, zeigt, dass mindestens 21 dieser Sprachen vom digitalen Aussterben bedroht sind. Für Isländisch, Lettisch, Litauisch oder Maltesisch existiert zum Beispiel keine ausreichende sprachtechnologische Unterstützung, um ihr digitales Überleben zu sichern.

Es fehlen nicht nur ausgereifte und einsetzbare Werkzeuge für Anwendungen wie Sprachein- und -ausgabe, sondern auch Basiswerkzeuge etwa für die syntaktische Analyse einzelner Sätze, die semantische Auflösung von Pronomina (worauf beziehen sich „er“, „sie“ oder „ihre“?) oder auch semantische Netze, die etwa „ist-ein“ oder „hat-Teil“-Beziehungen zwischen Konzepten wie „Mensch“ und „Lebewesen“ oder „Hand“ und „Finger“ repräsentieren.

Die Tabelle zeigt die alarmierenden Ergebnisse für das Anwendungsgebiet maschinelle Übersetzung:

ExzellentGutMittelFragmen­tarischSchwach bzw. keine EnglischFranzösischDeutschBaskisch SpanischItalienischBulgarisch KatalanischDänisch NiederländischEstnisch PolnischFinnisch RumänischGalizisch UngarischGriechisch Irisch Isländisch Kroatisch Lettisch Litauisch Maltesisch Norwegisch Portugiesisch Schwedisch Serbisch Slowakisch Slowenisch Tschechisch Walisisch

Bei vielen Sprachen klaffen massive Lücken bezüglich der Unterstützung durch maschinelle Übersetzungstechnologien. Oftmals existieren nur rudimentäre oder schlicht gar keine Technologien. Besonderes Augenmerk muss nun folglich auf die vielen Sprachen aus den beiden letzten Gruppen gelegt werden, sodass diese technologisch aufschließen und ihre Sprecher zum Beispiel online mit ähnlich guten Anwendungen und Werkzeugen hantieren können wie Sprecher des Englischen, Spanischen oder Französischen, speziell im Bereich maschinelle Übersetzung gesprochener oder geschriebener Sprache.

Politische Teilhabe erschwert

Europas Sprachenvielfalt beeinträchtigt nicht nur die internationalen Handels- und Finanzbeziehungen, sie erschwert auch die europäische Integration und Binnenkommunikation. So können EU-Bürger wichtige Themen nicht grenzübergreifend diskutieren. Debatten über die Finanzkrise, zum Beispiel zwischen Griechen und Deutschen, finden nur über die Medien und Politiker statt. Gerade soziale Netzwerke verändern die politische Partizipation fundamental, doch kann die EU auf Grund der Sprachenvielfalt nicht davon profitieren.­ Nach dem Unfall in Fukushima wurde in ganz Europa über Atomkraft diskutiert – allerdings nur innerhalb der Sprachgemeinschaften. Auf europäischer Ebene hat diese Diskussion nie stattgefunden. Benötigt werden Technologien, die derartige Debatten ermöglichen.

Um für die geschilderten Probleme und für alle Länder Europas langfristige Lösungen zu erarbeiten, werden viele Jahre intensiver Forschung benötigt. Zur Vorbereitung und Koordinierung dieser Initiative wurde 2010 das mittlerweile aus 60 Forschungszentren in 34 Ländern bestehende Exzellenznetzwerk Meta-Net ins Leben gerufen. Das Ziel von Meta-Net ist es, ein Europa ohne Sprachbarrieren zu errichten, in dem Informationen, Wissen und Ideen ungehindert verbreitet werden und neue internationale Märkte entstehen können, ohne dabei jedoch die sprachliche Vielfalt Europas zu gefährden.

Meta-Net hat eigens eine „Strategische Forschungsagenda“ für das mehrsprachige Europa 2020 entwickelt, die Anfang 2013 vorgestellt wurde. Dieses Strategiepapier ist das Ergebnis von mehr als zwei Jahren intensiver Kooperation von zweihundert Forschern aus Wissenschaft und Industrie, die demonstrieren, welche wirtschaftlichen und gesellschaftlichen Vorteile durch eine Fokussierung auf das Thema Sprachtechnologie entstehen können. Im Zentrum stehen dabei maschinelle Übersetzungstechnologien für alle europäischen Sprachen, die sowohl eine hohe Übersetzungsqualität liefern als auch robust und präzise arbeiten, etwa für syntaktisch nicht wohlgeformte Eingabesätze.

Siri und Google Now machen es vor

Das Strategiepapier erläutert, wie Europa seine Sprachvielfalt als Wettbewerbsvorteil nutzen kann. Die europäische Forschung erfüllt die besten Voraussetzungen, um eine führende Rolle in der nächsten IT-Revolution zu spielen, in der die Mensch-Maschine-Kommunikation zunehmend über gesprochene oder geschriebene Sprache stattfinden wird  – mit Siri und Google Now finden sich schon jetzt die ersten Vorboten dieser kommenden Technologierevolution in aktuellen Mobiltelefonen.

Von den drei großen Themenblöcken, auf die sich die Forschung in Europa in den kommenden Jahren konzentrieren sollte, ist die „Translingual Cloud” von zentraler Bedeutung. Diese Technologie soll Übersetzungsdienste für alle europäischen Bürger, Unternehmen und Organisationen bündeln und qualitativ hochwertige Ergebnisse durch maschinelle Übersetzung gesprochener und geschriebener Sprache bereitstellen, sodass diese Technologien nicht nur – wie alle aktuell verfügbaren Online-Systeme – benutzt werden, um sich schnell einen indikativen Überblick über einen Text zu verschaffen („inbound gist translation“). Ein Vorschlag ist die Entwicklung von Ansätzen, die für bestimmte Typen von Texten möglichst fehlerfreie Übersetzungen liefern, die dann etwa an externe Leser weitergegeben werden kann („high quality outbound translation“).

EU will Meta-Net unterstützen

Zur Realisierung seiner Anwendungsvisionen schlägt Meta-Net ein groß angelegtes Förderprogramm vor und ruft die EU, die Sprachgemeinschaften, alle Mitgliedstaaten und assoziierte Länder sowie Forschung und Industrie zu einer engen Zusammenarbeit auf. Im Rahmen seiner vierten Jahrestagung, Meta-Forum 2013, im September in Berlin wurden von internationalen Unternehmen und Verbänden, Fördereinrichtungen und nicht zuletzt von der Forschung der aktuelle Stand, jüngste Entwicklungen und insbesondere die nächsten Schritte diskutiert, um die oben nur angerissenen Ziele in die Realität umzusetzen.

Kurze Zeit später verzeichnete die Initiative entscheidende Fortschritte. Zunächst wurde der Forschungsplan der für die Digitale Agenda zuständigen Kommissarin Neelie Kroes präsentiert, die die Wichtigkeit und Dringlichkeit des Themas erkannt und Unterstützung signalisiert hat. Anfang Dezember schließlich wurde die Zukunft der maschinellen Übersetzung in einem Workshop im „Science and Technology Options Assessment“-Ausschuss des Europaparlaments diskutiert, der sich mittlerweile ebenfalls besorgt um die digitale Unterstützung von Europas Sprachen zeigt.

Im Rahmen des 2014 startenden EU-Förderprogramms Horizon 2020 werden gerade in die von Meta-Net als problematisch eingestuften Sprachen vermehrt Fördergelder investiert – ein erfreulicher Schritt in die richtige Richtung. Allerdings müssen in den kommenden Jahren weitere Investitionen folgen, um Europas Mehrsprachigkeit von einer wirtschaftlichen und gesellschaftlichen Barriere in ein Sprungbrett zu transformieren.

foto_georg-rehmGeorg Rehm ist am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) tätig und leitet dort gemeinsam mit Hans Uszkoreit die Initiative Meta-Net. Foto: Georg Rehm

.
Dieser Text ist auch im Magazin „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können das Heft für 14,90 EUR bei iRights.Media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel bei Amazon*, beim Apple iBook-Store* oder bei Beam (* Affiliate-Link).

December 26 2013

La vieillesse, un marché qui excite le patronat japonais

En 2050, le nombre de Japonais devrait avoir diminué de plus de trente et un millions par rapport à l'an 2000. Du jamais-vu dans un pays développé. Classiquement, l'Archipel choisit de retarder les départs à la retraite tout en misant sur la consommation. / Japon, Démographie, Économie, Entreprise, (...) / Japon, Démographie, Économie, Entreprise, Finance, Logement, Protection sociale, Santé, Société, Technologies de l'information, Technologie, Travail, Retraites - 2013/06

December 24 2013

Les robots ne joueront pas « La Traviata »

Erigée en dogme de part et d'autre de l'Atlantique, l'exigence de baisse des dépenses publiques se répercute en premier lieu sur les services d'intérêt commun. Or, dans les secteurs où l'interaction humaine est irremplaçable, réduire les coûts implique inévitablement une perte de qualité. / États-Unis, (...) / États-Unis, Capitalisme, Culture, Économie, Éducation, Entreprise, Industrie, Mutation, Santé, Service public, Technologies de l'information, Technologie, Travail, Électronique, Université - 2013/06

December 20 2013

Wirtschaftsministerium: Geschäft mit Cyber-Überwachungsprodukten von Trovicor nicht zu beanstanden

Die deutsche Nationale Kontaktstelle der OECD, angesiedelt beim Bundeswirtschaftsministerium, hat eine Beschwerde von Nichtregierungsorganisationen gegen das Münchener Überwachungstechnologie-Unternehmen Trovicor GmbH in den meisten Punkten zurückgewiesen. Die NGOs bleiben bei ihren Vorwürfen.

Reporter ohne Grenzen (ROG), das European Center for Constitutional and Human Rights (ECCHR), Privacy International, das Bahrain Center for Human Rights und Bahrain Watch werfen Trovicor vor, dafür mitverantwortlich zu sein, dass Oppositionelle und Dissidenten in Bahrain festgenommen, verhaftet und gefoltert wurden.

OECD-Beschwerde soll Firmen anhalten, keine Menschenrechte zu verletzen

Um gegen solche Praktiken vorzugehen, gibt es die so genannte OECD-Beschwerde. Die Mitgliedsstaaten der OECD (Organisation für wirtschaftliche Zusammenarbeit und Entwicklung) haben Leitsätze für multinationale Unternehmen entwickelt, die die Firmen anhalten, keine Menschenrechtsverbrechen direkt durch eigenes Handeln zu begehen. Darüber hinaus sollen Unternehmen in Fällen, in denen andere Täter Menschenrechte verletzen, negative Auswirkungen ihrer eigenen Geschäftstätigkeiten auf die Rechte Dritter verhindern und diesen begegnen. Unternehmen sollen also nicht nur nicht zu Menschenrechtsverletzungen Dritter beitragen oder diese fördern, sondern sich vielmehr bemühen, negative Auswirkungen ihrer Geschäftstätigkeit zu verhüten und zu mindern.

Die am 6. Februar eingereichte Beschwerde zielte darauf ab, Trovicors Verträge mit Bahrain und anderen autoritären Staaten offenzulegen, auf ihre Menschenrechtsverträglichkeit zu prüfen und falls nötig zu kündigen.

NGOs: Vorwürfe hinreichend belegt

In der aktuellen Entscheidung sollte die Nationale Kontrollstelle (NKS) der OECD darüber befinden, ob sie die Beschwerde annimmt, um zu prüfen, ob die Vorwürfe stimmen. Das hat sie nicht getan, sondern nach Auskunft von Reporter ohne Grenzen vorgeschlagen, ein Mediationsverfahren zum Risikomanagement von Trovicor zu organisieren, bei dem aber auf die konkreten Anschuldigungen zu Bahrain nicht eingegangen werden dürfte, da sie nicht hinreichend belegt seien.

Das Mediationsverfahren lehnen die NGOs ab. Ihrer Meinung nach ist der Vorwurf, der bahrainische Geheimdienst habe Oppositionelle und Journalisten mit Hilfe von Trovicor-Technik überwacht und verfolgt, ausreichend nachgewiesen. „Gerade bei vertraulichen Geschäften wie im Bereich der Überwachungstechnologie kann man den Opfern schwerster Menschenrechtsverletzungen keine lückenlose Beweispflicht auferlegen“, sagte Miriam Saage-Maaß vom ECCHR. „Wenn man die Messlatte so hoch anlegt, verliert das OECD-Beschwerdeverfahren seinen Sinn.“

ROG-Geschäftsführer Christian Mihr ergänzt, die „Ablehnung unserer Beschwerde gegen Trovicor ist eine Enttäuschung, aber sie wird den Kampf gegen digitale Waffen nicht stoppen“, denn international setze sich zunehmend die Erkenntnis durch, dass der grenzenlose Einsatz digitaler Überwachungstechnik eine Gefahr für Pressefreiheit und andere Menschenrechte darstelle.“

Erst vor kurzem wurden Überwachungstechnologien in das Wassenaar-Abkommen für Waffenexportkontrollen einbezogen.

Beschwerde gegen Gamma International in Großbritannien angenommen

Mihr sagte weiter, bislang habe die Annahme einer OECD-Beschwerde niemals eine Entscheidung über die Wahrheit der Vorwürfe dargestellt, sondern nur anerkannt, dass die Vorwürfe die OECD-Leitsätze berühren. In diesem Sinne hatte die britische Nationale OECD-Kontaktstelle Ende Juni eine parallele Beschwerde gegen das Unternehmen Gamma International zur vertieften Prüfung angenommen.

Eine Stellungnahme des Bundeswirtschaftsministeriums ist angefragt, liegt aber noch nicht vor.

Offenlegung: Matthias Spielkamp ist ehrenamtliches Vorstandsmitglied des Reporter ohne Grenzen e.V.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl