Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

December 19 2013

Nouveaux outils du marketing : pêcher le client dans une baignoire

Le « filtrage collaboratif », créé en bonne partie dès 1995 dans les laboratoires du Massachusetts Institute of Technology (MIT), permet de regrouper des individus ayant des profils de navigation et de consommation similaires. / États-Unis, Communication, Entreprise, Internet, Publicité, Technologies (...) / États-Unis, Communication, Entreprise, Internet, Publicité, Technologies de l'information, Technologie, Marketing, Commerce - 2013/06

Wie weit darf Big Data gehen?

Körperdaten kündigen früh eine Infektion an. Facebook-Likes verraten den IQ der Nutzer. Big-Data-Analysen versprechen neue Erkenntnisse für Wissenschaft und Wirtschaft. Warum von einer Revolution zu sprechen ist, erläutert der Internetforscher Viktor Mayer-Schönberger im Interview.

iRights.info: In Ihrem Buch beschreiben Sie, wie die Analyse großer Datenmengen aus allen Lebensbereichen bestimmte Zusammenhänge erst sichtbar macht. So weiß etwa die US-Supermarktkette Walmart, dass ein bestimmter Frühstückssnack immer dann besonders nachgefragt wird, wenn ein Unwetter droht. Welche Zusammenhänge haben Sie bei Ihren Recherchen am meisten überrascht?

mayer-schoenberger

Viktor Mayer-Schönberger ist Professor für Internet Governance und -Regulierung am Oxford Internet Institute. Jüngst erschien sein Buch „Big Data. Die Revolution, die unser Leben verändern wird“ (gemeinsam mit Kenneth Cukier, Redline Verlag). Foto: Privat

Viktor Mayer-Schönberger: Besonders eindrücklich fand ich die Arbeiten von Dr. Carolyn McGregor an der Uniklinik in Toronto, die in den Daten der Vitalfunktionen von Frühgeborenen Muster erkennen konnte, die mit hoher Wahrscheinlichkeit eine Infektion vorhersagen, 24 Stunden bevor noch erste Symptome auftreten. Das hilft in Zukunft ganz unmittelbar Menschenleben zu retten.

iRights.info: Die neue Verfügbarkeit von großen Datenmengen und kostengünstiger Analysetechnik machen prinzipiell neuartige Prognosen möglich. Welchen Einfluss haben diese Vorhersagen auf das Wirtschaftsleben und was wäre möglich?

Viktor Mayer-Schönberger: Schon heute erlaubt uns Big Data, menschliches Verhalten relativ gut vorherzusagen. Das ist hilfreich in der Planung und für bessere Entscheidungen. Denn Tatsache ist, dass wir bis zu Big Data viel weniger Daten über unser wirtschaftliches Handeln hatten, als wir glaubten. Bessere Vorhersehbarkeit bedeutet geringeres Risiko – und das wiederum bedeutet geringere Volatilität. Die Märkte wären damit also weniger starken Schwankungen ausgesetzt. Eine Vorhersage der Börsenkurse, worauf manche hoffen, ist freilich in weiter Ferne, denn dazu ist die Vorhersage des Verhaltens sehr vieler Entscheidungsträger notwendig, und das ist auch in absehbarer Zukunft nicht zu stemmen.

iRights.info: Neben ökonomischen Chancen verspricht Big Data Fortschritte für die Allgemeinheit. Wo können die Analysen segensreich sein?

Viktor Mayer-Schönberger: Big Data kann uns in vielen Bereichen nutzen. In der Medizin kann Big Data zum Beispiel helfen, zu einer individualisierten und personalisierten Diagnose und Behandlung zu gelangen, die noch nicht möglich ist – wir nehmen ja heute immer noch die Standard-Dosis von Medikamenten, obwohl jeder Mensch und jeder Krankheitsfall anders ist. In der Bildung können wir mit Big Data die Chance haben, endlich besser zu verstehen, welche Lernmaterialen und Lernwerkzeuge, aber auch Lernkontexte für welche Lerngruppen optimal sind.

iRights.info: Sie betonen, dass Big-Data-Analysen zwar Zusammenhänge aufzeigen, nicht aber über ihre Ursachen Aufschluss geben. Daraus leiten Sie eine „Abwendung von der jahrtausendealten Suche nach kausalen Zusammenhängen“ ab. Umgekehrt ließe sich doch auch argumentieren, die neuen Big-Data-Beobachtungen verleihen der Suche nach ihren Ursachen erst einen neuen Schub…

Viktor Mayer-Schönberger: Beides ist zutreffend. Aber der Kernpunkt ist: Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können. Das Online-Versandhaus Amazon muss nicht wissen, warum manche Bücher mir empfohlen werden sollen und andere nicht – es reicht für Amazon, wenn ich relativ häufig aus den mir empfohlenen Büchern welche kaufe. Die Gesundheitsbehörden müssen auch nicht wissen, warum Internetsuchen mit der Verbreitung der Grippe korrelieren – wie Google Flu Trends es gezeigt hat. Es reicht zu wissen, dass anhand der Suchabfragen die Grippeverbreitung vorhergesagt werden kann.

Das ist insofern auch von Vorteil, weil wir in der Vergangenheit oftmals weniger erfolgreich in der Ursachenforschung waren, als wir glaubten, und uns mit Scheinursachen zufrieden gegeben haben. Hier zu verstehen, dass das „Was“ bereits hilfreich ist, und das „Warum“ danach kommen kann, aber nicht immer muss, erlaubt uns auch etwas demütiger zu sein. Es lehrt uns zu akzeptieren, dass wir weniger von der Welt wissen als wir glauben.

Black Box der Big-Data-Prognosen

iRights.info: Nun hat die Wissenschaft schon lange mit statistischen Methoden gearbeitet, um Erkenntnisse zu überprüfen oder erst zu gewinnen. Warum sprechen Sie in Punkto Big Data gleich von einer Revolution und nicht von einer Evolution?

Viktor Mayer-Schönberger: Weil bisher das Sammeln und Auswerten von Daten sehr zeitaufwändig und kostenintensiv war, und wir deshalb all unsere Mechanismen und Institutionen, unsere Verfahren, darauf ausgelegt haben, Antworten auf unsere Fragen aus der geringstmöglichen Menge an Daten zu gewinnen. Das bedeutet aber auch, dass wir nur jene Fragen beantworten konnten, die uns schon vor der Sammlung der Daten bekannt waren. Stehen hingegen nahezu alle Daten eines Phänomens zur Verfügung, können wir damit auch Fragen beantworten, die bei Sammlung noch gar nicht offenkundig waren.

Das ist tatsächlich ein anderer Ansatz. Es werden nicht mehr basierend auf einer Theorie Hypothesen erdacht und dann mit Daten geprüft. Hypothesen können jetzt parametrisch generiert und getestet werden. Statt also bloß eine bestimmte Hypothese zu bestätigen,  können wir aus einer großen Menge an Hypothesen die optimale finden.

iRights.info: Nun gibt es Zusammenhänge in den Daten, die intuitiv Unwohlsein hervorrufen. So ergibt etwa eine britische Untersuchung von „Gefällt mir“-Angaben auf Facebook: Fans der Motorradmarke Harley Davidson weisen eher einen niedrigeren IQ auf. Besteht die Gefahr, dass unser digitales Profil uns stigmatisiert und schließlich dazu genutzt wird, uns zu diskriminieren?

Viktor Mayer-Schönberger: Ja, diese Gefahr besteht – insbesondere wenn dank Big Data die Analyse genauer wird und damit nicht mehr so leicht vom Tisch gewischt werden kann. Es bedarf klarer gesetzlicher und gesellschaftlicher Rahmenbedingungen, wie weit Big Data gehen darf, und für welche Zwecke eine Anwendung nicht oder nur unter ganz bestimmten Bedingungen zulässig ist.

iRights.info: Was ist, wenn wir gar nicht bemerken, wie sich Algorithmen auf Entscheidungen auswirken. Vielleicht wundern wir uns irgendwann: „Warum bekomme ich keinen Kredit?“ Oder: „Warum lädt mich niemand zum Vorstellungsgespräch ein?“ Muss der Einsatz von Big-Data-Erkenntnissen in sensiblen Lebensbereichen transparent gemacht werden?

Viktor Mayer-Schönberger: Ja, es muss mehr Transparenz geben – wobei wir selbst als Betroffene mit der formalen Transparenz nicht viel anfangen können werden, weil die Zusammenhänge zu komplex sind. Dafür brauchen wir eine eigene neue Gruppe an Experten – die Algorithmiker – die diese Black Box der Big-Data-Prognosen für Betroffene öffnen können, um die Vorhersage in ihrem Namen einer Überprüfung zuzuführen.

„Wir verstecken uns heute schon”

iRights.info: Big Data kann helfen, die Lebensrisiken des Einzelnen besser einzuschätzen – etwa die Wahrscheinlichkeit eines Autounfalls, einer Sucht oder einer Krebs-Erkrankung. Versicherungskonzerne könnten diese Erkenntnisse nutzen und bei höheren Risiken höhere Prämien verlangen. Gerät so das Solidaritätsprinzip von Versicherungen in Gefahr?

Viktor Mayer-Schönberger: Das ist eine konkrete Gefahr. Auch hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.

iRights.info: Denkbar wäre auch, dass Menschen auf ihren Datenschatten besser Acht geben, weil sie die Analyse fürchten. Um nicht „dumm“ zu wirken, könnten sie eben auf den „Like“ der Motorradmarke Harley Davidson verzichten – um in diesem einfachen Beispiel zu bleiben. Führen die Big-Data-Analysen bald zur Unfreiheit des Einzelnen, zum großen Versteckspiel vor den Maschinen?

Viktor Mayer-Schönberger: Wir verstecken uns heute schon ganz regelmäßig – nicht vor der Maschine, sondern vor den anderen. Menschen schauen links und rechts, ob jemand sie beobachtet, bevor sie ein Stück Papiermüll einfach auf den Boden fallen lassen. Das Versteckspiel ist also uralt und geht natürlich auch in Zukunft weiter. Wer auf die Ergebnisse einer Big-Data-Analyse vertrauen möchte, sollte deshalb zusehen, dass dafür nur „Honest Signals“ verwendet wurden, also Signale, die zu fälschen aufwändig ist.

iRights.info: Das Sammeln von Daten ist auch eine große Wette auf die Zukunft. Google und Facebook könnten dank ihrer datenbasierten Prognose-Fähigkeiten irgendwann sagen: Jetzt steigen wir in den Aktienhandel ein oder in die Personalvermittlung. Muss der Staat die großen Daten-Sammler von heute präventiv regulieren, damit sie nicht zu Monoplisten in allen möglichen Geschäftsfeldern aufsteigen?

Viktor Mayer-Schönberger: Ja, das muss er – nicht primär wegen der Datenmonopole, obwohl es auch diese zu vermeiden gilt, sondern um zu verhindern, dass Big-Data-Infrastrukturen geschaffen werden, die nur unter großem Aufwand rückgebaut werden können. Denken Sie an die Datencenter der NSA.

iRights.info: Setzt mit dem NSA-Skandal nun das große Nachdenken über Big Data ein?

Viktor Mayer-Schönberger: Das hoffe ich – auch wenn die NSA nur die Spitze des Eisbergs ist. Mit unserem Buch wollten wir jedenfalls einen Beitrag zur Diskussion leisten.

December 11 2013

Warum die NSA-Affäre niemanden wirklich stört? Vielleicht, weil selbst Facebook weniger trackt als Guardian und FAZ

Seit über einem halben Jahr läuft der NSA-Skandal. Seit über einem halben Jahr veröffentlichen insbesondere der britische Guardian und die New York Times  weitere Details aus den Snowden-Dokumenten. Zu der Veröffentlichungs-Strategie habe ich mich bereits hier und hier kritisch geäußert. Aktuell beschäftigt mich eine andere Frage: Warum interessieren die Snowden-Leaks zwar auf informativer Ebene, rufen zugleich aber keine statistisch relevanten Reaktionen hervor. Es ist von keinem ernsthaften Nutzer-Exodus zu lesen, es häufen sich keine Berge aussortierter Smartphones. Ein Gastbeitrag von Caspar Clemens Mierau.

Vielleicht ist ein Grund, dass wir den Skandal als aufregend skandalös empfinden und er uns bestens unterhält. Mehr aber nicht. Eine steile These? Werfen wir einen Blick auf die Nachrichten-Seiten, die an vorderster Front über die Leaks berichten, sich gegen Überwachung und Tracking stemmen und an der ein oder anderen Stelle auch schon mal einen Hauch von Anti-Amerikanismus durchblicken lassen…

FAZ

Erst gestern erschien in der FAZ der vielbeachtete “Aufruf der Schriftsteller“, in dem sich über 560 Autoren wie folgt äußern:

“Ein Mensch unter Beobachtung ist niemals frei; und eine Gesellschaft unter ständiger Beobachtung ist keine Demokratie mehr.”

Eine klare Forderung. Leider ist die Beobachtung von Benutzern ein so verlockend Effizienz-steigerndes Tool, dass beim Lesen des Artikels auf faz.net laut dem Browser-Plugin Ghostery immerhin 11 Tracking-Dienste eingesetzt werden – die die Daten zum großen Teil auch gleich in die USA transferieren (u.a. Doubleclick, Google Adsense/Analyics und Chartbeat):

m5no

 

Besonders lustig ist diese Tracker-Liste bei der FAZ, wenn man den FAZ-Service-Artikel “Wie wehre ich mich gegen Überwachung?” liest, in dem unter anderem die Frage aufgeworfen wird:

“Was wissen Google und Facebook denn über mich?”

Nun, in diesem Fall weiß Google zumindest, dass gerade der Artikel gelesen wird. Hätte man  der Ehrlichkeit halber ja mal hinschreiben können. Statt dessen wird aber lieber mit dem Finger auf das Internet gezeigt – so als passiere es eben “dort” und nicht “hier und jetzt”:

y2qe

 

Guardian

Diese offensichtliche Diskrepanz zwischen journalistischem Anspruch und Internet-Realität ist nicht nur Problem der FAZ. Auch der Guardian ist  gut dabei – besser eigentlich. Ghostery meldet hier gleich 31 (in Worten: einundreißig) Tracker beim Lesen eines Artikels zu den Snowden-Leaks. Es sind so viele, dass man schon eher berichten müsste, welche nicht verwendet werden:

9-_7

 

 

New York Times

Auch die New York Times, die gemeinsam mit dem Guardian Leaks bearbeitet und veröffentlicht,reiht sich in die Liste nahtlos ein:

kc7a

 

taz

Auch eher alternative Medienauftritte wie das der taz spielt in dem Spiel mit. Im Artikel “Googles Anti-Spähkampagne. Verlogen? Genau!” heißt es:

“Große Internetkonzerne wie Google oder Facebook starten eine Kampagne gegen Spionage. Selbst wollen sie auf das Datensammeln aber nicht verzichten.”

Zugleich bindet der Artikel Googles Werbe-Tracking-Netzwerk Doubleclick ein. Vielleicht ist es ja Haarspalterei – ich sehe hier einen Bruch, den ich so nur belächeln kann:

40c4

 

Die anderen? Auch… bis auf… Facebook?

Die Liste kann problemlos weitergeführt werden. Süddeutsche (24 Tracker), Spiegel Online(18 Tracker), ZEIT Online (14 Tracker)Welt (24 Tracker), BILD Online (24 Tracker) - es ist überall die gleiche Situation. Manchmal fragt man sich, ob hier Experimente gefahren werden, um möglichst verschiedene Tracking-Dienste gegeneinander laufen zu lassen. Moment – es gibt Ausnahmen. Zum Beispiel Facebook – hier muss mehrfach neugeladen werden, um einen (1!) externen Tracker wie Adition oder DoubleClick zu erwischen.

0om-

Natürlich ist das Aufführen von facebook.com als weitestgehend Tracker-freie Seite mehr als spitzfindig. Rein numerisch setzt die Seite aber weniger externe (und damit unerwartete) Dienste ein, als die Vorkämpfer für ein Überwachungs-freies Netz.

Fazit

Persönlich habe ich kein Problem mit Tracking-Diensten. Sie helfen bei der Analyse und Optimierung von Web-Auftritten. Deswegen echauffiere mich an dieser Stelle auch nicht über sie, um sie gleichzeitig stillschweigend einsetzen (diese Seite setzt Google Analytics, WordPress Stats, den Flattr-Button und ggfls. eingebettete Tweets ein). Die Diskrepanz zwischen Artikel-Inhalt und Realität auf journalistischen Angeboten erklärt Christoph Kappes wie folgt:

@leitmedium Verlag vs Redaktion, das ist überall dieselbe Situation.

— Christoph Kappes (@ChristophKappes) November 30, 2013

 

Damit hat er sicher Recht. Das Problem ist aber tiefgreifender. Die Logik des Netzes und die Logik des Kapitalismus scheinen einen steten Optimierungszwang auszuüben. Es ist uns zwar erlaubt, dies zu kritisieren – aber nur im getrackten und optimierten Rahmen. Immerhin sollen die Artikel ja von möglichst vielen Personen gelesen werden und zugleich auch Einnahmen generieren. Auch das kritisiere ich nicht. So ist das Netz, so ist unsere Wirtschaftslogik. Wir sollten nur damit aufhören, uns und anderen etwas vorzumachen.

Technischer Hinweis

Die Screenshots wurden in Chrome mithilfe des Ghostery-Plugins angefertigt. Die Zahlen sind nicht absolut, da sie von Aufruf zu Aufruf schwanken können (z.b. durch Ladefehler aber auchA/B-Tests der Betreiber). Wer den Test nachstellen möchte, sollte unbedingt Plugins wie Adblock Plus deaktivieren, da sie sonst das Ergebnis durch Vorfiltern verfälschen können.

December 10 2013

Export von Überwachungstechnologie wird stärker reguliert

Sie heißen Finfisher, Hacking Team oder Trovicor und ihr Geschäft boomt: Überwachungstechnologien aus dem Westen sind Exportschlager und ein Milliardengeschäft. Der Markt wächst rasant und bislang weitgehend unkontrolliert. Dem hat die internationale Staatengemeinschaft vergangene Woche einen ersten Riegel vorgeschoben.

Am 4. Dezember gaben die 41 Mitgliedsländer des Wassenaar-Abkommens für Exportkontrollen von konventionellen Waffen und doppelverwendungsfähigen Gütern und Technologien bekannt, Überwachungstechnologien in die Liste der kontrollierten Exportgüter mit aufzunehmen.

Das Abkommen besteht seit 1996 und ist das wichtigste internationale Vertragswerk zur Kontrolle und Begrenzung von Rüstungsexporten. Die darin vereinbarten Kontrollaufgaben werden von einem ständigen Büro in Wien koordiniert. Zu den Mitgliedsländern gehören alle führenden Industrienationen, darunter die USA, Russland, Japan, Frankreich und Deutschland. Neben Rüstungsgütern regelt es auch den Export sogenannter Dual-Use-Güter wie Telekommunikations- und Navigationstechnologie. Auch bestimmte starke Kryptographietechnik unterliegt in den am Abkommen teilnehmenden Staaten Kontrollen, etwa der Dual-Use-Verordnung der EU.*

In der Stellungnahme (PDF) von vergangenem Mittwoch erkennen die Mitgliedsländer erstmals an, dass auch Überwachungstechnologie „unter bestimmten Bedingungen der internationalen und regionalen Stabilität und Sicherheit abträglich sein kann“, wie es in der Erklärung heißt. Nichtregierungsorganisationen, darunter Privacy International und Reporter ohne Grenzen, begrüßten dies mit vorsichtigem Optimismus. „Das ist auf jeden Fall ein Schritt in die richtige Richtung“, sagt Hauke Gierow, Referent für Informationsfreiheit im Internet bei Reporter ohne Grenzen. Die Organisation weist seit langem darauf hin, dass Überwachungstechnologie westlicher Firmen zunehmend von repressiven Regime zur Unterdrückung von Journalisten, Menschenrechtlern und Dissidenten genutzt wird (PDF).

Entscheidungsstau oder schnelle Reaktion

In der Erklärung sind Technologien zur Überwachung, Informationsbeschaffung und Systeme zur Überwachung IP-basierter Netzwerke als die Bereiche benannt, die zukünftig der Kontrolle unterliegen werden. Welche Produkte dadurch konkret auf der Liste landen werden und mit welchen technischen Spezifikationen, ist allerdings noch unklar. „Wir warten jetzt noch auf die Details der Implementierung, denn darauf wird es am Ende ankommen“, schränkt Gierow ein. Und das könnte eine Weile dauern. Denn die Beschlüsse müssen in Brüssel vom EU-Parlament umgesetzt werden. „Aber derzeit hängen dort noch die Änderungen der letzten zwei Jahre fest“, sagt Gierow.

Dass es mit dem nötigen politischen Willen auch sehr viel schneller gehen kann, beweist derzeit Frankreich. Die Französische Regierung hat als Reaktion auf die Beschlüsse in Wien schon jetzt festgelegt, dass Hersteller von Überwachungstechnologien in Zukunft Exportgenehmigungen für ihre Produkte brauchen. „Das könnte die Bundesregierung ja auch machen“, sagt Gierow. Wie dringend eine schnelle Regulierung des Marktes nötig ist, zeigt die wachsende Zahl an Fällen, in denen Sicherheitstechnologie von repressiven Regime gegen die Bevölkerung eingesetzt wird. „In Syrien zum Beispiel war deutsche Technologie im Einsatz, in Libyen wurden Produkte einer französischen Firma gefunden, in Ägypten gab es ein Angebot von der Firma Gamma Fin Fisher“, sagt Gierow.

Dass die neuen Exportkontrollen Überwachung und Repression effektiv verhindern werden, ist zwar unwahrscheinlich, denn viele Länder gehören nicht zum Abkommen, und bereits vorhandene Technologie wird auch weiterhin genutzt werden. Aber der bislang vollkommen intransparente Handel stünde damit erstmals offiziell unter Beobachtung.

*Update, 13.00: In einer früheren Version dieses Artikel stand, dass starke Kryptographie allgemein dem Abkommen unterliegt. Diese Aussage wurde korrigiert.

December 05 2013

Branchés, déglingués et pensifs

En 1993, avec son premier roman, Génération X (Robert Laffont), le Canadien Douglas Coupland créait un hymne, un emblème pour la tranche d'âge qu'il avait dépeinte : la première génération post-soixante-huitarde, celle de la « culture accélérée », pour reprendre son sous-titre (Tales for an Accelerated (...) / Canada, Animal, Culture, Internet, Littérature, Santé, Technologies de l'information, Technologie, Fiction, Environnement - 2013/12

November 30 2013

L'empire des jeux vidéo

Longtemps, leur importance a été sous-estimée. La coupure entre les jeunes qui y jouaient et les adultes reléguait les jeux vidéo au rang de divertissement vulgaire. Mais les mordus de Pac-Man partagent désormais avec leurs enfants une culture commune. Avec leur puissance de calcul inédite, les (...) / Culture, Idéologie, Industrie culturelle, Informatique, Mondialisation, Technologie, Travail, Jeux vidéo - 2013/12

November 29 2013

Le tournant de la nomadisation

« Développez votre activité mobile ou trépassez ! ». Une leçon de darwinisme économique répétée aujourd'hui sur tous les tons dans le monde des jeux vidéo, du fait de l'invasion de périphériques portables « intelligents ». / Économie, Industrie culturelle, Mondialisation, Publicité, Technologies de (...) / Économie, Industrie culturelle, Mondialisation, Publicité, Technologies de l'information, Technologie, Marketing, Commerce, Jeux vidéo - 2013/12

November 23 2013

La « guerre juste » d'Obama avec ses drones

Nouvelle attaque de drone américain, ce jeudi 23 novembre, au nord-ouest du Pakistan, hors des « zones tribales » contiguës à l'Afghanistan où ces frappes sont concentrées d'ordinaire : les tirs de missiles sur un local religieux ont fait cinq à huit victimes, considérées comme des membres présumés du réseau Hakkani, lié aux talibans. Et cela au moment où le gouvernement pakistanais — tout comme son homologue afghan — multiplie les signes d'ouverture à l'égard des fractions les plus modérées de la mouvance (...) - Défense en ligne / États-Unis, Pakistan, Armée, Armement, Droit international, Technologie

November 16 2013

L'acheminement de l'électricité verte, alibi de la privatisation

En Europe, la transition vers des sources d'électricité renouvelables pose la question suivante : l'énergie est-elle un bien commun nécessitant des infrastructures d'intérêt public ou une marchandise devant circuler dans toute l'Union ? / Europe, France, Économie, Énergie, Politique, Technologie, (...) / Europe, France, Économie, Énergie, Politique, Technologie, Environnement, Privatisation, Néolibéralisme - 2013/05

November 09 2013

Verheerendes Feuer im Gedächtnis des Netzes – Internet Archive ruft zu Spenden auf

Die gemeinnützige Organisation Internet Archive ist bei sehr vielen Netznutzern ungemein beliebt. Sie sorgt dafür, dass Milliarden von Websites archiviert und für die Zukunft gesichert werden. Besonders beliebt ist dabei die Wayback-Machine. Nun hat es gebrannt. Durch das Feuer wurde der Technikraum zerstört. Die Organisation ruft nun zu Spenden auf.

reading-room-fire
Feuer im Scan-Center des Internet Archive in San Francisco

Glück im Unglück, nur das Scan-Zentrum, nicht aber das Hauptgebäude der Organisation ist komplett ausgebrannt. Der Schaden ist trotzdem immens. Technische Geräte und Ausrüstung im Wert von 600.000 US-Dollar sind ein Raub der Flammen geworden. Der Gründer des Internet Archive Brewster Kahle schreibt dazu im Blog der Organisation:

This episode has reminded us that digitizing and making copies are good strategies for both access and preservation. We have copies of the data in the Internet Archive in multiple locations, so even if our main building had been involved in the fire we still would not have lost the amazing content we have all worked so hard to collect.

Um den Schaden schnellstmöglich zu kompensieren, ruft das Internet-Archive nun einerseits dazu auf, an anderen Orten technisches Equipment bereitzustellen, damit die Arbeit möglichst reibungslos weitergehen kann. Andererseits werden dringend Spenden benötigt. Auf der Seite Donate to the Internet Archive! finden sich alle nötigen Informationen.

November 05 2013

Simulation numérique des conflits sociaux

A l'ère d'Internet, la population n'est plus une masse, mais un subtil réseau d'interactions. Marketing et sociologie cherchaient des tendances ; désormais, c'est dans l'intimité des connexions et des gestes individuels que l'on fouille. / Économie, Histoire, Idéologie, Informatique, Internet, (...) / Économie, Histoire, Idéologie, Informatique, Internet, Libéralisme, Science, Société, Technologies de l'information, Technologie, Marketing, Néolibéralisme - 2013/04

Deutsche Digitale Bibliothek jetzt mit API

Seit knapp einem Jahr steht die Deutsche Digitale Bibliothek als Betaversion online, seit Montag nun bietet sie auch eine API an. Über die Schnittstelle können Entwickler Daten aus dem Katalog der DDB auslesen und für weitere Anwendungen verwenden.

Was in der Welt der Softwareprojekte und Plattformen kaum erwähnenswert wäre – die pure Existenz einer Schnittstelle –, ist bei Bibliotheken und anderen Kultureinrichtungen noch eine Besonderheit. Wie auch bei offenen Daten in Politik und Verwaltung gilt: Wertvolle Metadaten „einfach so” und maschinenlesbar herauszugeben, stellt nicht nur technische und rechtliche Fragen. Es steht auch für einen Kulturwandel: Da könnte ja jeder kommen und die Daten verwenden. Bei der Deutschen Digitalen Bibliothek kann jetzt jeder kommen.

Metadaten unter CC-Zero-Widmung

Weitergenutzt werden können die Metadaten der DDB unter den Bedingungen der Creative-Commons-Zero-Widmung, was einem Verzicht auf alle Rechte entspricht. Zwar ist ein einzelnes Datum für sich nicht schutzfähig, mit der „CC0”-Widmung stellt die DDB aber klar, dass auch die Datenbank nicht eigens geschützt werden soll.

Allerdings stehen nicht alle Metadaten der DDB unter CC0, nur die entsprechend lizenzierten sind über die API ansprechbar. Hintergrund: Ausgenommen wurden diejenigen Datensätze, die neben Erschließungsinformationen auch Beschreibungen von Werken und Objekten enthalten. Da solche Beschreibungen urheberrechtlich geschützt sein können, fehlen diese Datensätze vorerst. Auf Nachfrage erklärt die DDB, dass auch diese Datensätze zugänglich gemacht werden sollen, indem Erschließungs- und Beschreibungsinformationen getrennt werden.

Bibliotheken und Museen mit APIs

Wie sich die Daten nutzen lassen, zeigen andere Projekte von Bibliotheken und Kultureinrichtungen. Naheliegend ist es etwa, die Daten in weitere Kataloge aufzunehmen oder mit Geodaten und Karten zu kombinieren – der Idee nach nichts anderes als die Erweiterung des klassischen Bibliothekskatalogs, der zeigt, was sich wo finden lässt. Die aus einem Wettbewerb resultierende (und noch rudimentäre) DPLA Map der Digital Public Library of America zum Beispiel zeigt an, was sich an Werken mit Bezug auf den eigenen Standort in der digitalen Bibliothek findet:

dplamap-berlin

Wo die Metadaten mit den Inhalten selbst kombiniert werden können, sind Anwendungen wie „Vistory” vom Rijksmuseum Amsterdam möglich. Das Programm zeigt unter anderem an, welche historischen Filmszenen in der Nähe gedreht wurden:

Der experimentelle Dienst Serendipomatic wiederum analysiert ganze Texte und durchsucht darauf basierend die Bestände der Europeana, der Digital Public Library of America und des Commons-Pools bei Flickr. Die Idee ist, mit den im Text enthaltenen Stichworten Zufallsfunde zu ermöglichen, die man sonst übersehen hätte.

Was mit den Daten der DDB möglich ist, muss sich noch zeigen. Man kann jedenfalls gespannt sein. Die DDB-API kann nach formloser Anmeldung bei der DDB genutzt werden und ist im dortigen Entwickler-Wiki näher dokumentiert.

October 30 2013

Amazon en accusation

Lors de la séance des questions au gouvernement le mercredi 30 octobre, Mme Isabelle Attard, députée du Calvados (Europe Ecologie — Les Verts), a interpellé le ministre du travail Michel Sapin sur les conditions de travail dans les entrepôts d'Amazon, géant du commerce en ligne, en s'appuyant sur le (...) / Économie, Entreprise, Internet, Multinationales, Politique, Technologie, Travail, A propos du « Diplo », Chômage - La valise diplomatique

October 25 2013

Drone et kamikaze, jeu de miroirs

L'usage des drones, qui bouleverse les règles de la guerre, ne suscite pas de rejet massif dans l'opinion en Occident. La figure du kamikaze apparaît, elle, comme le sommet de la barbarie. Attentats-suicides contre attentats fantômes, deux tactiques opposées qui historiquement se répondent. / (...) / États-Unis, Armée, Armement, Conflit, Impérialisme, Technologie, Terrorisme - 2013/04

October 24 2013

Google: Ein Werkzeug des Wissens, eine technokratische Macht

Google durchsucht und akkumuliert das Wissen der Welt für gezielte, kapillare Werbung. Das Pagerank-Verfahren gilt als elektronische Variante der direkten Demokratie, doch seine genaue Funktionsweise bleibt uns verschlossen. Das italienische Autorenkollektiv Ippolita hält die kritische Neugier der Hackerethik dagegen.

Bei der Analyse des Phänomens Google zeigt sich schnell, dass die Ökonomie der Suche nur ein Element in einem wesentlich größeren und komplexeren Bild ist. Mountain View ist dabei – und Eric Schmidt sagt es selbst – eine globale Unternehmung in der Informationstechnologie voranzutreiben, einen Hundert-Milliarden-Dollar-Betrieb, der weit über eine bloße Suchmaschinen-Firma hinausgeht.

In der Tat verkörpert Google eher ein alles durchdringendes Wissensmanagement-System, das unter anderem folgende Entwicklungen und Methoden einschließt:

  • Strategien, die aggressives Marketing und clevere Imagepflege verbinden,
  • die Verbreitung umfassend konfigurierbarer, dennoch stets wiedererkennbarer Schnittstellen,
  • Instrumente, mit denen Nutzer und Entwickler Inhalte nach Google-Standards erstellen,
  • die Übernahme von kooperativen Entwicklungsmodellen aus dem Lehrbuch der Freien- und Open-Source-Software,
  • die Nutzung neuester Datenerhebungs- und -archivierungssysteme,
  • die Verbindung von Information Retrieval mit Profiling-Techniken, und last but not least:
  • die ausgefeilte und hochentwickelte Personalisierung von Anzeigen.

Aus der wissenschaftlichen Forschung hervorgegangen, ist Google heute ebenso zum allgemeinen Werkzeug der Wissensverwaltung wie zur technologischen Macht geworden; man kann sagen: zum direkten Ausdruck von Technokratie.

Die Autorität der Maschinen

Natürlich können wir alles im Internet veröffentlichen, was wir wollen, und Google wird es indexieren. Doch wir dürfen nicht erwähnen, dass Googles Akkumulationsstrategie perfekt zum System der Marktwirtschaft passt, das auf unendlichem Wachstum basiert. Insofern ist das Pagerank-Verfahren mehr als ein Algorithmus: Es wird zu einem kulturellen Prisma, durch das Google uns die Welt wahrnehmen lässt. In einem gewissen Sinn forciert es die Ausdehnung des Peer-Review-Systems – das innerhalb der akademischen Welt seine Berechtigung hat – auf die gesamte Skala des menschlichen Wissens.

Die traditionellen religiösen und politischen Autoritäten sind mit ihrer Glaubwürdigkeit am Tiefpunkt angelangt. Nun steht ihnen die Autorität der Maschinen gegenüber. Sie zeigt sich vor allem in den Suchergebnissen, die der wohlhabenden Klasse der ‚Prosumer’ geliefert werden; gespeist von einer Datenbasis, die die Hohepriester der Technologie, die Experten, bereitgestellt haben.

Charakteristisch für solche Verfahren, die vorgeben, aus der verfügbaren und vermeintlich grenzenlosen Menge an Daten „die Wahrheit” zu extrahieren, ist eine extreme Form des Relativismus. Schon an der Vielzahl von Algorithmen und Filtern, die Google verwendet, um diese Wahrheit zu gewinnen, lässt sich das erahnen. Die eigentliche Bedeutung der passenden Antwort auf eine Suchanfrage aber liegt darin, dass sie für jeden Konsumenten ein fertiges, personalisiertes Produkt liefert.

Technikhass und Technikeuphorie

Wo uns auf diese Weise die Erzeugung, Verwaltung und Anwendung von Wissen aus den Händen genommen wird, scheinen nur zwei Optionen übrig: Entweder die Ablehnung der Wissenschaftskultur überhaupt als Wurzel allen Übels; oder – im direkten Gegensatz dazu – das blinde und enthusiastische Akzeptieren jeglicher durch Technologie hervorgebrachter Innovation.

Doch zwischen diesen beiden Extrempositionen – Technikhass hier, Technikeuphorie dort – lässt sich eine Position entwickeln, die jene Neugier befördert, die wir aus der Hackerethik kennen. Sie steht ebenso für das Teilen von Wissen, die kritische Haltung gegenüber „Wahrheiten” wie für das rigorose Prüfen von Quellen und den freien Fluss von Information.

Ein fundamental wichtiges Thema in diesem Zusammenhang ist Bildung, doch es fehlen die Mittel, um Wissen in großem Maßstab zu verbreiten. Die Bildungsstrukturen in Europa und in Nordamerika sind nur darauf ausgerichtet, Spezialisten zu produzieren. Und ein pädagogisches Modell, das sich am Bedürfnis nach einer Art „dilettantischem” wissenschaftlichen Zugang zu Wissen orientiert, ist im Moment nicht in Sicht.

Die Logik der Informationstechnologie

Der Aufstieg der Informationstechnologie zum Motor technischer Innovation überhaupt hat neue Szenarien eröffnet: Informationstechnologie ist nicht nur ein Verfahren, um den Umgang mit Informationen zu automatisieren. Sie besitzt eine eigene Logik, die darin besteht, kontinuierlich ihre eigene Basis zu verändern. Informationstechnologie ist gleichzeitig physikalisch-materiell und experimentelle Theorie. Sie befasst sich mit der Formalisierung der Sprache, bringt diese mit physischen Komponenten der Elektronik zur Wirkung, woraus wiederum neue Sprachen entstehen, die erneut die Theorien des Wissens beeinflussen.

Vor zehn Jahren geschriebene Software unterscheidet sich strukturell von Software für einen heutigen Computer. Wir wissen, dass das, was wir gestern für wahr hielten, morgen nicht mehr stimmen wird, wenn wir stärkere Maschinen haben und mit ihnen völlig neue Dinge tun können.

Wunder der Technologie: Von subjektiven Meinungen zur objektiven Wahrheit

In dieser gigantischen Datenwelt nun taucht der gute Riese Google auf und erklärt uns, dass wir alle Teil einer großen, bislang nicht gekannten globalen elektronischen Demokratie seien. Und so seien auch die Ergebnisse von Pagerank korrekt, entspringen sie doch der direkten Demokratie der Links, die durch Googles Algorithmen validiert werden – und uns in gewisser Weise unser Recht zurückgeben, für uns selbst zu sprechen.

Epistemologisch betrachtet kann Popularität jedoch nie als Beleg für objektive Qualität gelten. Dann würde das Konzept der Objektivität auf der unausgesprochenen Annahme beruhen, dass eine Masse subjektiver Ideen – die Meinungen, die über Links ausgedrückt werden – sich scheinbar magisch in ihr exaktes Gegenteil verwandeln kann: in die aufscheinende objektive Wahrheit in dem Moment, da sie eine bestimmte Zahl überschreiten und zur Mehrheit werden. So wird das Ranking zum Ausweis von Qualität, weil es augenscheinlich das Ergebnis informationsverarbeitender Technologien darstellt.

Algorithmen und der Schein der Objektivität

Dennoch: Wie kann Quantität zu Qualität werden? Man geht davon aus – ohne es allzu offen zuzugeben – dass die technische Vermittlung durch den Algorithmus selbst bereits eine Garantie für „Objektivität” ist und assoziiert diese Objektivität mit „gut”, „besser” und schließlich mit „wahr”. Dieser Mechanismus der Konsensbildung, den Google als Manifestation direkter Demokratie betrachtet, da er über die Voten der User funktioniert, überzeugt aber aus zwei wesentlichen Gründen nicht: Erstens unterstellt er, dass die Mehrheit immer recht hat. Zweitens impliziert er, dass Meinungen mehrheitlich und notwendig eine technologische Vermittlung durchlaufen müssen, um dem User wirklich zu nutzen. Wie das genau funktioniert, wird aber nie erläutert.

Die Dichotomie zwischen dem Objektiven und dem Subjektiven und die Gegenüberstellung von Wahrheit und Meinung ist in der Welt der Netzwerke aber selbst völlig deplaziert. Bei genauerer Betrachtung hat die Wissenschaft, wenn sie Techniken erfunden und Technologien gefördert hat, immer Hybride aus Natur und Kultur erzeugt.

Die Technologie hinter den Netzwerken ist nur die gegenwärtige Anwendung der wissenschaftlichen Methode, die ‚Natur-Kultur-Hybride’ erschafft und zu unzähligen wissenschaftlichen Objekten führt, die sich – anstelle der Menschen – als brauchbarere Zeichen für die Wirklichkeit präsentieren. Der Algorithmus von Pagerank und sein Urteil gilt nunmehr als vertrauenswürdiger als die Meinung eines Individuums, selbst als die eines fachlichen Experten – und sei es, weil Pageranks Empfehlung immer nur einen Klick entfernt ist, im Gegensatz zu der des Experten.

Was ist für wen relevant?

Ein anderer möglicher Gesichtspunkt auf das Thema „Subjektivität vs. Objektivität” bezieht sich auf das Modell der Entscheidungsfindung: Wie entscheidet man, was relevant ist? In einem relativistischen Kontext kann man eher davon ausgehen, dass eine Information ‚objektiv’ ist, wenn sie von einer Website (oder einem Blog oder Google oder einer offiziellen Quelle) stammt, deren Bewertungskriterien auf klare Vorgaben, transparente Prozesse und eine begrenzte, lokale Perspektive zurückgehen.

Ein Netzwerk, das auf Vertrauen basiert – also eine Gruppe von Leuten, die untereinander Informationen, Meinungen und ganz allgemein Wissen teilen – kann problemlos seine Arbeitsweisen offenlegen, ebenso seine Hierarchie, wenn es eine hat; auch die Voraussetzungen, um Mitglied des Netzwerks oder des Projekts zu werden.

Opake Entscheidungsmechanismen

Wenn man die Antworten prüft, die von einem solchen Vertrauensnetzwerk gegeben werden, kann man diese immer als ‚objektiv’ betrachten: in dem Sinne, dass sie für und in diesem Netzwerk wahr und relevant in Bezug auf dessen Erfahrungen sind. Diese Objektivität und Relevanz ist das Ergebnis vieler verschiedener Subjektivitäten und des Austauschs zwischen den Mitgliedern dieses Netzwerks. Wenn man sich mit seiner Gemeinschaft in Übereinstimmung sieht, kann die jeweilige Information für einen von Interesse sein, oder man kann sie zugunsten anderer Netzwerke des Vertrauens verwerfen.

Folgt man diesem Ansatz, und wäre Google bereit, seine Entscheidungsmechanismen offenzulegen und damit die Internetuser in der Lage, sie nachzuvollziehen, dann könnte man das Problem „objektiv vs. subjektiv” leicht überwinden. Man würde sich nicht nur Schritt für Schritt, Suche für Suche in das jeweils bevorzugte Netzwerk hineinversetzen können, sondern wäre auch in der Lage, es direkt zu beeinflussen und es im Rahmen unserer Geschmäcker und unserer Vorlieben, unserer Ideen und Eigenheiten zu halten – oder kurz: in Übereinstimmung mit uns selbst.

Dieser Artikel ist ein gekürzter Auszug aus „Luci e ombre di Google/ The Dark Side of Google” von Ippolita. Ippolita versteht sich als Forschungsgruppe und „Kollektiv für geselliges Schreiben”. Zuerst auf Italienisch 2007 veröffentlicht, ist die Schrift jetzt in der Reihe „Theory on Demand” des Amsterdamer Institute of Network Cultures in neuer Fassung erschienen.

Übersetzung: Andreas Kallfelz. Lizenz: CC BY-NC-SA 2.5 IT

Apple Mavericks: Der diskrete Zwang zur Cloud

Wer Apples neues Betriebsystem Mavericks installiert, hat vermutlich auch ein Konto in der iCloud, so dass eine kleine Änderung sich leicht übersehen lässt: Zwar werden Musik, Filme und alles andere weiter über iTunes verwaltet; Kontakte, Kalenderdaten und Mailkonten aber lassen sich nicht mehr lokal mit mobilen Geräten synchronisieren. Auch dafür ist nun nur noch iCloud zuständig – oder eben, wenn man will, Alternativdienste wie das Google-Adressbuch, der zugehörige Kalender oder eigene Server. Auf Googles Android-Plattform ging das ohnehin nie lokal. Nun hat Apple den lokalen „Sync Services”-Dienst abgeschafft.

Was auf den ersten Blick wenig bemerkenswert scheint, ist aus zwei Gründen dennoch: Es zeigt zum einen, wie Cloud-Dienste in immer mehr Bereichen zum Standard werden. Man gibt die Daten immer seltener bewusst „in die Cloud”, sie sind ohnehin schon dort – ohne dass man als Nutzer noch abwägen müsste, ob einem das behagt: Die Macht der Standardeinstellung sorgt dafür.

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Nicht mehr dabei in OS X 10.9: Kontakte und Kalender lokal synchronisieren

Zum anderen zeigt sich auch hier: ein iCloud-Account wird ebenso wie das Amazon- oder Google-Konto zur Eintrittskarte in digitale Ökosysteme, die geschlossene Plattformen sind. Wäre die Metapher nicht so schief, könnte man von walled clouds sprechen, die sich aus den walled gardens der Webunternehmen entwickelt haben. Interoperabilität – also mit seinen Daten ohne größere Hindernisse umziehen zu können – ist so gut wie nie vorgesehen.

Das Bemerkenswerte daran: Es sind weniger die großen Änderungen, durch die sich die geschlossenen Plattformen herausbildet haben, sondern viele kleine, diskrete Schritte: Ein plattformgebundenes E-Book hier, ein Häkchen mehr, ein Feature weniger dort: zusammen ergibt das den Lock-in-Effekt. Wer im goldenen Käfig der iCloud sitzt, hat es bequem – solange er nicht wechseln will.

Dabei wäre für einen Blick aus dem Käfig Anlass genug: Welche Regeln für die Clouds gelten werden, für die wir hier und da schon die Häkchen gesetzt haben, wird gerade verhandelt: Bei der Datenschutz-Grundverordnung in Brüssel, für die nun die Verhandlungen mit dem Ministerrat bevorstehen. Ob die Verordnung bis auf Unternehmen wie Apple durchgreift oder neue Schlupflöcher entstehen, wird sich dann erst erweisen. Auch dort sollte man auf die unscheinbaren Änderungen achten.

Reposted bykrekk krekk

October 10 2013

W3C-Direktor Berners-Lee verteidigt Kopierschutz für Webstandard HTML5

Soll HTML als Standard des offenen Web Kopierschutz unterstützen? Schon seit einiger Zeit wird darüber nicht nur in den Kreisen des Web-Gremiums W3C erbittert diskutiert. Genau genommen geht es um „Encrypted Media Extensions” – Schnittstellen, über die kopiergeschützte Inhalte auch direkt im Browser abspielbar werden sollen. Netflix, Microsoft und Google haben dazu einen Entwurf vorgelegt.

Nun hat sich Web-Erfinder und W3C-Direktor Tim Berners-Lee erneut zu Wort gemeldet und das Vorhaben gegen Kritik („Hollyweb”) verteidigt. Nach den Designprinzipien von HTML hätten die Nutzer zwar Vorrang – es sei aber besser, wenn die Diskussion über DRM im W3C statt außerhalb stattfinde. Denn verhindern werde man Kopierschutz für Video-Inhalte mit einer Verweigerung nicht, so Berners-Lee. Man könne aber die Folgen für’s offene Web mildern:

if content protection of some kind has to be used for videos, it is better for it to be discussed in the open at W3C, better for everyone to use an interoperable open standard as much as possible, and better for it to be framed in a browser which can be open source, and available on a general purpose computer rather than a special purpose box.

Die Kritik war Anfang Oktober wieder lauter geworden, als das W3C in einer neuen Charta schließlich festschrieb, dass HTML-Unterstützung für geschützte Inhalte zu seinem Aufgabenfeld gehört. Die Electronic Frontier Foundation sprach von einem „gefährlichen Schritt” und einer Machtverschiebung vom Nutzer zum Inhalteanbieter:

We’re deeply disappointed. (…) That breaks a—perhaps until now unspoken—assurance about who has the final say in your Web experience, and indeed who has ultimate control over your computing device.

Deutlich wird allerdings, dass die Entscheidung auch für Berners-Lee nicht nur eine über die Rolle des W3C ist, sondern strategisch begründet wird: Ohne Beteiligung des W3C würde der Kampf um Kopierschutz von vornherein auf fremdem Terrain stattfinden, entsprechend schlechter wären die Ausgangsbedingungen.

Im gleichen Posting ruft Berners-Lee nun zu mehr Beteiligung am Prozess auf. Doch im Gegenzug muss sich die HTML5-Arbeitsgruppe jetzt an der Quadratur des Kreises versuchen: Offen und geschlossen, WWW und DRM soll sie in Einklang bringen.

October 03 2013

« Une société de simulation », par hubertguillaud

« Une société de simulation », par @hubertguillaud
http://www.internetactu.net/2013/10/02/une-societe-de-simulation

Koert van Mensvoort (@mensvoort) est un artiste, chercheur et philosophe hollandais. Il anime depuis plusieurs années l’excellent Next Nature (http://www.nextnature.net - @nextnature), qui n’est pas seulement un site d’information qui interroge notre rapport au monde (dont a été tiré récemment un livre, le Next Nature Book), mais aussi un laboratoire de designers qui proposent d’étonnantes interventions pour interroger notre rapport à la #technologie. C’est le cas du Nano Supermarket, une collection de prototypes censée utiliser les nanotechnologies pour nous faire réfléchir à leur impact ; et In-Vitro Meat, une passionnante réflexion sur notre rapport à la nourriture à l’heure où les technologies permettent de la produire artificiellement.

L’un des thèmes que le site explore activement depuis de nombreuses années est ce que Koert van Mensvoort appelle la société de simulation (http://www.nextnature.net/themes/society-of-simulations et http://www.nextnature.net/tag/society-of-simulations) qui s’appuie sur une réflexion de l’auteur qui date de 2009, mais qui demeure toujours aussi stimulante.

(...) Nous vivons dans un monde où les simulations et les imitations sont devenues plus réelles que la réalité elle-même, nous vivons dans le monde de l’”hyperréalité”, du faux authentique. En été, nous skions sur les routes et en hiver nous projetons de la neige sur les pistes. Les chirurgiens plastiques sculptent la chair pour la faire correspondre aux images retouchées des magazines… Nos outils façonnent la réalité et celle-ci est façonnée en retour. C’est d’ailleurs là tout l’enjeu de Next Nature, décrire comment notre empreinte culturelle transforme une nature définitivement perdue puisque nulle part elle n’échappe à la main de l’homme qui la façonne.

(...) L’ethnographe Sherry Turckle dans Life on the screen, ne disait pas autre chose, rappelle le philosophe et designer Stéphane Vial (@svial) dans son livre L’être et l’écran, comment le numérique change la perception. Nous sommes “de plus en plus à l’aise dans le fait de substituer des représentations de la réalité à la réalité”, c’est-à-dire avec le fait de considérer des réalités simulationnelles comme des réalités tout court. Les interfaces numériques, et notre consommation d’images qui vont avec, constituent une nouvelle matrice, une nouvelle forme où se coule notre perception.

(...) L’hypothèse du #virtuel, c’est-à-dire cette opposition entre réel et virtuel que nous avons longtemps pratiqué, et que Stéphane Vial démonte dans son livre (ce qu’il faisait également d’une manière plus synthétique encore dans Place de la Toile), n’aura été qu’un premier pas pour comprendre la manifestation induite par le #système_technique numérique.

Reste à comprendre ce que cette société de #simulation veut de nous. Ce qu’elle nous apprend. Si ce qu’elle nous apprend peut nous servir dans le monde physique (à l’image de cet enfant suédois qui utilisa son savoir-faire acquis dans World of Warcraft pour sauver sa soeur d’une attaque d’élan), ou si elle ne cherche qu’à le subvertir, qu’à le transformer, à l’image de ces faux réels que nous ne cessons d’inventer ? Qu’est-ce que cette société de simulation tente de nous faire accepter d’autre que “transformer le réel en objet fétiche” ? Que d’être nous-mêmes l’objet de cette simulation et donc d’une stimulation incessante ?

Où je découvre notamment le #marketing_olfactif ou #traçage olfactif des Google Glass
http://www.nextnature.net/2013/06/sniffer-meet-the-google-nose

The Sniffer – aka Google Nose – visualizes odors using a smell sensor, which is as good as a dog’s nose, and a glass in front of your eyes. You can identify the faintest scents and see the source of the odor on a distance. You can also admire the spectacular color play of your cooking. This is all possible; just ask Sniffer.
http://vimeo.com/67648163

La ceinture de grossesse, joli coup de marketing des couches Huggies pour faire sentir au père les mouvements de son enfant en même temps qu’il bouge dans le ventre de la mère
http://www.nextnature.net/2013/07/dads-can-experience-a-little-of-pregnancy

https://www.youtube.com/watch?feature=player_embedded&v=ciBnsy15xpU

Et les vitrines en #trompe_l'oeil montées pour donner une #illusion de prospérité lors du G8 en Irlande du Nord
http://www.theatlanticcities.com/politics/2013/06/bizarre-photos-fake-storefronts-northern-ireland-building-g8/5793

In two weeks, world leaders will convene for the G8 conference at a Fermanagh county golf course. So that the eyes of presidents and prime ministers aren’t burdened with scenes of pesky blight and unemployment on their way to and from the resort, the country is spending 2 million pounds to make abandoned storefronts look like real live businesses.
http://cdn.theatlanticcities.com/img/upload/2013/06/04/RTX10AJ7.jpg

Qui font écho au paysage urbain dépollué proposé comme fond de photo aux touristes à Hong Kong (toujours via Next Nature)
http://www.theguardian.com/world/shortcuts/2013/aug/25/hong-kong-not-let-pollution-ruin-snapshots

Hong Kong’s classic photo opportunity involves a trip out to Kowloon where you can capture your travelling companions against the panorama of Hong Kong Island. Sadly, the view is often obscured by the severe hazes the city experiences, thanks to trapped pollution, much of which wafts in from the factories and power stations of neighbouring Guangdong province. The solution? Tourists have started to pose in front of a fake backdrop – complete with dazzling blue sky.

https://image.guim.co.uk/sys-images/Guardian/Pix/pictures/2013/8/23/1377270541316/A-tourist-poses-in-front--010.jpg

La Place de la toile évoquée dans le papier est celle du 21 septembre dernier (#France_Culture)
http://www.franceculture.fr/emission-place-de-la-toile-l-etre-et-l-ecran-2013-09-21

Comment envisager philosophiquement la vie numérique ? Autour d’un ouvrage qui vient de paraître aux Presses universitaires de France : L’être et l’écran, comment le numérique change la perception. Un ouvrage qui pose nombre questions passionnantes, qui rejoignent souvent nos préoccupations ici dans « Place de la toile » : le rapport entre philosophie et technique, la manière dont nos perceptions sont affectées par le numérique, donc la question du réel et du virtuel, et puis, une question que pour le coup j’aborde rarement, celle du design.

http://media.radiofrance-podcast.net/podcast09/10465-21.09.2013-ITEMA_20526044-0.mp3

#audio #radio

September 20 2013

Wem soll Big Data dienen?

Je mehr Daten, desto besser – das ist der Ansatz von „Big Data”. Ein Konzept, das zunehmend auf Skepsis zu stoßen scheint. Aber nicht die Daten an sich sind das Problem, sondern wer sie nutzen kann und welche Regeln dafür gelten. Denn Big Data hat die Tendenz, die digitale Spaltung zu verstärken.

Hinter „Big Data” steckt ein großes Versprechen. In den Daten, die digitale Welt unablässig produziert, schlummere ein Wissen, das nur noch gehoben werden muss – indem diese gesammelt, zusammengeführt und ausgewertet werden. „Wired”-Chef Chris Anderson glaubte in einem vielzitierten Essay sogar, die statistische Auswertung von Daten werde bald wissenschaftliche Theorien ersetzen.

Solche Heilsversprechen haben sich – wenig überraschend – nicht bewahrheitet, auch wenn die Techniken des Data Mining tatsächlich die Wissenschaft verändern. Big Data ist aber primär ein wirtschaftliches Thema: Mehr Effizienz für Unternehmen, zielgerichtete Werbung oder Vorhersagen über den Markt, wenn etwa eine Supermarkt-Kette die Äußerungen in sozialen Netzwerken auswertet und ihr Sortiment entsprechend anpasst. „Big Data zu nutzen, wird für Unternehmen zum Schlüsselfaktor für Wettbewerb und Wachstum”, heißt es etwa in einer McKinsey-Studie.

Was ist „Big Data”? Zu groß für Excel

Anschaulich wird das in einem Video der Firma Sqrrl, die unter diesem Namen ein Data-Mining-Tool anbietet. Wir sehen ein Daten-Eichhörnchen, das stapelweise Daten gehortet hat, aber nicht zu nutzen versteht, erklärt der Sprecher. Denn Datenschutz und andere Regulierungen verhindern, dass es die Daten auswerten kann. So bleiben sie im Silo ungenutzt eingesperrt. Doch die Entwickler von Sqrrl haben ein Werkzeug ersonnen, mit dem die Daten angeblich nicht mehr im Silo lagern müssen:

Das Programm „Sqrrl” ist eine kommerzielle Weiterentwicklung des Programms „Accumulo”. Entwickelt hat es der US-Geheimdienst NSA, um große Datenmassen verwalten zu können. Heute steht „Accumulo” als freie Software bereit. Man kann sich das Programm wie einige riesige Tabelle vorstellen – nur dass die Tabelle so groß ist, dass sie nicht als Datei auf einem Rechner am Schreibtisch, sondern übers Internet verteilt gespeichert und bearbeitet wird. Eine weit verbreitete, etwas saloppe Definition von „Big Data” heißt dann auch: Alles, was zu groß für eine Excel-Tabelle ist.

Die „Cell Level Security”, die von den Entwicklern angepriesen wird, erwuchs aus den Anforderungen der Arbeit der NSA: Jede Zelle der Tabelle kann nach Geheimdienstanforderungen klassifiziert werden, also zum Beispiel eine Einstufung als „streng geheim”, „vertraulich” und so weiter erhalten. Damit soll der Schatz von Big Data auch in der freien Wirtschaft gehoben werden – auch wenn Datenschützer durch eine Funktion wie „Cell Level Security” keineswegs beruhigt sein werden.

Mit dem Programm und seinen Auswertungsmöglichkeiten könnten Kundentransaktionen, E-Mail-Verkehr oder Aktivitäten in sozialen Netzwerken überwacht und „verdächtiges“ Verhalten erkannt werden, heißt es in einer Broschüre (PDF) des Unternehmens. Der typische Ansatz dabei: Daten verschiedener Quellen lassen sich kombinieren, statistisch auswerten und korrelieren – und man schaut, was sich ergibt. Gibt es etwa interessante Muster, die weiterverfolgt werden können?

Erst sammeln, später auswerten

„Indem wir Datensätze zusammenbringen, konnten wir mit Accumulo Dinge in den Daten erkennen, die wir nicht entdeckt hätten, wenn wir sie uns unter diesem und jenem Gesichtspunkt angesehen hätten“, erklärte Dave Hurry, Chef der Informatikforschungsabteilung der NSA, der Information Week. Es ist ein Ansatz, der sich im Kern nicht groß von demjenigen unterscheidet, den Google-Forscher vor einigen Jahren in einem Aufsatz über Sprachverarbeitung (PDF) vorschlugen, wenngleich mit anderem Ziel: „Gehen Sie raus, sammeln Sie ein paar Daten und schauen Sie dann, was man damit machen kann“.

Beide Zitate bringen den Paradigmenwechsel zu „Big Data” auf den Punkt. Datenschützer standen dem Konzept lange eher reserviert gegenüber. Denn mit den hergebrachten Grundprinzipen des Datenschutzes in Europa steht der Ansatz auf dem Kriegsfuß. Da wären etwa die Gründsätze der Einwilligung und der Zweckbindung, nach der Nutzer der Sammlung ihrer Daten zustimmen müssen und diese nicht für alle möglichen, sondern nur für genau definierte Zwecke verwendet werden können. Oder der Grundsatz der Erforderlichkeit: Daten sammeln, und später schauen, was man damit machen kann, das geht nicht.

Datenschutz entdeckt Big Data

In letzter Zeit scheint sich ein gewisser Wandel zu vollziehen: Thilo Weichert etwa, Chef des Schleswig-Holsteiner Datenschutzzentrums USD, betont, dass auch „Big Data”-Auswertungen datenschutzkonform möglich seien – wenn etwa die Daten soweit anonymisiert würden, dass sie Rückschlüsse auf einzelne Personen nicht mehr erlaubten. Dahinter steht wohl die Einsicht, dass sich der Trend zu immer größeren Datensammlungen kaum mehr stoppen lässt, weil technische Entwicklung und wirtschaftliche Verwertungsmöglichkeiten stärker wiegen. Weicherts Behörde hat etwa einem System zur Kassenauswertung eines Discounters oder Targeting-Systemen in der Online-Werbung ihr Gütesiegel zuerkannt.

Dennoch stößt „Big Data” nach wie vor auf Skepsis – was man gut oder schlecht finden kann. Glaubt man einer Untersuchung im Auftrag der Deutschen Telekom, dann ist infolge der Enthüllungen im Überwachungs- und Spionageskandal in der Bevölkerung die Bereitschaft zurückgegangen, an umfangreichen Datensammlungen und -auswertungen teilzunehmen, egal ob es staatliche oder privatwirtschaftliche Sammlungen sind. So gaben etwa im Juni noch eine knappe Mehrheit der Befragten an, sie fänden es in Ordnung, wenn Unternehmen Diskussionsforen im Internet auswerten, um Produkte zu verbessern. Im August zeigten sich 57 Prozent, also die Mehrheit der Befragten, kritisch.

Die digitale Spaltung

Die Diskussion über Chancen und Risiken von „Big Data” ist allerdings nicht neu: Danah Boyd, Internetforscherin bei Microsoft, stellt eine neue digitale Spaltung fest. „Wer hat Zugang? Für welche Zwecke? In welchem Zusammenhang? Mit welchen Begrenzungen?” fragt sie in einem Aufsatz. Und der Medienwissenschaftler Lev Manovich sah drei „Daten-Klassen” am Entstehen: Zu den Datenproduzenten gehöre praktisch jeder, der ein Handy besitzt oder das Web benutzt. Es folge die Klasse derjenigen, die die Mittel zum Datensammeln besitzen, noch kleiner aber sei die Gruppe derer, die über Zugang und Fähigkeiten zur Auswertung verfügten.

Nach den Erkenntnissen über Prism, Tempora & Co. lässt sich das Modell um eine weitere Klasse ergänzen: Zwar sitzen IT-Riesen wie Amazon oder Google bereits auf umfangreichen Datenbergen. Die am weitesten entwickelten Geheimdienste aber bilden eine Daten-Superelite. Sie können sich aussuchen, bei welchen IT-Unternehmen sie sich anstöpseln oder wo Internetknoten angebohrt werden. Aber auch innerhalb der Staaten, zwischen Regierungen und Behörden ist eine Spaltung in „Daten-Begüterte” und „Daten-Habenichtse” entstanden, wie der Internet-Rechtsprofessor Peter Swire konstatiert. Wer im technischen Wettrennen vorne liegt, hat Zugang zur Cloud, in der ein immer größerer Teil der Informationen lagert, die früher an anderen Stellen abgegriffen wurden.

Die Autoren Viktor Mayer-Schönberger und Kenneth Cukier sprechen sogar vor einer „Diktatur der Daten”, in der „wir uns von Daten derart regieren lassen, dass es mehr Schaden als Nutzen bringt”. Aber nicht „die Daten” regieren uns, sie sind ein Mittel für verschiedene Zwecke. Wer Zugang zu Daten hat und wer nicht, wer sie wann und wo erhebt, welche Regeln fürs Sammeln und Verarbeiten gelten, welche Rechte Nutzer haben, wer die Mittel zum Auswerten hat – all das wird darüber entscheiden, ob die Segnungen von „Big Data” nur ein Versprechen bleiben oder zum Nutzen für viele eingesetzt werden können.

September 15 2013

Imprimantes 3D : illusoire émancipation par la technologie

Depuis peu, des machines électroniques capables de produire des objets, fonctionnant à la manière d'imprimantes en trois dimensions, sont accessibles au grand public. Les partisans de ces outils de bricolage technologique, qui y voient les ferments d'une nouvelle révolution industrielle, oublient (...) / Capitalisme, Histoire, Industrie, Technologie, Travail - 2013/01
Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl