Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 10 2014

Open Science Radio erklärt Open Access

Das Open Science Radio ist ein Podcast von Matthias Fromm und Konrad Förstner, der sich schon länger mit dem freien Zugang zu wissenschaftlichem Wissen beschäftigt. Jetzt haben sich die Macher etwas grundsätzlicher mit dem Thema beschäftigt.

Herausgekommen ist eine ausführliche Sendung, die die Geschichte der Open-Access-Bewegung rekapituliert, grundlegende Ansätze und Projekte vorstellt und unterschiedliche Lizenzen und Geschäftsmodelle erläutert.

Wer einmal etwas ausführlicher ins Thema Open Access einsteigen will, dem kann man die zweistündige Folge (MP3, Feed) nur empfehlen.

Reposted byreturn13towser

January 21 2014

Open-Access-Publizieren mit dem universitätsweiten Repositorium Phaidra

Die Archivierungsplattform Phaidra wird seit 2008 an der Universität Wien verwendet, um digitale Objekte über Sprach- und Ländergrenzen online zur Verfügung zu stellen. Sandra Blumesberger beschreibt das Projekt.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Phaidra (Permanent Hosting, Archiving and Indexing of Digital Resources and Assets) wurde von der Universitätsbibliothek Wien gemeinsam mit dem Zentralen Informatikdienst der Universität entwickelt und ist derzeit an mehreren in- und ausländischen Institutionen, unter anderem am Fonds zur Förderung wissenschaftlicher Forschung (FWF) in Verwendung.

Das Programm basiert auf der Open-Source-Software Fedora, die für die Archivierung digitaler Objekte entwickelt wurde. Phaidra macht eine langfristige Sicherung wertvoller digitaler Inhalte möglich und ist seit 2008 online. Objekte in allen Formaten können – mit einem dauerhaften Identifier, Lizenzen und Klassifikationen versehen – archiviert werden.

Mit diesem Repository ist es ebenfalls möglich, sehr rasch und sicher zu publizieren. Sämtliche MitarbeiterInnen, Studierende und Personen, die einen Account der Universität Wien besitzen, haben die Möglichkeit, Objekte, versehen mit einem Zeitstempel und erläuternden Metadaten, zu archivieren und, soweit rechtlich möglich, weltweit freizugeben. Wertvolle Sammlungen, Archivmaterialien, Bücher, Bilder, Texte, Videos und Audiodokumente können sehr rasch verfügbar gemacht werden.

Weiterverwendung erlaubt

Die angegeben Lizenzen garantieren jede Weiterverwendung, die der „Owner“ – so wird jene Person genannt, die das Objekt in Phaidra hochlädt – des Objekts wünscht. Aber auch die Verwendung von offenen Standards und Schnittstellen erlaubt es, die Objekte in andere Kontexte zu stellen (mehr unter phaidraservice.univie.ac.at).

So wurden zum Beispiel im Rahmen des EU-Projekts Europeana Libraries zahlreiche Bilder des Instituts für Kunstgeschichte, Nachlassmaterialien, Bücher, Inkunabeln, Videos der Universitätsbibliothek und Materialien des Universitätsarchivs für alle zugänglich ins Internet gestellt.

Das Projekt „E-Books on Demand“ ermöglicht es, rechtefreie Büchern über das für Phaidra entwickelte Betrachtungsprogramm digital bereit zu stellen. Phaidra-User haben zusätzlich die Möglichkeit, mit dem in Phaidra angebotenen Phaidra-Importer selbst Bücher zu erstellen und über den Bookviewer anzubieten.

Phaidra ist eingebunden in die EU-Projekte OpenAIRE und OpenAIREplus. Das bedeudet, dass österreichweit alle Personen, die in einem Forschungsprojekt im Rahmen des FP7-Rahmenprogramms der EU tätig und vertraglich verpflichtet sind, ihre Ergebnisse offen zugänglich zu publizieren, Phaidra nutzen können.

Rechtefragen behindern Verfügbarkeit

Die Möglichkeit, die Objekte mehrsprachig beschreiben zu können, vermindert weitere Barrieren; ein weltweiter Austausch von wissenschaftlichen Informationen ist deshalb garantiert. Dennoch hat diese Freiheit Grenzen, nämlich dann, wenn die Rechte an einem Objekt nicht geklärt sind.

Laut den Nutzungsbedingungen von Phaidra dürfen nur Objekte archiviert werden, an denen der Owner die Rechte besitzt. Bei multimedialen Objekten, bei denen von allen Beteiligten die Rechte eingeholt werden müssten, kann dies ein langer Prozess sein.

Bei Materialien, die in der Lehre eingesetzt werden, besitzen die LehrveranstaltungsleiterInnen nicht immer sämtliche Rechte. Das bedeutet, dass diese Materialien nicht in Phaidra archiviert werden dürfen. Auch Sicherheitskopien von Objekten, deren Rechte nicht gänzlich geklärt sind, dürfen nicht in Phaidra archiviert werden. Eine Lockerung der derzeitigen Gesetze würde die Verbreitung des Open-Access-Gedankens sehr unterstützen.

Während in den Naturwissenschaften bereits einige Modelle des Open-Access-Publizierens in Verwendung sind, sind die Vorbehalte in den Geisteswissenschaften zum Teil noch sehr groß. Hier bedarf es eines Umdenkungsprozesses – die Werkzeuge wären jedenfalls schon vorhanden.

Susanne Blumesberger ist Germanistin und seit 1999 Mitarbeiterin des Projekts „biografiA. Datenbank und Lexikon österreichischer Frauen“ am Institut für Wissenschaft und Kunst an der Unversität Wien und seit 2007 zuständig für Customer Management für Phaidra, das digitale Langzeitarchivierungssystem der Universität Wien.

January 15 2014

Big Data in der Medizin

In Blutwerten, DNA-Profilen und Fallstudien könnten sich medizinisch nutzbare Erkenntnisse verbergen – wenn man sie im großen Stil erfasst und analysiert. Allerdings wirft „Big Data“ in der Medizin auch Fragen auf – von der Rolle der Ärzte bis zum Datenschutz.

Ein Forscherteam am Institute of Technology der University of Ontario überraschte die 2010 Fachwelt mit einer Beobachtung. Anders als man das intuitiv vermuten würde, stabilisieren sich bei Frühgeborenen zunächst die Vitalfunktionen, bevor es zu einer schweren Infektion kommt.

Möglich machte diese Erkenntnis eine Software, die pro Sekunde 1.260 Datensätze von Patienten erfasst – von der Atmung bis zum Sauerstoffgehalt im Blut. Erst die Zusammenführung und Analyse der gewaltigen Mengen an Körperdaten brachte die zuvor unbekannten Krankheitssymptome zu Tage. „Sie können es nicht mit dem bloßen Auge sehen, aber der Computer kann es“, erklärt Forschungsleiterin Carolyn McGregor. Ärzte können anhand der Daten nun früher gegen drohende Infektionen vorzugehen.

McGregors Untersuchung ist ein beliebtes Beispiel für den Einzug der „Big Data“-Forschung in die Medizin. Gemeint sind damit Verfahren, bei denen große Datenmengen aus vielfältigen Quellen erfasst, verteilt, gespeichert, durchsucht, analysiert, miteinander in Beziehung gesetztund visualisiert werden.

Im Gesundheitswesen sollen sie helfen, Krankheiten früher und besser zu erkennen, zu therapieren oder gar zu vermeiden – so zumindest die Vision von Wissenschaftlern und Unternehmen. Der Internetforscher Viktor Mayer-Schönberger (Universität Oxford) ist sich bereits sicher, Big Data helfe in Zukunft „ganz unmittelbar Menschenleben zu retten“. Doch wie genau macht Big Data das?

Zusammenhänge erstmal beobachten

IT-Technik ist in der Medizin nichts Neues. Charakteristisch für Big-Data-Analysen ist allerdings, dass sie den üblichen wissenschaftliche Arbeitsweg umdrehen können. Klassischerweise stellen Forscher eine Hypothese über ursächliche Zusammenhänge auf und überprüfen sie mit statistischen Verfahren. Doch die gezielte Datensammlung ist aufwendig und kostspielig. Also gehen die Forscher normalerweise nur einer begrenzten Zahl von Hypothesen nach, und beschränken die Zahl der Parameter. Sie fragen etwa, ob die Wirkstoffe X, Y, Z – wie theoretisch vorhergesagt – einen Einfluss auf die jeweilige Krankheit  haben.

Big Data-Verfahren ermöglichen dagegen den umgekehrten Weg – von den Daten zur Hypothese. Sie setzen beim immer größer werdenden Datenschatz an, der beispielsweise in Millionen von elektronischen Krankenakten oder Umweltregistern steckt. Big-Data-Ansätze folgen der Devise: Je größer und vielfältiger die Datenmenge ist, und je schneller sie anfällt, desto besser. Ermöglicht wurde diese Entwicklung erst durch neue, kostengünstige Techniken zur Datensicherung und -auswertung.

Die Forscher untersuchen die Daten mit Hilfe von Algorithmen automatisiert nach Zusammenhängen. Im besten Fall entdecken sie so Korrelationen, nach denen sie gar nicht gefragt hatten – wie im Fall der neu entdeckten Infektionssymptome bei Frühgeborenen. „Der medizinische Forscher muss nicht selbst Hypothesen bilden und diese dann in den Daten testen, sondern bekommt aus den Daten belegbare Hypothesen präsentiert und kann sie inhaltlich bewerten“, erklärt Stefan Rüping, Experte für Data Mining und Big Data Analytics am Fraunhofer-Institut Intelligente Analyse- und Informationssysteme (IAIS). „Der neue Ansatz besteht also darin, die Phantasie des Forschers beim Finden neuer Fragestellungen durch Datenintelligenz zu ergänzen.“

Die Hoffnungen in dieses Data Mining sind groß. Datenanalysen im großen Stil könnten beispielweise preisgeben, wie bestimmte Gene und Blutwerte mit Krankheiten wie Alzheimer, Krebs oder Schizophrenie zusammenhängen.

Handeln, ohne zu wissen, warum?

Allerdings liefern die Big-Data-Analysen keine Erklärung für die Zusammenhänge, die sie zu Tage fördern. Umstritten bleibt die Frage, inwieweit Mediziner sie zur Grundlage ihres Handels machen sollten, bevor die Ergebnisse auch kausal begründbar sind.

Mit Blick auf die Segnungen von Big Data verweist der Internetforscher Mayer-Schönberger beispielhaft auf die Grippe-Vorhersage der Suchmaschinen-Firma Google („Google Flu Trends“). Das Unternehmen fand rückblickend Zusammenhänge zwischen dem Verlauf von Grippewellen und den Internetsuchen in den betroffenen Gebieten. Daraus entwickelte das Unternehmen Algorithmen, die neue Grippewellen teilweise erstaunlich genau und vor allem weit schneller vorhersagen als übliche Prognoseverfahren.

Mayer-Schönberger zufolge können Gesundheitsämter die Google-Prognose schon heute nutzen, etwa um bestimmte Regionen rechtzeitig mit Impfstoff zu versorgen. Dazu müssten sie nicht einmal wissen, welcher kausale Zusammenhang zwischen den Suchabfragen und der Grippe besteht. „Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können“, so Mayer-Schönberger im Interview mit iRights.info. Eben diesen Paradigmenwechsel in der Forschung hält er für eine Revolution.

Zwar beziehen Länder wie die Vereinigten Arabischen Emiraten Google Flu Trends bereits in ihr Frühwarnsystem für Epidemien ein. Allerdings wurden zuletzt Zweifel an dem Verfahren laut, das vielerorts stellvertretend für die Big-Data-Segnungen in der Medizin steht. So schätzte die Analyse-Software die Zahl der Grippe-Infizierten in den USA im Januar 2013 als etwa doppelt zu hoch ein,  wie das Wissenschaftsmagazin „Nature“ berichtet.

Forscher vermuten, dass die Medienberichterstattung zur Grippe sich auf das Suchverhalten der Internetnutzer ausgewirkt und so die Prognose verzerrt. Google Flu Trends könnte die Ergebnisse sogar selbst beeinflussen, wenn etwa Medien über Googles Grippewarnungen berichten, was wiederum mehr Menschen dazu verleitet, die Krankheitssymptome zu googlen.

Grundlagenforschung bleibt wichtig

Grundsätzlich mahnt der Wissenschaftstheoretiker Klaus Mainzer (TU München) mit Blick auf Big-Data-Erkenntnisse in der Medizin: „Erst eine gründliche Grundlagenforschung erklärt die kausalen Zusammenhänge und garantiert damit nachhaltige Diagnosen und Therapien.“ Speziell bei den Big-Data-Algorithmen bestehe die Gefahr, dass man nur noch auf ihre Schnelligkeit setze. „Es wäre fatal, wenn aus schneller Profitgier die Bedeutung der Grundlagenforschung unter die Räder käme.“ Auch der Literaturwissenschaftler Manfred Schneider warnt davor, den Erkenntnisgewinn von rein statistischen Zusammenhängen zu überschätzen. „Auch die Korrelation des Bierkonsums in Europa mit der Häufigkeit von Verkehrsunfällen in Bangladesh an Wochenenden ergäbe einen Befund.“

Ängste vor rein datenbasierten Fehldiagnosen und -therapien hält Stefan Rüping vom IAIS indes für unbegründet. Die Vorschriften seien sehr strikt. Neues medizinisches Wissen müsse immer noch einmal unabhängig in kontrollierten Studien verifiziert werden. „Die relevante Frage ist allerdings nicht, ob eine neue Diagnosemethode oder Therapie fehlerfrei ist – das ist in der Medizin üblicherweise nicht der Fall – sondern ob sie klar besser ist als die beste bekannte Standardbehandlung.“ Darüber hinaus sei ein rein statistisches Vorgehen ohne inhaltliches Verständnis in der Datenanalyse immer eine schlechte Idee. „Die Entwicklung neuerer, besserer Datenanalyseverfahren ist in vielen Fällen eher eine Evolution statt eine Revolution.“

Der gläserne Patient

Neben der Entdeckung von Zusammenhängen verspricht Big Data in der Medizin eine maßgeschneiderte Behandlung. Indem konkrete Fälle mit großen Datenmengen – etwa über Krankheitsverläufe – abgeglichen werden, sollen bessere Diagnosen und Medikationen möglich sein. Beispielsweise nutzt das Memorial Sloan-Kettering Cancer Center in New York den IBM-Supercomputer „Watson“ zur Entwicklung einer Software, die personalisierte Krebs-Therapien vorschlägt. Dazu verarbeitet Watson zum Beispiel 1,5 Millionen Patientenakten und 600.000 Forschungsberichte und  Fachartikel. Auch am Hasso-Plattner-Institut in Potsdam suchen Forscher nach Methoden, das weltweite medizinische Wissen „am Krankenbett“ verfügbar zu machen.

Der Wissenschaftstheorethiker Mainzer ist sich bereits sicher: „Ohne den Einsatz hochentwickelter Algorithmen wird die Medizin in Zukunft nicht mehr auskommen.“ Das medizinische Wissen wachse täglich in unvorstellbarer Weise. Allein über Diabetes gebe es circa 400.000 Fachartikel. „Selbst ein Spezialist kann diese Artikel in einem kurzen Leben nicht bewältigen“, so Mainzer. „Hier bedarf es intelligenter Software, die über semantisches Verständnis verfügt und die jeweils relevanten Informationen für eine Diagnose und Therapie herausfiltert.“

Prinzipiell hält es Mainzer für möglich, den Menschen im Sinne einer personalisierten Medizin eines Tages in allen Details zu erfassen. „Der gläserne Patient, der bis auf die molekulare Ebene individuell durchleuchtet wird, ist aus Sicht der Rechnertechnologie möglich.“ Bei Krankheitsverläufen wie Krebs wäre ein dauerndes Screening auch notwendig, da Krebstumore und Krebszellen sich genetisch dauernd verändern und die Therapien angepasst werden müssten. Allerdings werde es Zeit und sehr viel Geld kosten, alle ungeheuer komplexen Details des menschlichen Organismus bis auf Molekularebene zu erforschen.

Sind Maschinen die besseren Ärzte?

Schon heute werfen computergestützte Diagnosen und Therapievorschläge die Frage nach der künftigen Rolle der Ärzte auf. Der US-Investor Vinod Khosla provoziert den Berufsstand mit seiner These, Computer beziehungsweise „Dr. Algorithmus“ würden künftig 80 Prozent der bisherigen Tätigkeit eines Arztes überflüssig machen.

Der Wissenschaftstheoretiker Mainzer warnt dagegen davor, sich allzu sehr auf scheinbar „objektive“ Daten und Verfahren zu verlassen. „Warum haben Ärzte eine Wissenschaft wie die Medizin studiert, wenn sie am Ende nur noch Daten ablesen und zusammenstellen?“ so Mainzer. „Die Einordnung und das Verständnis der Daten erfordert die medizinische Urteilskraft des Arztes.“ Hierzu gehörten auch psychologisches und soziales Verständnis für die Situation eines Patienten, das nicht in Algorithmen abbildbar sei.

Stefan Rüping vom IAIS sieht statt einer Konkurrenz von Mensch und Maschine eher eine Koexistenz. „Dem Arzt werden automatisch deutlich mehr relevante Informationen zur Verfügung stehen, auf denen er seine Entscheidung stützen kann – die er aber selbstverständlich weiterhin selbst trifft.“

Probleme bei der Datenbereitstellung

Noch liegt die Erfüllung vieler Big-Data-Träume in weiter Ferne. Eine erste Hürde besteht in der Qualität und der technischen Bereitstellung der Daten. Beispielsweise liegen die theoretisch nutzbaren Datenmengen oftmals dezentral und in uneinheitlichen Dateiformaten vor – wenn sie überhaupt schon digitalisiert sind.

„Vielfach wird noch mit Papierakten gearbeitet, elektronische Patientenakten können selbst im selben Krankenhaus zwischen verschiedenen Abteilungen sehr verschiedene Formate haben und die Semantik der Daten ist durch automatisierte Verfahren nur sehr schwer zu verstehen“, erklärt Stefan Rüping zur Lage in Deutschland. Ein Großteil der Arbeit in klinischen Studien liege darin, die Daten sinnvoll und korrekt einzugeben. „Erst danach kann sinnvoll eine wie auch immer geartete Datenanalyse ansetzen.“

Auch in den USA macht die Datenqualität Probleme. Man sei bei der Datenerfassung immer noch auf 100 Jahre alte Transkriptionstechnik angewiesen, sagte jüngst der Mediziner Douglas Johnsten (Cleveland Clinic) auf einem Podium zur Frage, woran Big Data in der Medizin bisher scheitert. „Ich sehe, dass die Ergebnisse mangelhaft sind, weil Müll raus kommt, wenn Müll rein geht.“ Außerdem stellt sich die Frage, welchen Daten man trauen kann: Ob Daten etwa aus Studien der Pharmaindustrie immer zuverlässig sind, bleibt problematisch.

Zumindest im Bereich der Krebsforschung will Deutschland vorangehen. Mitte 2013 startete der Aufbau des flächendeckenden klinischen Krebsregisters. Nach einheitlichen Kriterien werden darin die Daten der Krebspatienten in Deutschland gesammelt, von der Diagnose über die Therapie bis zu Rückfällen, Genesung und Tod.

Großbritannien geht noch einen Schritt weiter, indem es mit dem Projekt Clinical Practice Research Datalink (CPRD) die Krankenakten aller Einwohner zentral sammelt und mit anderen Registern wie Gen-Datenbanken und Umweltregistern verknüpft. Der Datenschatz soll Wissenschaftlern anonymisiert zur Verfügung stehen.

Rechtliche Hürde: Datenschutz

Ebenfalls zur Debatte steht der rechtliche Rahmen für Big-Data-Forschung in der Medizin. Daten zur Gesundheit eines Menschen sind als „sensible Daten“ vom Bundesdatenschutzgesetz besonders geschützt. IAIS-Experte Rüping entwickelt im Rahmen des EU-Projekts EURECA Techniken (unter dem Stichwort Privacy-Preserving Data Mining), die im Einklang mit dem Datenschutz stehen, und beispielsweise die Anomymisierung personenbezogener Daten garantieren sollen.

Auch in Fällen, in denen die Patienten der Datenverwendung zustimmen müssen, bleiben offene Fragen. „Ein Problem ist, dass ein Patient um rechtlich und ethisch einwandfrei der Verarbeitung seiner Daten zustimmen zu können, verstehen können muss, was mit seinen Daten passiert, welche Ergebnisse zu erwarten sind und welches Risiko von Missbräuche potentiell besteht“, so Rüping. „Dies ist bei sehr komplexen Verfahren der Datenanalyse sehr schwierig.“

Krankheitsrisiken: Fluch der Erkenntnis?

Schließlich wirft Big Data in der Medizin eine Reihe von ethischen Fragen auf. Das neue Wissen um Krankheitsrisiken könnte beispielsweise Versicherungen dazu verleiten, von Riskopatienten höhere Prämien zu verlangen. „Das ist eine konkrete Gefahr“, meint der Internetforscher Mayer-Schönberger. „Hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.“ Auch die Frage nach der Prävention könnten Big-Data-Erkenntnisse neu aufwerfen. Wäre es vertrebar oder sogar geboten, gesunden Patienten vorsorglich Medikamente zu geben, weil etwa das Genprofil hohe Krankheitsrisiken anzeigt?

Schließlich steht zur Debatte, wem eine kostenintensive, personalisierte Medizin zu Gute kommt. Kann die Gesellschaft schwer kranken aber armen Patienten die Segnungen einer teuren High-Tech-Medizin verweigern? „Hier werden ethische und rechtliche Probleme der Verteilungsgerechtigkeit auf uns zukommen, von denen wir uns heute noch keine Vorstellung machen“, meint der Wissenschaftstheoretiker Klaus Mainzer.

Dem Medizinsektor ergeht es also so wie anderen gesellschaftlichen und wirtschaftlichen Bereichen:  Big Data löst große Hoffnungen aus, aber auch Ängste.

January 14 2014

Die Urheberin, das All-Eins und die Schultern von Riesen

Welche Rolle spielt das Urheberrecht in der Wissenschaft? Und wie wichtig ist es, dass die bisher gewonnenen Erkenntnisse, auf denen weitere Forschung aufbauen kann, frei verfügbar sind? Einige Betrachtungen von Nicole Lieger.

U-TonEin Debattenbeitrag im Rahmen der Sendereihe „U-Ton. Urheberrecht im Digitalen Zeitalter“.

Das Aufbauen neuer Forschung auf vorhandenen Erkenntnissen, die Entwicklung neuer Gedanken aus bereits Geschriebenem heraus sind zweifelsohne Kernelemente der wissenschaftlichen Dynamik. Und während dieses Teilen und Weiterverwenden den Lebensnerv der Wissenschaften bildet, halten sich auch andere Kräfte, die diese Dynamik erschweren oder behindern.

Natürlich sind die Zusammenhänge hierbei vielfältig und komplex. Ich möchte nur einen Faktor herausgreifen und ein wenig näher beleuchten. Dieser Faktor ist ein auf der philosophischen Grundebene angesiedelter – nämlich bei dem Verständnis des Selbst und der Natur des Denkens. Widergespiegelt findet es sich gut in der Idee des „Urhebers“. Diesen kann man sich, in Anlehnung an das romantische Bild von Descartes, als einsamen Denker vorstellen, als Individuum, das mit einer Tabula rasa beginnt, das ganz aus sich heraus schöpft und ein „eigenes“ Werk hervorbringt. In der Art, wie Urheberrecht heute diskutiert wird, scheint so ein Bild oftmals mitzuschwingen.

Descartes: The man who tried to be an island? Rene Decartes, Portrait von Frans Hals.

Descartes: The man who tried to be an island?, Rene Decartes, Portrait von Frans Hals via Wikimedia Commons.

Ein anderer Zugang würde mit einer ganz anderen Idee von Individuum und von schöpferischem Wirken beginnen; und daher auch zu ganz anderen – rechtlichen, ökonomischen – Regelungen und Systemen führen.Hier wird der Mensch in seinem geistigen Leben und in seinem „ich“ verstanden als etwas, was erst durch Begegnung mit anderen Menschen und durch Sozialisation entsteht: Allein und unbeeinflusst von anderen wäre der Mensch sprachlos wie Kaspar Hauser.

Das geistige Innere des Menschen entsteht also in Begegnung mit anderen, und die Einflüsse, die „mich“ und „mein Denken“ hervorbringen, sind unglaublich mannigfaltig und verwoben. Und die Grenze ist nicht klar zu ziehen: was sind „die Gedanken anderer in mir“, was sind „meine Gedanken“? Als geistige Wesen gehen wir – bei dieser Betrachtungsweise – alle ineinander über.

Beispiel Sprache: Das Eigene und das Gemeinsame

Ein gutes Beispiel dafür ist Sprache. Wenn ich schreibe, und dabei meine ureigensten Gedanken ausdrücke, verwende ich die deutsche Sprache. Die ureigen meine sind, die aber Millionen Menschen vor mir und um mich geprägt und an mich weitergegeben haben. So wie nun ich sie präge und gleichzeitig weitergebe. Genauso ist es mit dem Inhalt meiner Gedanken: Ich bin ein Kind der Moderne, und der Postmoderne. Ich drücke – ganz individuell – die Gedanken aus, die rund um mich und daher in mir vorhanden sind. Wo fängt „mein Individuelles“ an, wo hört es auf? Lässt sich das feststellen? Wäre das überhaupt wichtig?

Statt zu fragen: „Ist dieser Gedanke von dir oder von mir?“ könnten wir auch vorrangig fragen: „Ist dies ein hilfreicher Gedanke? Wollen wir mit dem weitermachen?“

„Wer hat’s zuerst gesagt?“ ist vielleicht kein hilfreicher Fokus.

Jedes anregende, kreative Gespräch verliert sofort den Esprit, wenn es sich vom Gesprächsgegenstand wegbewegt hin zum Thema: „Das hab jetzt aber ich gesagt!“ – „Ja, aber das ich!“ – „Ja, aber nur, weil vorher ich das gesagt habe!“. Müßig, oder? Tatsächlich, ein Wort gibt das andere. Und selbst wenn mein Beitrag sich nicht an andere anlehnt, sondern diesen sogar direkt widerspricht: Hat sich mein Gedanke vielleicht nur im Formulieren dieses Widerspruchs gebildet und ist daher genauso dem Gemeinsamen, der Begegnung entsprungen?

Viele Einzelimpulse ergeben ein Ganzes

In diesem Bild liegt der Fokus auf dem gemeinsamen geistigen Feld, das heterogen und dynamisch ist und sich durch das Zusammenspiel vieler Einzelimpulse weiterentwickelt. Dieses Bild von menschlichem Denken entwirft etwa auch der Quantenphysiker David Bohm in seinen Texten zu Dialog. Ähnlich sind auch die Grundlagen von systemischen (Familien-)Aufstellungen, oder Grundstränge buddhistischer Philosophie, wie etwa von Thich Nhat Hanh mit dem Begriff Intersein beschrieben.

Von diesem Zugang her kommend könnte man also meinen, dass es kaum möglich ist, „meine Gedanken“ von „deinen Gedanken“ zu trennen, und dass es insgesamt eher eine traurige Zeitverschwendung ist, sich darauf zu konzentrieren.

Damit wir uns möglichst frei dem Wesentlichen zuwenden können, sollten wir daher unsere Systeme so ausrichten, dass sie nicht zu sehr von der Beantwortung der Frage „Wer hat’s zuerst gesagt?“ abhängig sind.

Ruhm, Ehre, Vertragsverlängerung

Dies hat einige sehr interessante Implikationen für die akademische Welt, wo derzeit Ruhm, Ehre und Vertragsverlängerung verdächtig stark davon abhängig sind, wer was zuerst gesagt hat.

Welche Regeln und Systeme – rechtlich, ökonomisch und so weiter – uns einfallen, welche wir aufbauen, hängt unter anderem davon ab, welches Bild von Selbst und Wirklichkeit wir als Ausgangspunkt im Hinterkopf haben. Agiere ich – bewusst oder unbewusst – mit dem Bild des einsamen Denkers und Forschers, der, ganz alleine und aus sich heraus, Gedanken und Erfindungen hervorbringt und daher deren „Urheber“ ist?

Oder sehe ich die gedankliche Welt im wesentlichen als eine verwobene, wo ein Wort das andere und eine Erfindung die nächste gibt, in einer viel subtileren Art als eine Fußnote je ausdrücken könnte? Wo wir alle unsere Gedanken wechselseitig beeinflussen und hervorbringen, wo Zeitgenossinnen und vergangene Generationen in mir und aus mir sprechen, wo mein individueller Ausdruck genau Teil eines kollektiven Diskurses und nur deswegen in dieser Form entstanden ist? In diesem Bild sind Gedanken uns allen gemein – und daher auch frei?

Nicole Lieger arbeitet an der Entwicklung neuer Formen politischen Arbeitens, die Vision, Wertschätzung, Kooperation und Freude ins Zentrum rücken und die sich die Möglichkeiten eines konstruktivistischen Weltverständnisses zunutze machen. Sie hat für Amnesty International in Brüssel gearbeitet, war Leiterin des Ludwig-Boltzmann-Instituts für Menschenrechte und lehrte jahrelang an der Universität Wien, derzeit an der Universität Innsbruck.

Reposted byFreeminder23 Freeminder23

January 02 2014

Auch 2014 wird Open Access auf der Tagesordnung stehen

Zehn Jahre nach der Berliner ­Erklärung über den ­offenen Zugang zu wissenschaftlichem Wissen ist Open Access im politischen Raum angekommen. Ein Zweitveröffentlichungsrecht im Urheberrecht soll zukünftig die Position von Forschenden gegenüber Verlagen stärken. Doch es gibt weiter viel zu tun.

Vor zehn Jahren wurden die „Berliner Erklärung über den offenen Zugang zu wissenschaftlichem Wissen“ von führenden Wissenschaftsorganisationen verabschiedet. In dem visionären Statement wird das Potenzial des Internets für die Wissenschaft skizziert. Zentrales Anliegen der Erklärung: Publikationen und Forschungsdaten sollen über das Netz entgeltfrei zugänglich und offen nachnutzbar gemacht werden.

Die „Berliner Erklärung“ war 2003 eine Antwort auf einen dysfunktionalen Publikationsmarkt, in dem die finanziellen und rechtlichen Bedingungen der Informationsversorgung durch Verlage diktiert werden. Ein Zustand, der die Innovationsfähigkeit der Wissenschaft bis heute bremst. Denn Wissenschaft lebt von Kommunikation. Der Zugriff auf die Ergebnisse der Scientific Community ist eine unabdingbare Grundlage für den wissenschaftlichen Fortschritt.

Doch selbst die reichsten Hochschulen der Welt, wie die Universität Harvard, sind nicht mehr in der Lange, die ständig steigenden Kosten für wissenschaftliche Zeitschriften zu tragen. Open Access, der offene Zugang zu qualitätsgesichertem wissenschaftlichem Veröffentlichen, will diese Situation überwinden. Für jeden Interessierten soll es möglich sein, die Ergebnisse der öffentlich geförderten Forschung zu rezipieren. Darüber hinaus eröffnet Open Access der digitalen Wissenschaft neue Möglichkeiten im Umgang mit Wissen und Information.

180 Open-Access-Repositorien nur in Deutschland

Auch wenn noch immer viele wissenschaftliche Ergebnisse auf kostenpflichtigen Verlagsplattformen versteckt sind, hat sich seit der Verabschiedung der Berliner Erklärung einiges getan. Nach einer Studie der Europäischen Kommission sind bereits bis zu 50 Prozent der wissenschaftlichen Publika­tionen frei im Netz verfügbar. Alleine in Deutschland werden 180 Open-Access-Repositorien an wissenschaftlichen Instituten betrieben. Auf diesen Datenbanken werden­ Publikationen, die in einer Verlagsveröffentlichung erschienen sind, nach einer Embargoperiode von sechs oder zwölf Monaten frei zugänglich gemacht.

Darüber hinaus gibt es eine rasant wachsende Zahl von Open-Access-Zeitschriften. Der Betrieb dieser Zeitschriften wird häufig von wissenschaftlichen Einrichtungen finanziert. Daneben gewinnt das Geschäftsmodell der Publikationsgebühr an Bedeutung. Hier zahlt eine Förder­organisation oder die Institution des ­Publizierenden eine Gebühr bei der Veröffentlichung eines begutachteten Artikels an den Verlag. Dank offener Lizenzen wird nicht nur der freie Zugang, sondern auch die Nachnutzung der Artikel in digitalen Forschungsumgebungen ermöglicht.

Die Wissenschaftsverlage haben den Wunsch nach Open Access längst erkannt. So kaufte zum Beispiel die renommierte Nature Publishing Group im Februar 2013 den von Forschenden gegründeten Frontiers-Verlag. Alleine der Wissenschaftsverlag Springer betreibt mittlerweile über 400 Open-Access-Zeitschriften. Und das Open-Access-Journal PLOS ONE ist mit 23.400 Artikeln im Jahr 2012 das größte wissenschaftliche Publikationsorgan.

Mit dem Wachstum von Open Access wird auch das Geschäftsverhältnis zwischen Wissenschaft und Verlagen auf neue Beine gestellt. Anliegen der Wissenschaft ist es, den Transformationsprozess von Subskription zu Open Access aktiv zu gestalten und den sich formierenden Open-Access-Publikationsmarkt im Sinne der Wissenschaft zu realisieren.

Politik entdeckt Open Access

Der Blick auf das Jahr 2013 zeigt, dass Open Access längst ein wissenschaftspolitisches Thema ist. Die US-Regierung erließ im Februar eine Verordnung, nach der die öffentlichen Forschungseinrichtungen Open Access in ihren Statuten verpflichtend verankern müssen. Publikationen müssen bis spätestens zwölf Monate nach Erscheinen auf einem Repositorium frei zugänglich gemacht werden.

Darüber hinaus soll auch die Nachnutzung der Forschungsdaten, die Grundlage der Publikationen sind, verbessert werden. Ähnliche Entwicklungen gibt es auf europäischer Ebene. Auch im kommenden Forschungsrahmenprogramm Horizon 2020 der EU wird Open Access verpflichtend verankert werden. Alle Publikationen, die ab 2014 in Horizon 2020 entstehen, müssen frei zugänglich gemacht werden.

In Deutschland hat die Enquete-Kommission „Internet und digitale Gesellschaft“ Anfang 2013 empfohlen, Open Access verpflichtend in der Forschungsförderung zu verankern. Auch die Expertenkommission Forschung und Innovation der Bundesregierung betont in ihrem Jahresgutachten 2013 die Bedeutung von Open Access für die Innovationsfähigkeit Deutschlands. Denn der freie Fluss von Wissen und Information ist ein potenzieller Wachstumsmotor.

Vor allem urheberrechtliche Fragen

Laut einer 2013 veröffentlichten Studie zahlt sich Open Access in Deutschland auch volkswirtschaftlich aus, da zum Beispiel der Transfer der Forschungsergebnisse in die Wirtschaft verbessert wird. Vor diesem Hintergrund haben die G8-Staaten im Juni 2013 angekündigt, Open Access verstärkt fördern zu wollen. Die deutschen Wissenschaftsorganisationen arbeiten bereits seit 2008 in einer gemeinsamen Initiative an der Förderung von Open Access. 2013 hat etwa die Helmholtz-Gemeinschaft eine Open-Access-Richtlinie verankert und damit auf die genannten Empfehlungen reagiert.

Da aufgrund der jungen Geschichte des Themas Open-Access-Zeitschriften noch nicht in allen Disziplinen etabliert sind, gilt es aktuell, insbesondere die freie Zugänglichmachung von Publikationen über Open-Access-Repositorien zu fördern. Hier werden Forschende häufig mit urheberrechtlichen Fragen konfrontiert: Wann darf welche Version des Artikels auf das Repositorium gestellt werden? Um Forschenden Rechtssicherheit bei diesen Fragen zu geben, wurde 2013 nach langer Debatte ein unabdingbares Zweitveröffentlichungsrecht im Urheberrecht verankert.

Ein wichtiger Schritt, der jedoch nur wenige zufriedenstellt, da der enge Anwendungsbereich des Gesetzes an den Anforderungen der Wissenschaft vorbeigeht. So beschränkt sich die Regelung auf Publikationen, die im Rahmen der außeruniversitären und der drittmittelgeförderten Forschung entstehen. Diese Einschränkung wurde vom Bundesrat und den Wissenschaftsorganisationen als Diskriminierung von Forschenden an Hochschulen kritisiert. Die Länder haben bereits Nachbesserungen gefordert.

Die Diskussion um Open Access wird also auch 2014 auf der Tagesordnung stehen. Bis zur Realisierung der in der Berliner Erklärung beschriebenen ­Vision einer offenen Wissenschaft ist weiterhin noch viel zu tun. Packen wir es an.

Foto: Privat

Foto: Privat

Heinz Pampel arbeitet für das Open-Access-Koordinationsbüro der Helmholtz-Gemeinschaft am Deutschen Geo­Forschungszentrum GFZ. Er bloggt auf wisspub.net über Open Access und verwandte Themen der digitalen Wissenschaft.

Dieser Text ist im Rahmen des Heftes „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ erschienen. Sie können es für 14,90 EUR bei iRights.media bestellen. „Das Netz – Jahresrückblick Netzpolitik 2013-2014“ gibt es auch als E-Book, zum Beispiel über die Affiliate-Links bei Amazon und beim Apple iBook-Store, oder bei Beam.

December 19 2013

Wie weit darf Big Data gehen?

Körperdaten kündigen früh eine Infektion an. Facebook-Likes verraten den IQ der Nutzer. Big-Data-Analysen versprechen neue Erkenntnisse für Wissenschaft und Wirtschaft. Warum von einer Revolution zu sprechen ist, erläutert der Internetforscher Viktor Mayer-Schönberger im Interview.

iRights.info: In Ihrem Buch beschreiben Sie, wie die Analyse großer Datenmengen aus allen Lebensbereichen bestimmte Zusammenhänge erst sichtbar macht. So weiß etwa die US-Supermarktkette Walmart, dass ein bestimmter Frühstückssnack immer dann besonders nachgefragt wird, wenn ein Unwetter droht. Welche Zusammenhänge haben Sie bei Ihren Recherchen am meisten überrascht?

mayer-schoenberger

Viktor Mayer-Schönberger ist Professor für Internet Governance und -Regulierung am Oxford Internet Institute. Jüngst erschien sein Buch „Big Data. Die Revolution, die unser Leben verändern wird“ (gemeinsam mit Kenneth Cukier, Redline Verlag). Foto: Privat

Viktor Mayer-Schönberger: Besonders eindrücklich fand ich die Arbeiten von Dr. Carolyn McGregor an der Uniklinik in Toronto, die in den Daten der Vitalfunktionen von Frühgeborenen Muster erkennen konnte, die mit hoher Wahrscheinlichkeit eine Infektion vorhersagen, 24 Stunden bevor noch erste Symptome auftreten. Das hilft in Zukunft ganz unmittelbar Menschenleben zu retten.

iRights.info: Die neue Verfügbarkeit von großen Datenmengen und kostengünstiger Analysetechnik machen prinzipiell neuartige Prognosen möglich. Welchen Einfluss haben diese Vorhersagen auf das Wirtschaftsleben und was wäre möglich?

Viktor Mayer-Schönberger: Schon heute erlaubt uns Big Data, menschliches Verhalten relativ gut vorherzusagen. Das ist hilfreich in der Planung und für bessere Entscheidungen. Denn Tatsache ist, dass wir bis zu Big Data viel weniger Daten über unser wirtschaftliches Handeln hatten, als wir glaubten. Bessere Vorhersehbarkeit bedeutet geringeres Risiko – und das wiederum bedeutet geringere Volatilität. Die Märkte wären damit also weniger starken Schwankungen ausgesetzt. Eine Vorhersage der Börsenkurse, worauf manche hoffen, ist freilich in weiter Ferne, denn dazu ist die Vorhersage des Verhaltens sehr vieler Entscheidungsträger notwendig, und das ist auch in absehbarer Zukunft nicht zu stemmen.

iRights.info: Neben ökonomischen Chancen verspricht Big Data Fortschritte für die Allgemeinheit. Wo können die Analysen segensreich sein?

Viktor Mayer-Schönberger: Big Data kann uns in vielen Bereichen nutzen. In der Medizin kann Big Data zum Beispiel helfen, zu einer individualisierten und personalisierten Diagnose und Behandlung zu gelangen, die noch nicht möglich ist – wir nehmen ja heute immer noch die Standard-Dosis von Medikamenten, obwohl jeder Mensch und jeder Krankheitsfall anders ist. In der Bildung können wir mit Big Data die Chance haben, endlich besser zu verstehen, welche Lernmaterialen und Lernwerkzeuge, aber auch Lernkontexte für welche Lerngruppen optimal sind.

iRights.info: Sie betonen, dass Big-Data-Analysen zwar Zusammenhänge aufzeigen, nicht aber über ihre Ursachen Aufschluss geben. Daraus leiten Sie eine „Abwendung von der jahrtausendealten Suche nach kausalen Zusammenhängen“ ab. Umgekehrt ließe sich doch auch argumentieren, die neuen Big-Data-Beobachtungen verleihen der Suche nach ihren Ursachen erst einen neuen Schub…

Viktor Mayer-Schönberger: Beides ist zutreffend. Aber der Kernpunkt ist: Wir müssen nicht mehr für alles Kausalzusammenhänge ermittelt haben, bevor wir daraus Einsichten gewinnen und Handlungsanweisungen ableiten können. Das Online-Versandhaus Amazon muss nicht wissen, warum manche Bücher mir empfohlen werden sollen und andere nicht – es reicht für Amazon, wenn ich relativ häufig aus den mir empfohlenen Büchern welche kaufe. Die Gesundheitsbehörden müssen auch nicht wissen, warum Internetsuchen mit der Verbreitung der Grippe korrelieren – wie Google Flu Trends es gezeigt hat. Es reicht zu wissen, dass anhand der Suchabfragen die Grippeverbreitung vorhergesagt werden kann.

Das ist insofern auch von Vorteil, weil wir in der Vergangenheit oftmals weniger erfolgreich in der Ursachenforschung waren, als wir glaubten, und uns mit Scheinursachen zufrieden gegeben haben. Hier zu verstehen, dass das „Was“ bereits hilfreich ist, und das „Warum“ danach kommen kann, aber nicht immer muss, erlaubt uns auch etwas demütiger zu sein. Es lehrt uns zu akzeptieren, dass wir weniger von der Welt wissen als wir glauben.

Black Box der Big-Data-Prognosen

iRights.info: Nun hat die Wissenschaft schon lange mit statistischen Methoden gearbeitet, um Erkenntnisse zu überprüfen oder erst zu gewinnen. Warum sprechen Sie in Punkto Big Data gleich von einer Revolution und nicht von einer Evolution?

Viktor Mayer-Schönberger: Weil bisher das Sammeln und Auswerten von Daten sehr zeitaufwändig und kostenintensiv war, und wir deshalb all unsere Mechanismen und Institutionen, unsere Verfahren, darauf ausgelegt haben, Antworten auf unsere Fragen aus der geringstmöglichen Menge an Daten zu gewinnen. Das bedeutet aber auch, dass wir nur jene Fragen beantworten konnten, die uns schon vor der Sammlung der Daten bekannt waren. Stehen hingegen nahezu alle Daten eines Phänomens zur Verfügung, können wir damit auch Fragen beantworten, die bei Sammlung noch gar nicht offenkundig waren.

Das ist tatsächlich ein anderer Ansatz. Es werden nicht mehr basierend auf einer Theorie Hypothesen erdacht und dann mit Daten geprüft. Hypothesen können jetzt parametrisch generiert und getestet werden. Statt also bloß eine bestimmte Hypothese zu bestätigen,  können wir aus einer großen Menge an Hypothesen die optimale finden.

iRights.info: Nun gibt es Zusammenhänge in den Daten, die intuitiv Unwohlsein hervorrufen. So ergibt etwa eine britische Untersuchung von „Gefällt mir“-Angaben auf Facebook: Fans der Motorradmarke Harley Davidson weisen eher einen niedrigeren IQ auf. Besteht die Gefahr, dass unser digitales Profil uns stigmatisiert und schließlich dazu genutzt wird, uns zu diskriminieren?

Viktor Mayer-Schönberger: Ja, diese Gefahr besteht – insbesondere wenn dank Big Data die Analyse genauer wird und damit nicht mehr so leicht vom Tisch gewischt werden kann. Es bedarf klarer gesetzlicher und gesellschaftlicher Rahmenbedingungen, wie weit Big Data gehen darf, und für welche Zwecke eine Anwendung nicht oder nur unter ganz bestimmten Bedingungen zulässig ist.

iRights.info: Was ist, wenn wir gar nicht bemerken, wie sich Algorithmen auf Entscheidungen auswirken. Vielleicht wundern wir uns irgendwann: „Warum bekomme ich keinen Kredit?“ Oder: „Warum lädt mich niemand zum Vorstellungsgespräch ein?“ Muss der Einsatz von Big-Data-Erkenntnissen in sensiblen Lebensbereichen transparent gemacht werden?

Viktor Mayer-Schönberger: Ja, es muss mehr Transparenz geben – wobei wir selbst als Betroffene mit der formalen Transparenz nicht viel anfangen können werden, weil die Zusammenhänge zu komplex sind. Dafür brauchen wir eine eigene neue Gruppe an Experten – die Algorithmiker – die diese Black Box der Big-Data-Prognosen für Betroffene öffnen können, um die Vorhersage in ihrem Namen einer Überprüfung zuzuführen.

„Wir verstecken uns heute schon”

iRights.info: Big Data kann helfen, die Lebensrisiken des Einzelnen besser einzuschätzen – etwa die Wahrscheinlichkeit eines Autounfalls, einer Sucht oder einer Krebs-Erkrankung. Versicherungskonzerne könnten diese Erkenntnisse nutzen und bei höheren Risiken höhere Prämien verlangen. Gerät so das Solidaritätsprinzip von Versicherungen in Gefahr?

Viktor Mayer-Schönberger: Das ist eine konkrete Gefahr. Auch hier müssen wir wohl gesetzliche Maßnahmen ergreifen, die es Versicherungen verbieten, mittels Big-Data-Analyse zwischen den einzelnen Menschen zu differenzieren.

iRights.info: Denkbar wäre auch, dass Menschen auf ihren Datenschatten besser Acht geben, weil sie die Analyse fürchten. Um nicht „dumm“ zu wirken, könnten sie eben auf den „Like“ der Motorradmarke Harley Davidson verzichten – um in diesem einfachen Beispiel zu bleiben. Führen die Big-Data-Analysen bald zur Unfreiheit des Einzelnen, zum großen Versteckspiel vor den Maschinen?

Viktor Mayer-Schönberger: Wir verstecken uns heute schon ganz regelmäßig – nicht vor der Maschine, sondern vor den anderen. Menschen schauen links und rechts, ob jemand sie beobachtet, bevor sie ein Stück Papiermüll einfach auf den Boden fallen lassen. Das Versteckspiel ist also uralt und geht natürlich auch in Zukunft weiter. Wer auf die Ergebnisse einer Big-Data-Analyse vertrauen möchte, sollte deshalb zusehen, dass dafür nur „Honest Signals“ verwendet wurden, also Signale, die zu fälschen aufwändig ist.

iRights.info: Das Sammeln von Daten ist auch eine große Wette auf die Zukunft. Google und Facebook könnten dank ihrer datenbasierten Prognose-Fähigkeiten irgendwann sagen: Jetzt steigen wir in den Aktienhandel ein oder in die Personalvermittlung. Muss der Staat die großen Daten-Sammler von heute präventiv regulieren, damit sie nicht zu Monoplisten in allen möglichen Geschäftsfeldern aufsteigen?

Viktor Mayer-Schönberger: Ja, das muss er – nicht primär wegen der Datenmonopole, obwohl es auch diese zu vermeiden gilt, sondern um zu verhindern, dass Big-Data-Infrastrukturen geschaffen werden, die nur unter großem Aufwand rückgebaut werden können. Denken Sie an die Datencenter der NSA.

iRights.info: Setzt mit dem NSA-Skandal nun das große Nachdenken über Big Data ein?

Viktor Mayer-Schönberger: Das hoffe ich – auch wenn die NSA nur die Spitze des Eisbergs ist. Mit unserem Buch wollten wir jedenfalls einen Beitrag zur Diskussion leisten.

November 19 2013

Faire Entscheidung dank Fair Use

Google verletzt nicht die Rechte von Autoren und Verlagen, indem es deren Bücher einscannt und auszugsweise zugänglich macht. Das hat am Donnerstag ein New Yorker Gericht unter Berufung auf die amerikanische Fair Use Doktrin entschieden. Ein Erfolg für die Informationsfreiheit, der jedoch die Durchsetzbarkeit von Urheberrechten bei neuen Verwertungsmodellen in Frage stellt. 

Viele Internetnutzer kennen und lieben Google Books. Dort können sie eine gigantische Datenbank von mittlerweile über 20 Millionen Büchern nach Stichworten durchsuchen, und neben den Angaben zu Buchtitel, Verlag, Autor usw. auch Auszüge aus den gefundenen Werken („Snippets“) lesen. Der Service wird rege genutzt, doch nur wenige, die in dem digitalen Archiv stöbern, wissen, dass das Google Book Project (GBP) Gegenstand eines erbitterten Gerichtsverfahrens ist, das sich bereits über acht Jahre zieht.

Im Jahr 2005 gingen eine Reihe einzelner Autoren und die „Authors Gilde“ in den USA gegen Google vor, weil sie fanden, dass die Nutzung von Büchern im Rahmen des GBP ihre Urheberrechte verletze. Google habe Millionen von Büchern eingescannt, digitale Kopien an Bibliotheken weitergegeben, Bücherinformationen auf seiner Webseite gezeigt, und Textabschnitte zugänglich gemacht. All das sei ohne die Zustimmung der Rechteinhaber erfolgt. Und Google sei auch nicht bereit, Autoren und Verlage für diese Nutzung zu bezahlen.

Zähe Verhandlungen seit 2005

Drei Jahre nach Prozessbeginn schlossen die Parteien einen Vergleich, der unter anderem einen zentralen Rechte-Wahrnehmungsmechanismus vorsah. Damit wollten sie Vergütungsansprüche für Rechteinhaber schaffen, ohne dass Google für jedes einzelne Werk Nutzungsrechte erwerben oder sichern müsste. Da es sich um eine so genannte Sammelklage handelte, hätte sich der vorgeschlagene Vergleich grundsätzlich auch auf Werke ausgewirkt, deren Rechteinhaber mit der Überlassung an Google nicht einverstanden gewesen wären. Solche Rechteinhaber hätten ihre Bücher allerdings im Einzelfall vom Vergleich ausschließen können („Opt-Out“). Trotz dieser Möglichkeit des Opt-Outs war der Vergleich auf vehemente Kritik gestoßen, unter anderem von Seiten europäischer Rechteinhaber, die behaupteten, dass ihre Interessen  nicht angemessen berücksichtigt würden.

Tatsächlich brachte der Vergleich einige rechtliche Probleme mit sich. Insbesondere war fraglich, ob die Sammelklage – und damit der Vergleich – die betroffenen Personenkreise hinreichend eindeutig identifizierte (sogenannte „Class Certification“). Dies bestätigte schließlich der zuständige Richter am Federal District Court for the Southern District of New York nach Vorlage einer modifizierten Vergleichsversion von Ende 2009. Die Entscheidung wurde indes Anfang Juli 2013 vom Berufungsgericht auf Googles Einspruch hin kassiert; dem District Court wurde nun aufgegeben, zunächst zu prüfen, ob Googles Gebrauch der Bücher nicht bereits nach der amerikanischen Fair Use Doktrin gerechtfertigt sei, in welchem Fall das Problem der Class Certification und letztlich die Sammelklage sich ohnehin erledigt hätten.

Das Urteil des District Court: Google haftet nicht für Urheberrechtsverletzung

Vor diesem Hintergrund musste der District Court nun eingehend prüfen, ob die angeblichen Urheberrechtsverletzungen durch die Prinzipien des Fair Use gerechtfertigt sind. Tatsächlich berührt das GBP mehrere zum Urheberrecht gehörende Rechte, namentlich die Rechte zur Vervielfältigung, zur Verbreitung und zur öffentlichen Darstellung („Public Display“). Fair Use stellt eine sogenannte “affirmative defense” dar: Wenn eine Handlung, die die genannten Rechte eigentlich verletzt, als Fair Use angesehen wird, gilt sie als rechtmäßig, und die Inhaber der Rechte an den betroffenen Werken können weder Unterlassung noch einen finanziellen Ausgleich verlangen.

Generell ist Fair Use eine im US-amerikanischen Urheberrechtsgesetz verankerte, offen ausgestaltete Ausnahmeregelung, deren Anwendbarkeit vom Einzelfall abhängt. Ob eine Handlung Fair Use ist, wird mittels einer Abwägung von vier Faktoren beurteilt. Maßstäbe für die Bewertung der Nutzung sind: der Zweck und die Art der Nutzung – wobei es maßgeblich darauf ankommt, ob diese „transformative“ (also umgestaltend) ist -, die Art des geschützten Werkes, das Ausmaß der Nutzung im Vergleich zu dem gesamten Werk, und die Auswirkung der Nutzung auf potenzielle Märkte und Verwertungsmöglichkeiten oder auf den kommerziellen Wert des Werkes.

Zunächst schilderte der District Court ausführlich die Vorteile des GBP für Wissenschaftler, Bibliotheken, Menschen mit Lesebehinderungen und für die Allgemeinheit. Die vier Fair Use-Faktoren würden alle in eine für Google günstige Richtung weisen: Die Nutzung sei „highly transformative“, weil die Indexierung von Bücher und Texten diese für Leser und Wissenschaftler auffindbar gemacht habe. Zudem seien die Bücher durch die Digitalisierung zu elektronisch nutzbaren und nützlichen Quellen für Textanalyse oder Data Mining geworden. Darüber hinaus könne das Anzeigen von Snippets das Lesen des vollständigen Buches nicht ersetzen.

Kommerzielle Motive nicht maßgeblich

Die Tatsache, dass Google profitgetrieben sei, sei im Ergebnis nicht maßgeblich. Fair Use setze eine nicht-kommerzielle Nutzung nicht zwingend voraus. Jedenfalls habe Google die digitalen Scans nicht verkauft, und auf den Google Books-Seiten sei keine Werbung geschaltet. Die Nutzung sei also bloß indirekt kommerziell. Google habe zwar gesamte Bücher eingescannt und verwertet, aber auch dies schließe Fair Use nicht von vornherein aus. Schließlich habe das GBP keine negativen Auswirkungen auf das Verwertungspotenzial geschützter Werke, da bestehende Märkte für Bücher nicht beeinträchtigt würden. Vielmehr habe Google den Verkauf von Büchern sogar gefördert, weil eventuelle Käufer zuweilen erst durch Google Books davon erfahren würden, dass bestimmte Werke überhaupt existieren.

Google hafte auch nicht für die Überlassung von digitalen Kopien an Bibliotheken. Die Bücher seien ohnehin im Besitz der Bibliotheken, und Google habe den Bibliotheken die Scans lediglich zur Verfügung gestellt, damit diese sie zu Zwecken verwenden könnten, die ihrerseits Fair Use darstellten – also zum Beispiel zur elektronischen Indexierung ihrer Bestände. Im Ergebnis hat das Gericht nach Anwendung aller Fair Use-Maßstäbe zu Gunsten von Google entschieden und die Nutzung im Rahmen des GBP ohne Einschränkung als Fair Use anerkannt.

Wie ein roter Faden ziehen sich durch das gesamte Urteil Verweise auf die Vorteile des GBP für die Wissenschaft und die Informationsgesellschaft insgesamt. Der Zweck des Urheberrechts, wie er bereits in der Verfassung der Vereinigten Staaten verankert ist, sei die Förderung des kreativen Schaffens, wovon die Allgemeinheit schließlich profitieren solle. Das Gericht hat das GBP als technologisches Instrument betrachtet, das genau diesem Zweck diene, und daher nicht durch Verbotsrechte gehemmt werden sollte.

Für Google hätte das Verfahren nicht besser ausgehen können. Seit Anfang des Rechtsstreits hatte das Unternehmen mit Nachdruck versucht, gemeinsam mit Rechteinhabern ein Vergütungsmodell zu erarbeiten, wohlwissend, dass die Fair Use-Verteidigung allein möglicherweise nicht ausreichen würde. Nach Scheitern der Vergleichsverhandlungen und mit dem nun ergangenen Urteil hat Google kaum noch Gründe, Autoren für die Nutzung ihrer Werke zu kompensieren.

Technologieentwickler schaffen innovative Nutzungsarten für Werke und damit neue Verwertungsmöglichkeiten. Die Botschaft des District Courts ist klar: Von dem neuen Geldtopf profitieren zunächst diejenigen technologisch kompetenten Unternehmen, die solche Nutzungsarten entwickeln und auf den Markt bringen. Im Fair Use-Jargon sind zum Beispiel Nutzungen wie die Anzeige von Snippets oder verkleinerten Versionen von Bildern (Thumbnails) in den Suchergebnissen einer Suchmaschine hochgradig umgestaltend und deshalb legitim.

Gesetzgeberische Lösung und internationale Kooperation sind erwünscht

Vor diesem Hintergrund ist der Frust der Rechteinhaber nachvollziehbar. Schließlich genießen sie kraft Gesetzes Rechte an den Werken, die Gegenstand all dieser neuen Nutzungsarten sind. In einer Pressemitteilung hat die Autorengilde bereits angekündigt, in Berufung gehen zu wollen. Viel mehr können Autoren und Verlage augenblicklich nicht tun, selbst wenn sie sich in Teilen der Erde befinden, wo es einen Rechtsbegriff wie Fair Use überhaupt nicht gibt.

An den Vorteilen des GBP für Forscher und Leser kann nicht gezweifelt werden. Dessen Potenzial ist aber noch viel größer: Technisch betrachtet kann Google mit einem Knopfdruck diesen ganzen Wissensschatz nicht nur auszugsweise, sondern sogar im Volltext für alle Internetnutzer zugänglich machen. Dies würde allerdings den Rahmen des Fair Use sprengen, weshalb die Vision einer globalen Online-Bibliothek weiterhin utopisch scheint.

Der Weg bis zur Verwirklichung des Gesamtpotenzials der Bücherdigitalisierung ist noch lang. Massengerichtsverfahren und privatrechtliche Vereinbarungen scheinen der falsche Weg zu sein. Vielmehr sollte es eine gesetzgeberische Lösung geben, in der auch den Ansprüchen der Rechteinhaber Rechnung getragen wird. In Anbetracht der grenzübergreifenden Auswirkungen einer solchen Lösung, und hinsichtlich der erwünschten Beteiligung von möglichst zahlreichen Autoren am Projekt, werden dabei eine internationale Zusammenarbeit und wahrscheinlich auch völkerrechtliche Lösungsansätze unentbehrlich sein.

Zohar Efroni ist in New York zugelassener Rechtsanwalt und forscht zu Immaterialgütern und Internetrecht. Er ist Lehrbeauftragter an der juristischen Fakultät der Humboldt Universität in Berlin und an der Dualen Hochschule Baden Württemberg in Stuttgart.

Fünf öffentliche Kultureinrichtungen unterzeichnen Berliner Erklärung zu Open Access

Heute treten die Stiftung Preußischer Kulturbesitz und vier weitere öffentliche Kultureinrichtungen der „Berliner Erklärung zu Open Access“ bei. Damit schließen sich nun auch renommierte deutsche Archive der international anerkannten Deklaration an – zehn Jahre nach deren Verabschiedung. Eine kommerzielle Nutzung ihrer Werke wollen die Einrichtungen allerdings nur gegen Bezahlung zulassen.

Neben der Stiftung Preußischer Kulturbesitz (SPK) unterzeichnen heute auch die Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg, das Bundesarchiv, das Deutsche Archäologische Institut und die Stiftung Jüdisches Museum Berlin die Erklärung. Damit schließen sich diese von Bund und  Ländern finanzierten Einrichtungen den bisher rund 450 Unterzeichnern aus aller Welt an – und dem erklärten Ziel, die Nutzung von digitalisiertem Kulturerbe in Wissenschaft und Bildung zu erleichtern.

Die Berliner Erklärung wurde am 22. Oktober 2003  von Open-Access-Aktivisten aus Wissenschaft und Gesellschaft ins Leben gerufen; seitdem hat sie international schnell an Unterstützung und Bedeutung gewonnen. Wenn sich jetzt auch fünf wichtige deutsche Gedächtnisorganisationen dazu bekennen, sollte das die Deklaration weiter aufwerten. Die 1957 gegründete Stiftung Preußischer Kulturbesitz hat mit ihren 2.000 Mitarbeitern und fünf Einrichtungen, die alle Sparten der kulturellen Überlieferung repräsentieren, eine besondere Stellung: Sie ist der bundesweit größte Arbeitgeber im Kulturbereich und gilt international als eine der bedeutendsten Einrichtungen ihrer Art.

Nicht für kommerzielle Nutzung

Der Zeitpunkt des Beitritts ist bewusst gewählt: Aus Anlass des zehnjährigen Jubiläums der Berliner Erklärung findet heute und morgen eine weitere Folgekonferenz statt, die „Open Access Berlin 2013“ (bereits ausgebucht). Als einer der über 20 Redner ist Herrmann Parzinger angekündigt, Präsident der SPK. Er machte bereits im Vorfeld deutlich, dass die SPK in einem wichtigen Punkt von der Berliner Erklärung abweichen wird. In den Best-Practice-Empfehlungen der SPK heißt es:

Die Nutzung der Digitalisate für kommerzielle Zwecke erfolgt gegen Entgelt auf Basis von Creative Commons-Lizenzen.

Denn diese Einschränkung mit dem Gedanken der Berliner Erklärung vereinbar ist, ist seit ihrer Veröffentlichung durchaus umstritten.

Konkret heißt es in der Berliner Erklärung:

„Die Urheber und die Rechteinhaber solcher Veröffentlichungen gewähren allen Nutzern unwiderruflich das freie, weltweite Zugangsrecht zu diesen Veröffentlichungen und erlauben ihnen, diese Veröffentlichungen – in jedem beliebigen digitalen Medium und für jeden verantwortbaren Zweck – zu kopieren, zu nutzen, zu verbreiten, zu übertragen und öffentlich wiederzugeben sowie Bearbeitungen davon zu erstellen und zu verbreiten, sofern die Urheberschaft korrekt angegeben wird. (Die Wissenschaftsgemeinschaft wird, wie schon bisher, auch in Zukunft Regeln hinsichtlich korrekter Urheberangaben und einer verantwortbaren Nutzung von Veröffentlichungen definieren)“.

Weshalb Parzinger mit den Empfehlungen der Stiftung Preußischer Kulturbesitz von diesem Gedanken bewusst abweicht, erläuterte er kürzlich in einer Pressemitteilung der SPK:

„Die Digitalisierung ihrer Bestände ist die große Zukunftsaufgabe für Kultureinrichtungen wie die Stiftung Preußischer Kulturbesitz, die neben die klassischen Aufgaben Sammeln, Bewahren, Erforschen und Vermitteln tritt. Dazu gehört es selbstverständlich auch, dieses Wissen allen Interessierten zugänglich zu machen. Um dieses Ziel zu verwirklichen, setzen wir erhebliche Ressourcen ein und halten es deshalb für angemessen, für kommerzielle Nutzungen eine Gebühr zu erheben.“

Ob die Open Access-Bewegung dieser Refinanzierungs-Argumentation folgt, dürfte abzuwarten sein. In der Pressemitteilung äußert Parzinger die Hoffnung, mit den Empfehlungen weitere öffentliche Kultureinrichtungen davon überzeugen zu können, dass diese der Berliner Erklärung beitreten und die Prinzipien des Open Access anwenden.

November 09 2013

Verheerendes Feuer im Gedächtnis des Netzes – Internet Archive ruft zu Spenden auf

Die gemeinnützige Organisation Internet Archive ist bei sehr vielen Netznutzern ungemein beliebt. Sie sorgt dafür, dass Milliarden von Websites archiviert und für die Zukunft gesichert werden. Besonders beliebt ist dabei die Wayback-Machine. Nun hat es gebrannt. Durch das Feuer wurde der Technikraum zerstört. Die Organisation ruft nun zu Spenden auf.

reading-room-fire
Feuer im Scan-Center des Internet Archive in San Francisco

Glück im Unglück, nur das Scan-Zentrum, nicht aber das Hauptgebäude der Organisation ist komplett ausgebrannt. Der Schaden ist trotzdem immens. Technische Geräte und Ausrüstung im Wert von 600.000 US-Dollar sind ein Raub der Flammen geworden. Der Gründer des Internet Archive Brewster Kahle schreibt dazu im Blog der Organisation:

This episode has reminded us that digitizing and making copies are good strategies for both access and preservation. We have copies of the data in the Internet Archive in multiple locations, so even if our main building had been involved in the fire we still would not have lost the amazing content we have all worked so hard to collect.

Um den Schaden schnellstmöglich zu kompensieren, ruft das Internet-Archive nun einerseits dazu auf, an anderen Orten technisches Equipment bereitzustellen, damit die Arbeit möglichst reibungslos weitergehen kann. Andererseits werden dringend Spenden benötigt. Auf der Seite Donate to the Internet Archive! finden sich alle nötigen Informationen.

November 01 2013

Bildungsministerium: „Das Urheberrecht muss der Wissenschaft dienen”

Das Bundesministerium für Bildung und Forschung (BMBF) hat sich in den letzten Jahren in der Diskussion um Open Access zurückgehalten. Nun gibt es erfreuliche Nachrichten: Eine Website wirbt seit heute für Open Access.

Unter dem Motto „Open Access: Das Urheberrecht muss der Wissenschaft dienen” informiert das Ministerium über Open Access und stellt die Ergebnisse seines strategischen Dialogs zum Thema „Wissenschafts- und innovationsfreundliches Urheberrecht für die digitale Wissensgesellschaft” unter einer offenen Lizenz (CC-BY-ND) zur Verfügung (PDF).

Bereits im Juni hat das BMBF im Rahmen des G8 Science Ministers Statement den offenen Zugang zu wissenschaftlichen Publikationen und Forschungsdaten gewürdigt. Zur Rolle des Wissenschaftsministeriums beim Thema Open Access heißt es auf der neuen Website:

Aufgabe der Forschungs- und Innovationspolitik ist es, Rahmenbedingungen zu schaffen, die die Entstehung von Wissen, seinen Austausch und seine Zirkulation fördern. Ein ungehinderter Wissensfluss ist Grundvoraussetzung für exzellente und innovative Forschung, aber auch für den Transfer der Ergebnisse in Produkte und Dienstleistungen – zum Nutzen der gesamten Gesellschaft. Daher setzt sich auch das Bundesministerium für Bildung und Forschung für mehr Open Access ein.

Auch wird das Zweitverwertungsrecht für wissenschaftliche Autorinnen und Autoren beworben. Die Regelung in Paragraf 38 Absatz 4 Urheberrechtsgesetz tritt zum 01.01.2014 in Kraft. Über die Regelung wurde sieben Jahre lang gestritten. Zukünftig hat „[d]er Urheber eines wissenschaftlichen Beitrags, der im Rahmen einer mindestens zur Hälfte mit öffentlichen Mitteln geförderten Forschungstätigkeit entstanden und in einer periodisch mindestens zweimal jährlich erscheinenden Sammlung erschienen ist, [..] auch dann, wenn er dem Verleger oder Herausgeber ein ausschließliches Nutzungsrecht eingeräumt hat, das Recht, den Beitrag nach Ablauf von zwölf Monaten seit der Erstveröffentlichung in der akzeptierten Manuskriptversion öffentlich zugänglich zu machen, soweit dies keinem gewerblichen Zweck dient. Die Quelle der Erstveröffentlichung ist anzugeben. Eine zum Nachteil des Urhebers abweichende Vereinbarung ist unwirksam.“ (Bundesgesetzblatt vom 8.10.2013)

Vielen Vertreterinnen und Vertretern aus der Wissenschaft geht die Regelung nicht weit genug. Auch die Länder fordern weitere Anpassungen. In einer Pressemitteilung des Bundesrats zur Billigung des Gesetzes heißt es:

Der Bundesrat macht in einer begleitenden Entschließung jedoch zugleich deutlich, dass die von ihm in den vergangenen Jahren formulierten Anforderungen an ein wissenschaftsadäquates Urheberrecht noch nicht vollständig aufgegriffen wurden.

Das Aktionsbündnis „Urheberrecht für Bildung und Wissenschaft” gibt konkrete Handlungshinweise. Es hat diesen Monat zehn Forderungen an die künftige Bundesregierung gegen den “Reformstau beim Wissenschaftsurheberrecht” veröffentlicht.

In ihren Wahlprogrammen haben sowohl Union als auch SPD eine stärkere Förderung von Open Access angekündigt. So kündigte z.B. die Union an, bei einem Wahlsieg „zusammen mit der Wissenschaft eine sogenannte ‚Open-Access-Strategie’“ entwickeln zu wollen (PDF). Und die SPD stellte in ihrem Programm die Arbeit an einem „bildungs- und wissenschaftsfreundliches Urheberrecht“  (PDF) in den Fokus.

Spannend wird nun sein, welche konkreten Maßnahmen im Koalitionsvertrag aufgegriffen werden.

Zuerst erschienen bei wisspub.net, Lizenz: CC BY.

September 24 2013

Gedichte schreiben im Labor: Wie Forscher das Urheberrecht untersuchen

Sarah Laskow berichtet in der Columbia Journalism Review über einen neuen Schwung an Forschungen zum Urheberrecht, die empirisch und nicht nur rechtstheoretisch arbeiten. Bemerkenswert daran ist zunächst, dass es solche Untersuchungen überhaupt gibt:

Interest groups in Washington DC are not known for their strict adherence to facts. But in this particular debate, ideas and intuitions hold unusual sway. Not only does real-world evidence not matter much, it often doesn’t exist. (…) It’s strange that this is the case: Intellectual property is a legal idea rooted in economic assumptions that can be tested.

Vorgestellt werden unter anderem Arbeiten von Christopher Buccafusco, Professor am Illinois Institute of Technology, und Christopher Sprigman, Rechtsprofessor an der New York University. Sie haben in einem Experiment untersucht, wie sich Teilnehmer auf einem Markt für Haikus verhalten:

In one experiment, they had one group of subjects write three-line haikus, to be entered in a contest with a prize of $50. These authors had the option of selling their poems (and the chance to win $50) to another group, the bidders. Both the authors and the bidders were asked to value how much a particular haiku was worth.

Das Ergebnis bestätigt für die Wissenschaftler „Endowment-Effekte”: ein Konzept der Verhaltensökonomik, nach dem der Wert eines Guts höher eingeschätzt wird, wenn man es besitzt. Das gelte auch für geistige Werke, die man selbst geschaffen hat, sagen sie. Ihre Schlussfolgerung: Solche Märkte sind danach weniger rational als in den Modellen angenommen wird, die auch das Copyright begründen.

US-Forscher haben es gut: Ob Urheberrechte geistiges Schaffen und Innovation fördern oder nicht (so die Idee des US-Copyrights), lässt sich leichter untersuchen als die Konzepte, die in Europa hinter dem Urheberrecht stehen. Das „unsichtbare Band” zwischen dem „Schöpfer“ und seinem Werk werden sie wohl lange suchen. Man kann ja auch nicht alles im Labor klären. Aber, wie Laskow über die Motivation der Forscher schreibt:

Mostly, they’re hoping that, in the next round of copyright lawmaking, they’ll have some evidence to present lawmakers to help them better understand how the laws they’re making work—that the debate will be informed, just a little bit, by empirical, independent research.

Hier der ganze Bericht, hier das im Artikel nicht verlinkte Experiment von Buccafosco und Sprigman.

September 13 2013

Bundesrat: Ausschüsse kritisieren Zweitveröffentlichungs-Entwurf – und empfehlen Zustimmung

Der Rechtsausschuss sowie der Ausschuss für Kulturfragen des Bundesrates erheben ihren Zeigefinger, da die Gesetzesänderungen der Koalition beim Zweitveröffentlichungsrecht nicht weit genug gingen. Gleichzeitig legen sie dem Bundesrat die Zustimmung nah.

Am 20. September wird es im Bundesrat um Urheberrechtsreformen gehen. Eine vom Bundestag beschlossene Gesetzesvorlage für ein „Gesetz zur Nutzung verwaister und vergriffener Werke und einer weiteren Änderung des Urheberrechtsgesetzes” wird das Gremium dann erreichen. Der Rechtsausschuss und der Ausschuss für Kulturfragen haben nun Empfehlungen an den Bundesrat vorgelegt.

Darin kritisieren die Ausschussmitglieder, das vorgesehene Zweitveröffentlichungsrecht für wissenschaftliche Autoren sei zu eng gefasst, zudem ändere sich an den kleinteiligen Regeln für die Nutzung urheberrechtlich geschützter Werke in Bildungseinrichtungen nichts. Im Wortlaut heißt es in der Empfehlung an den Bundesrat, er möge folgende Haltung einnehmen:

„Der Bundesrat erwartet von der neuen Bundesregierung, dass in Abstimmung mit den Ländern umgehend nachhaltige Regelungen für die Nutzung urheberrechtlich geschützter Werke im Intranet von Schulen, Hochschulen und Forschungseinrichtungen erarbeitet werden; dabei sollte eine, die bisherigen Regelungen in den §§ 52a, 52b und 53a UrhG ersetzende und möglichst allgemein gefasste Schrankenbestimmung angestrebt werden.“

Diese Forderung nach einer generellen Bereichsausnahme für Wissenschaft und Bildung ist gewiss auch vor dem Hintergrund zu sehen, dass die Bundesländer für Bildung und Forschung zuständig sind und diese über ihre jeweiligen Kultushaushalte finanzieren müssen. Das Interesse der Länder trifft mit dem der Bildungseinrichtungen an umfassenderen Schrankenregelungen zusammen, während der Bund womöglich eher auf die Interessen der deutschen Verlagswirtschaft eingeht.

Länder zu weitergehenden Änderungen bereit

Zum Zweitveröffentlichungsrecht – zuletzt auch beim Urheberkongress in Berlin heftig umstritten – solidarisieren sich die Ausschussmitglieder im Grunde mit den Positionen, die das Aktionsbündnis Urheberrecht und das Max-Planck-Institut für Immaterialgüter- und Wettbewerbsrecht vertreten. Der Bundesrat hatte weitergehende Änderungen bereits gefordert (PDF), die Ausschüsse verweisen auf seine Haltung:

„Der Bundesrat stellt fest, dass § 38 Absatz 4 Satz 1 UrhG-neu, dessen Anwendungsbereich sich zumindest im Wege einer verfassungskonformen Auslegung auch auf das gesamte, an den Hochschulen beschäftigte wissenschaftliche Personal erstrecken muss, dem begünstigten Personenkreis ein vertraglich nicht abdingbares Recht auf Zweitveröffentlichung eröffnet. Der Bundesrat bekräftigt seine Auffassung, dass eine dem europäischen Stand der Diskussion entsprechende Gesetzesfassung eine in der Regel sechsmonatige Embargofrist sowie eine Anwendung der Norm auch auf nur einmal jährlich erscheinende Sammlungen vorgesehen hätte; … “

Unterm Strich stellen der Rechtsausschuss sowie der Ausschuss für Kulturfragen der Gesetzesvorlage des Bundestages also eine schlechte Quittung aus. Nach dem Motto: Gute Idee, aber mangelhaft und nicht zeitgemäß umgesetzt. Doch mit ihrer Empfehlung an den Bundesrat, keinen Vermittlungsausschuss einzuberufen, raten sie dem Bundesrat indirekt dennoch, die Gesetzesvorlage durchzuwinken. Folgt der Bundesrat der Empfehlung, stimmt er also einem Gesetz zu, dessen Reformvorhaben er sofort wieder reformiert sehen will.

Ob das noch politischer Pragmatismus oder schon praktizierter Irrationalismus ist, hängt wohl dem Blickwinkel des Betrachters ab.

July 30 2013

Lammert unter Druck: Plagiatsvorwurf wegen Doktorarbeit

Als Norbert Lammert 1974 seine Dissertation mit dem Titel “Lokale Organisationsstrukturen innerparteilicher Willensbildung – Fallstudie am Beispiel eines CDU-Kreisverbandes im Ruhrgebiet” abgegeben hatte, ahnte er voraussichtlich nicht, dass diese ihm viele Jahre später unruhige Tage bescheren würde. Als Präsident des Deutschen Bundestages ist der CDU-Politiker Lammert nach dem Bundespräsidenten die Nummer 2 in Deutschland. Nun werden Vorwürfe laut, Lammert sei damals nicht nur unsauber bei der Erstellung gewesen, sondern er habe möglicherweise auch zu Teilen ein Plagiat abgeliefert.

Heftige Vorwürfe mit denen sehr vorsichtig umgegangen werden muss. Wieder einmal macht ein “anonymer Blogger” auf das mögliche Fehlverhalten aufmerksam. “Robert Schmidt” legt auf der Website lammertplag zur “Dokumentation wissenschaftlichen Fehlverhaltens in der Dissertation von Prof. Dr. Norbert Lammert” seine Erkentnisse wie folgt dar:

(…) auf den rot hervorgehobenen 42 Seiten finden sich Passagen aus 21 Quellen, bei denen ich Unregelmäßigkeiten festgestellt habe. Hierbei handelt es sich vorwiegend, aber nicht ausschließlich um Plagiate. Ergiebigste Gesamtquelle für regelwidrige Übernahmen scheint ein Sammelband des Politologen Wolfgang Jäger zur Parteienforschung zu sein. Insgesamt gibt der Verfasser vor, eine Literaturrezeption geleistet zu haben, die er in diesem Umfang nicht selbst erbracht hat. Einen erheblichen Teil der als verwendet angegebenen Literatur hat er ganz offenbar nicht gelesen; dies wird insbesondere anhand der Übernahme zahlreicher charakteristischer Fehler aus der Sekundärliteratur deutlich. Genuine Fehler des Verfassers – also solche, die nicht mit Übernahmen aus Sekundärquellen im Zusammenhang stehen – habe ich in der Regel nicht erfasst. Die Arbeit enthält einen Hauptteil von 116 Seiten, auf denen ein wissenschaftlicher Diskurs stattfindet. Inhaltsverzeichnis, Vorwort des Herausgebers, Vorbemerkung, Dokumentation, Literaturverzeichnis und Sachregister habe ich nicht gesondert untersucht. Der 91 Seiten umfassende Dokumentationsteil, dessen einzelne Punkte und Unterpunkte nicht in der Gliederung aufgeführt sind, besteht lediglich aus der Reproduktion von Satzungen, Anträgen, Geschäftsberichten, Rundschreiben etc. pp.

Lammert_officiel
Foto von Norbert Lammert, Deutscher Bundestag / Melde, lizenziert unter Creative Commons Attribution-Share Alike 3.0 Germany (CC BY-SA 3.0 DE)

Die anonyme Überprüfung der Arbeit hat “Robert Schmidt” nach eigenen Angaben nach circa einem Drittel vorläufig gestoppt, da der Zeitaufwand zu groß geworden sei. Zu den “bemerkenswerten Fundstellen” zählen laut der Untersuchung bislang beispielsweise

Seite 3 und Seite 4 übernimmt der Verfasser zum größten Teil aus einem Aufsatz von Hans-Otto Mühleisen.

oder

Auf Seite 37 verweist der Verfasser auf ein Buch, das nicht existiert und dessen bibliografische Daten er von Jäger übernimmt.

Lammert reagierte nach Bekanntwerden der Vorwürfe umgehend und bat die Ruhr-Universität Bochum, an deren sozialwissenschaftlicher Fakultät die Doktorarbeit damals abgenommen wurde, eine abermalige Prüfung durchzuführen. Die Universität hat nun mit dem Prüfungsverfahren begonnen. Zudem ist Lammert in die Offensive gegangen und hat seine Doktorarbeit (PDF-Dokument) für alle einsehbar ins Internet gestellt. In den einleitenden Worten die dem Dokument vorangestellt sind, heißt es:

(…) er habe seine Arbeit nach bestem Wissen und Gewissen verfasst und sei von ihrer wissenschaftlichen Qualität überzeugt.

Im Gegensatz zu anderen bekannten Plagiaten wie in den Fällen zu Guttenberg oder Koch-Mehrin wählt Lammert den Weg der Transparenz und schnellen Aufklärung. Wichtig ist an dieser Stelle festzustellen, dass die Unschuldsvermutung gilt und Lammert aktuell einem Verdacht aber keiner Vorverurteilung ausgesetzt sein sollte. Die genaue Überpüfung sollte nun abgewartet werden.

iRights.info berichtet seit vielen Jahren über die schwierige Frage, wann überhaupt ein Plagiat vorliegt. Dies ist nicht trivial zu beantworten und bedarf eines genauen Blickes. In unserem Text “Meine Worte, deine Worte” widmen wir uns zunächst dem Zitat. Um die Dimension eines Plagiats zu verstehen, sind diese Informationen als Grundlage wichtig. Wann die nächste Stufe erreicht wird, erklärt der Text “Plagiate – Abschreiben verboten”. Im Zuge des letzten größeren prominenten Plagiatsfalles der ehemaligen Bundesministerin für Bildung und Forschung Anette Schavan, hat iRights.info ein Interview mit der “Plagiatsjägerin” Debora Weber-Wulff geführt. Als Ursache von Plagiaten sieht sie nicht nur systematische Fahlanreize an Universitäten als wichtigen Punkt, sondern erläutert auch die Motivation von Menschen wie “Robert Schmidt”, echtes oder zunächst vermeintliches wissenschaftliches Fehlverhalten zu verfolgen.

June 19 2013

16-Jähriger entwickelt Krebstest dank Open-Access-Material

Der 16-Jährige US-Amerikaner Jack Andraka hat einen neuen Krebstest entwickelt, der bei 100prozentiger Trefferquote rund 168 Mal schneller und 400 Mal empfindlicher sein soll als bisherige Testmethoden, bei einem  26.000stel der Kosten. Die National Institutes of Health (NIH) präsentieren den Forschungserfolg des Zehntklässlers als direkte Folge von Open Access, da er offenbar vollständig auf frei verfügbaren Forschungsergebnissen beruht.

Der neue Schnelltest für Bauchspeicheldrüsen-, Eierstock- und Lungenkrebs befindet sich in klinischen Tests und ist das Projekt, mit dem der Schüler den International Science and Engineering Fair 2012 gewonnen hat. Der internationale vor-universitäre Forschungswettbewerb wird von Intel gefördert; auch Jugend forscht gehört als deutscher Ableger dazu.

Im Videointerview mit Francis Collins, Direktor der NIH, berichtet Andraka, wie er anhand von Suchbegriffen Material gesichtet und sich durch die Verweise der verschiedenen wissenschaftlichen Publikationen gearbeitet habe. Dabei sei er immer wieder auf Paywalls gestoßen, die bis zu 40 US-Dollar pro Zugriff verlangt hätten. Er habe dann per Suchmaschine oft frei zugängliche Fassungen der Publikationen bei PubMed.gov finden können, dem Open-Access-Verzeichnis der NIH. Alle durch die NIH geförderten Forschungsvorhaben müssen ihre Ergebnisse spätestens 12 Monate nach Erscheinen bei PubMed für den Zugriff freigeben.

Beide sind sich am Ende einig, dass das am 9. Mai 2013 von US-Präsident Obama erlassene Dekret zur standardmäßigen Öffnung aller Regierungsinformationen und die damit verbundene Open-Data-Policy (PDF) in die richtige Richtung weisen. Obama hat darin formlos festgelegt, dass Daten- und Informationsmaterial der Regierungsstellen der USA unter freien Lizenzen, in freien Formaten und in maschinenlesbarer Form frei gegeben werden sollen. Alles andere solle die Ausnahme sein.

June 18 2013

Wissenschaftsparagraf: Der Hörsaal als Grauzone

Eine Umfrage der Gesellschaft für Medienwissenschaft zeigt: Universitätsdozenten befürchten, wegen des Einsatzes von urheberrechtlich geschützten Materialien belangt zu werden. Bildungseinrichtungen kämpfen unterdessen weiter mit den kleinteilig-vagen Regelungen in ihrem Bereich.

Drohen in deutschen Hörsälen bald Polizeirazzien wie im Fall des Sharehosters Kino.to vor zwei Jahren? Werden deutsche Professoren demnächst mit Abmahnungen bombardiert, wie im vergangenen Sommer die Nutzer von illegalen Download-Angeboten im Netz? Ganz so wird es an deutschen Universitäten wohl nicht kommen. Doch viele deutsche Akademiker wissen nicht, wie sie urheberrechtlich geschütztes Material in der Lehre einsetzen können, ohne gegen geltendes Recht zu verstoßen. Eine praxisnahe gesetzliche Regelung wird von der Bundesregierung seit zehn Jahren immer wieder aufgeschoben.

Muss man für Illustrationen aus Lehrbüchern, die in die Powerpoint-Folien einer Vorlesung eingebunden sind, die Genehmigung der Urheber haben? Darf man im Seminar Filme zeigen? Was ist, wenn die Universitätsveranstaltung im Internet als Video verbreitet wird? Darf man Standbilder auf Spielfilmen in wissenschaftlichen Publikationen abdrucken? Wie eine Umfrage der Gesellschaft für Medienwissenschaft (GfM) zeigt, wissen selbst viele Medienwissenschaftler nicht, wie die urheberrechtliche Situation in ihrem Fach in solchen Fällen aussieht.

Vom Graubereich zur Abmahnung

Viele der befragten Medienwissenschaftler befürchten, „dass es aufgrund des Einsatzes von urheberrechtlich geschütztem Material in der Lehre oder in Publikationen zu Abmahnungen oder ähnlichem kommt”, so Dietmar Kammerer von der Universität Marburg, der an der Durchführung der Umfrage beteiligt war. Viele Kollegen glauben, „augenblicklich bestehende Praktiken in Forschung und Lehre könnten sich in einem Graubereich bewegen, der sich bei näherer Prüfung als illegal erweisen könnte.”

Manche Medienwissenschaftler würden deswegen sogar schon darauf verzichten, audiovisuelles Material in der Lehre einzusetzen. An seiner eigenen Universität sei eine Dozentin von einer Rechtsanwaltskanzlei abgemahnt worden, weil Studenten in einem öffentlich zugänglichen Wiki ein urheberrechtlich geschütztes Foto des Soziologen Niklas Luhmann veröffentlicht hatten.

Schlagzeilen machte Anfang des Jahres eine Abmahnung, mit der die ARD dem Verlag Bertz und Fischer untersagen wollte, den Namen „Tatort” für eine medienwissenschaftliche Buchreihe über die Krimiserie zu verwenden. Bereits 2001 war der deutsche Schüren-Verlag von 20th Century Fox Deutschland juristisch eingeschüchtert worden, weil ein wissenschaftliches Buch des Verlags über die Fernsehserie „The Simpsons” mit Screenshots der Sendung illustriert worden war. In der zweiten Auflage des Buchs mussten daraufhin zahlreiche Illustrationen ausgetauscht werden.

Hürden des „Wissenschaftsparagrafen”

Der Einsatz von urheberrechtlich geschütztem Material in Lehre und Forschung ist in Deutschland durch den sogenannten „Wissenschafts-” oder „Intranet-Paragrafen“ geregelt: Paragraf 52a des Urheberrechtsgesetzes wurde 2003 eingeführt und soll es Schulen, Hochschulen und Forschungseinrichtungen möglich machen, urheberrechtlich geschützte Werke in der Lehre und Forschung einzusetzen.

Allerdings mit einer Reihe von Auflagen. Die im Wissenschaftsparagrafen formulierten Regelungen sind interpretationsbedürftig: Dort heißt es, Dozenten und Lehrer dürften Inhalte dann öffentlich zugänglich machen, wenn es sich um:

veröffentlichte kleine Teile eines Werkes, Werke geringen Umfangs sowie einzelne Beiträge aus Zeitungen oder Zeitschriften zur Veranschaulichung im Unterricht an Schulen, Hochschulen, nichtgewerblichen Einrichtungen der Aus- und Weiterbildung sowie an Einrichtungen der Berufsbildung ausschließlich für den bestimmt abgegrenzten Kreis von Unterrichtsteilnehmern

handelt. Im Klartext: Urheberrechtliches Material darf für Unterrichtszwecke geteilt werden, allerdings nur im „kleinen Umfang”. Zur Verbreitung darf das Internet genutzt werden – allerdings kann der Dozent nicht einfach ein PDF eines Artikels oder Buchs auf seine Website packen. Die Datei darf nur für die Teilnehmer der Lehrveranstaltung zugänglich sein, zum Beispiel auf einer passwortgeschützten Website. Aus dem Werk darf nur soviel geteilt werden, wie unbedingt nötig ist, und es muss ein konkreter Bezug zum Inhalt der Lehrveranstaltung bestehen. Dafür müssen Schulen an Verwertungsgesellschaften wie die VG Wort einen fixen Beitrag bezahlen, für Universitäten gibt es noch keine vergleichbare Regelung.

Wie groß ist „klein”?

Die gesetzlichen Vorgaben erweisen sich in der Praxis allerdings als recht vage: Wie groß darf zum Beispiel ein „kleiner Teil” einer Publikation sein, der als Datei oder Kopie unter Seminarteilnehmern verbreitet werden darf? Manche Juristen gehen von zehn Prozent einer Publikation aus. Andere finden, dass der geteilte Text nicht länger als 20 Seiten sein darf. Solche Fragen müssen derzeit in Gerichtsverfahren geklärt werden. Die Fernuniversität Hagen unterlag zum Beispiel im September 2011 vor Gericht dem Alfred Kröner Verlag. Dieser hatte gegen jene geklagt, weil die Universität Studenten in einem Online-Seminar 91 Seiten des 533-seitigen Lehrbuchs „Meilensteine der Psychologie” zum Herunterladen angeboten hatte (Urteil, PDF).

Doch die Regelungen werfen auch andere Fragen auf: Darf ein Dozent in seiner Veranstaltung einen Spielfilm vollständig zeigen, oder reichen einzelne Filmausschnitte zur „Veranschaulichung”? In welchem Umfang ist die Wiedergabe von Grafiken oder Tabellen aus der Forschung anderer zulässig? Und was ist mit den zahlreichen privaten Hochschulen und Universitäten, die in Deutschland in den letzten Jahren gegründet wurden? Wenn sie urheberrechtliches Material in der Lehre verwenden, kann dies noch als „nicht-gewerbliche” Nutzung betrachtet werden?

Hoffen auf Fair Use

Als der Wissenschaftsparagraf 2003 eingeführt wurde, sollte er ursprünglich nur drei Jahre gelten; die Auswirkungen der Regelung in der Praxis dann überprüft werden. Seither wurde er dreimal verlängert, zuletzt bis Ende 2014. Diese Verlängerung soll nun endgültig die letzte gewesen sein.

Bei der Gesellschaft für Medienwissenschaft wünscht man sich für die Zukunft eine Regelung, die der „Fair Use”-Klausel in den USA vergleichbar ist. Dort darf geschütztes Material ohne Genehmigung der Rechteinhaber benutzt werden, wenn es etwa der öffentlichen Bildung und der Anregung geistiger Produktionen dient. Dietmar Kammerer macht sich da allerdings wenig Hoffnungen: „Solch eine Klausel ist, wie wir wohl wissen, mit dem europäischen Urheberrecht offenbar nicht vereinbar oder wird politisch nicht gewollt.”

Tilman Baumgärtel ist Journalist und Medienwissenschaftler. Zur Zeit arbeitet er an einer Anthologie über Internet-Medienpiraterie.

March 26 2013

Podcast über die Arbeit von iRights.info bei e-teaching.org

Das Projekt e-teaching.org, angesiedelt bei der Stiftung Medien in der Bildung (SbR) des Leibniz-Institut für Wissensmedien, kümmert sich um die Frage, wie digitale Medien am besten in der Hochschullehre eingesetzt werden können. Dazu zählen beispielweise Fragen von „Wie stelle ich mein Skript ins Netz?” – bis hin zu Strategien im Umgang mit online verfügbaren Tools und der Struktur von Online-Vorlesungen. In ihrer Podcast-Reihe hat e-teaching.org nun Philipp Otto über die Arbeit von iRights.info und Fragen des Urheberrechts in der Wissenschaft interviewt.

Wer also schon immer wissen wollte, was iRights.info eigentlich macht, kann hier einmal reinhören. In der Ankündigung zum Podcast heißt es zu unserer Arbeit:

Für seine umfassende und verständliche Aufbereitung von Rechtsfragen hat das Informationsportal iRights.info den Grimme Online Award in der Kategorie Information und den Klicksafe-Preis für Sicherheit im Internet erhalten. Die Informationen zum Urheberrecht und zu anderen Rechtsfragen in der digitalen Welt richten sich an Laien ebenso wie an Profis. E-Learning-Akteure aus Hochschulen finden hier z.B. Informationen zu den Themen “Zitat +  Plagiat”, “Datenschutz” oder “Software + Open Source”.

Danke für dieses schöne Lob!

March 13 2013

Open Access: Fachgesellschaften in der Kritik

Die Fachgesellschaften der wissenschaftlichen Disziplinen tun sich mit dem freien und offenen Zugang zu Publikationen häufig schwerer als so mancher Großverlag. Ein Boykott-Aufruf gegen die „Association for Computing Machinery” könnte nun einen Wandel anstoßen.

Wissenschaftliche Fachgesellschaften dienen im Allgemeinen der politischen und wissenschaftspolitischen Interessensvertretung ihrer Community. Teils finanzieren sie sich durch Verlagstätigkeiten, wie etwa die American Mathematical Society, die American Chemical Society oder die Association for Computing Machinery (ACM), die 1947 gegründete, erste wissenschaftliche Gesellschaft für die Informatik.

Auch wenn Open Access weithin als ein der Wissenschaftskommunikation förderliches Distributionsmodell angesehen wird, tun sich Fachgesellschaften mit dem offenen Zugang zu wissenschaftlichen Publikationen oft schwer und vertreiben ihre eigenen Produkte im Subskriptionsmodell, bei dem für die Nutzung der wissenschaftlichen Literatur gezahlt werden muss. Daher rufen Informatiker nun unter dem Motto „Tear Down This Paywall“ zum Boykott der ACM auf und orientieren sich dabei am aufsehenerregenden Elsevier-Boykott.

„Widerspruch zur Wissenschaftsethik”

Die Initiative wird mit dem traditionellen Open-Access-Argument untermauert: Es sei inakzeptabel, für die Nutzung wissenschaftlicher Literatur zu zahlen, deren Erstellung und Begutachtung unentgeltlich von Wissenschaftlern erbracht wurde. Der von Verlagsseite häufig vorgebrachte Einwand, man erbringe kostengenerierende Leistungen durch das Setzen der Artikel, entfällt bei der ACM, da Publikationen von den Autoren durch Verwendung des Satzsystems LaTeX camera ready, also druckfertig erstellt werden. Überdies betont die Initiative, andere Fachgesellschaften aus der Informatik und verwandten Fächern publizierten bereits im Open Access, so etwa die USENIX, die Association for Computational Linguistics oder Neural Information Processing Systems (NIPS).

Wer den Boykottaufruf unterzeichnet, kann versichern, nicht in ACM-Journals zu publizieren, keine Reviewer-Tätigkeiten für diese zu übernehmen und kein ACM-Mitglied zu werden bzw. die Mitgliedschaft zu beenden. Vorangetrieben wird der Protest von Alex Rudnick, einem Informatikstudent an der Indiana University. Zwar erlaubt es die ACM Autoren teilweise, angenommene Publikationen auf Servern der eigenen Einrichtungen wiederzuveröffentlichen, dennoch, so der Initiativruf, stehe das praktizierte Geschäftsmodell im Widerspruch zu den wissenschaftsethischen Ansprüchen der ACM, „sowohl professionellen und öffentlichen Interessen durch offenen Austausch von Informationen und durch die Förderung der höchsten professionellen und ethischen Standards“ zu dienen.

Journals müssen finanziert werden

Bislang findet der Boykott gegen die ACM jedoch eher im Stillen statt, er scheint fast im Sande zu verlaufen: Seit Bekanntmachung am 16. Februar unterzeichneten nur 371 Personen den Aufruf [Stand 10.03.2012]. Möglicherweise wird die ACM auch, anders als der Branchenriese Elsevier, nicht als größere Bedrohung der Wissenschaftskommunikation wahrgenommen. Und verglichen mit den häufig als zu hoch monierten Subskriptionsgebühren der ACS gilt die Preisgestaltung der ACM als moderat. Dies mag die eher bescheidene Unterstützung des Aufrufes erklären.

Dennoch weist er eine gewisse Symbolik auf und lässt die Frage aufkommen, warum es global agierenden und kommerziellen Verlagskonzernen offensichtlich leichter fällt, sich mit dem Open Access Geschäftsmodell zu arrangieren als Fachgesellschaften, die in aller Regel Non-Profit-Organisationen sind. So kaufte die Nature Publishing Group vor anderthalb Wochen den Open-Access-Verlag Frontiers auf und Verlagshäuser wie beispielsweise Springer Publishing und Wiley unterhalten mit „Springer Open” und „Wiley Open Access” entsprechende eigene Portfolios.

In vielen, vor allem kleinen Fachgesellschaften aber besteht die größte Motivation der Mitgliedschaft im kostenfreien oder vergünstigten Bezug der Journals der Gesellschaft. Werden diese unter Open-Access-Konditionen verfügbar gemacht, entfällt dieser Anreiz zur Mitgliedschaft. Zudem müssen auch Open-Access-Journals finanziert werden. Ein gängiger Finanzierungsbaustein sind Autorengebühren, die Wissenschaftler im Falle des Erscheinens eines eingereichten Textes an das Journal entrichten. Sind diese Gebühren in der Disziplin nicht akzeptiert, wird es den Gesellschaften kaum ohne weiteres gelingen, sie zu etablieren.

Werbung, Sponsoring, Spenden

Das Zögern in Sachen Open Access findet sich unter anderem auch in den deutschen informations- und bibliothekswissenschaftlichen Verbänden, die ihre Publikationen nicht offen herausgeben und daher von der Community barsch kritisiert werden. Es existiert in Deutschland derzeit mit Libreas nur ein einziges informations- oder bibliothekswissenschaftliches Open-Access-Journal, obwohl gerade Bibliotheken sich als Träger des Open-Access-Gedankens verstehen und sich von diesem – verglichen mit den Kosten des Subskriptionsmodells – Ersparnisse erwarten.

Dass Open Access auch in kleinen Communities florieren kann, beweist die Vereinigung Österreichischer Bibliothekarinnen und Bibliothekare (VÖB). Sie publiziert ihre Mitteilungen seit Ende 2010 zu Open-Access-Bedingungen und das recht erfolgreich: Das Journal wird gar in der internationalen und multidisziplinären Datenbank Scopus ausgewertet – ohne sich über Publikationsgebühren zu finanzieren.

Letztlich können Open-Access-Journals andere Einkommensquellen nutzen. Unter anderem solche, die schon Subskriptionsjournals kennen, wie Werbung oder Sponsoring. Auch Spenden oder E-Commerce durch die Verknüpfung mit Onlineshops, wie es der Online-Ableger des Spektrums der Wissenschaft vormacht, könnten einen Beitrag leisten.

Anstoß für Fachgesellschaften

Gleich welche Option gewählt wird: Der Schritt zum Open Access erfordert für Fachgesellschaften die Schaffung anderer Lockmittel als den kostenlosen Bezug einer Printzeitschrift: So stellte die Gesellschaft für Medizinische Ausbildung (GMA) ihr Journal erfolgreich auf Open Access um, nutzte dafür die Plattform German Medical Science und führte dennoch Autorengebühren ein. Diese muss aber nur entrichten, wer nicht Mitglied der Gesellschaft ist; Mitglieder dürfen entgeltfrei publizieren. Auch wenn der ACM-Boykott floppen sollte, könnte er wissenschaftliche Fachgesellschaften zumindest dazu zu veranlassen ihre Positionen zu Open Access auf den Prüfstand zu stellen.

Dieser Beitrag erschien zuerst auf Ulrich Herbs Blog scinoptica.com, Lizenz: CC BYFoto: mibuchatCC BY-NC-SA.

March 07 2013

Digitales Studieren: „Wir müssen die Chancen nutzen“

Wie verändern digitale Möglichkeiten das Lernen? Die Leuphana Universität Lüneburg testet mit „ThinkTank Cities“ die Online-Projektarbeit. Studenten aus mehr als 100 Ländern tüfteln in Teams an der Stadt der Zukunft.

Auch Cloud-Anwendungen machen es möglich: Studierende arbeiten online an gemeinsamen Texten und Modellen, greifen auf Materialsammlungen zurück und bewerten gegenseitig ihre Arbeiten. Wo auf der Erde sie am Computer sitzen, spielt dafür keine Rolle. Wie sich die neuen digitalen Möglichkeiten nutzen lassen, erprobt aktuell die „Digital School“ der Leuphana Universität in Lüneburg. Im dreimonatigen Kurs „ThinkTank Cities“ haben sich Teilnehmer aus mehr als 100 Nationen eingeschrieben. Zulassungsbeschränkungen oder Studiengebühren gibt es nicht. „Die digitale Interaktion hat die privaten Kommunikationsstrukturen und Arbeitsprozesse grundlegend verändert“, sagt Holm Keller, Vizepräsident der Leuphana Universität und verantwortlich für die „Digital School“. „Sie muss auch für vollkommen neue Bildungsangebote genutzt werden.“

Im Online-Kurs „ThinkTank Cities“ entwerfen fünfköpfige Teams eine neue Stadt. Hierzu diskutieren sie existierende Planstädte wie Karlsruhe und Brasilia, entwickeln die Vision einer städtischen Gesellschaft, und bauen am Ende auch ein Architektur-Modell ihrer Idealstadt. Bekannte Experten wie der US-Architekt Daniel Libeskind und die Soziologin Saskia Sassen (Columbia University in New York) geben Video-Vorlesungen, beantworten Fragen und bewerten die Arbeiten. Die Mitstudenten sind aufgerufen, die Ergebnisse der Projekt-Teams zu kommentieren („Peer-Review“).

Soziale Interaktion statt Frontalunterricht

Die „Digital School“ will sich bewusst von anderen E-Learning-Konzepten absetzen, bei denen die soziale Interaktion zu kurz kommt. „Wir sehen bei vielen Angeboten keine echte Online-Didaktik, sondern das schlichte Abfilmen von Lehrveranstaltungen, gefolgt von Multiple-Choice-Tests“, sagt Keller. Mit einem „Social Learning“-Konzept setzt man in Lüneburg stattdessen auf Teamarbeit an einem Endprodukt. „Die Teilnehmer lernen dabei implizit auch, mit sehr unterschiedlichen Menschen gemeinsame Lösungen zu finden“, so Keller. Die Einbindung der Studenten in einen interaktiven, sozialen Prozess ermögliche bessere Lerneffekte: „Das ist online nicht anders als offline.“ Die soziale Interaktion könnte sogar ein Zusatznutzen digitaler Lehrangebote sein.

Große Nachteile der reinen Online-Kommunikation sieht Keller nicht. Im Gegenteil. Im Vergleich zur persönlichen Kommunikation könne die Online-Zusammenarbeit sogar zu weniger „egozentrischen“ Lösungen führen. Zwar fielen manche Signale in der Kommunikation weg, etwa die Mimik und der Tonfall der Gesprächspartner, doch könnten hier Online-Videokonferenzen Abhilfe schaffen. Allerdings organisieren die Teams im „ThinkTank-Cities”-Kurs die Kommunikation untereinander selbst. „Sie können die Wege selbst wählen, wir machen da keine Vorgaben“, sagt Keller.

Der Redebedarf kann groß sein. Denn die Leuphana Universität setzt die Teams mit Hilfe eines Algorithmus so zusammen, dass die Teilnehmer möglichst unterschiedliche berufliche Erfahrungen und kulturelle Hintergründe mitbringen. Auf der anderen Seite aber sollen die Ansprüche der Team-Mitglieder an das Projekt möglichst übereinstimmen – hier setzt man auf „Homogenität“. Wer etwa besonders viel diskutieren möchte, trifft auf in seiner Gruppe auf Gleichgesinnte.

Europa ebnet Online-Studium den Weg

Dem Online-Kurs sollen nach Möglichkeit ganze Online-Studiengänge an der Leuphana Universität folgen. Langfristig schweben Keller global einheitliche Bildungsplattformen vor. Die Online-Studiengänge sollen akademische Abschlüsse bieten, die allgemein anerkannt werden. Das grenzüberschreitende Online-Studium wird schon jetzt durch den „Europäischen Hochschulraum“ erleichtert, der mit dem sogenannten Bologna-Prozess entstanden ist. Die Hochschulen erkennen im europäischen Ausland erworbene Prüfungsleistungen an. Der Bologna-Prozess habe dem digitalen Lernen einen Schub gegeben, meint Keller. Bei erfolgreicher Teilnahme am „ThinkTank Cities“-Kurs können sich Studierende Leistungspunkte an ihren „Heimathochschulen“ anrechnen lassen.

Digitale Wege zum lebenslangen Lernen

Keller sieht in den ortsungebundenen Online-Studiengängen Chancen für mehr „globale Bildungsgerechtigkeit“. So könnten zum Beispiel viele Menschen in Afrika aus familiären und finanziellen Gründen nicht in eine Universitätsstadt ziehen, um dort zu studieren. Für Ausländer ergebe sich auch die Möglichkeit, einen in Europa anerkannten Universitätsabschluss zu machen, bevor sie in die EU einwandern. „Mit einem europäischen Masterabschluss haben Einwanderer formal ganz andere Möglichkeiten, hier Zugang zu Berufen zu bekommen.“ Auch das „lebenslange Lernen“, das Wirtschaft und Politik regelmäßig einfordern, sei ohne Revolution der Online-Lehre nicht umsetzbar, meint Keller. Die Menschen müssten dauerhaft neben Familie und Beruf lernen können, und nicht nur in einer bestimmten Lebensphase und an einem bestimmten Ort. „Lernen muss Teil des Lebens sein, das haben private Anbieter und die öffentliche Hand zu lange vernachlässigt.“

Harvard für alle?

Offen bleibt, welche Institutionen und Anbieter den globalen (Online-)-Bildungsmarkt künftig prägen. Studieren bald Millionen von Menschen an der Harvard-Universität, weil sie weltweit einen klangvollen Namen hat? Nein, mein Keller. „Digitale Lehre bedeutet nicht die Automatisierung von Bildung.“ Auch online könne Harvard nur eine begrenzte Zahl von Studenten betreuen. „Das Personal kann zwar in der Online-Lehre anders organisiert werden, aber die Interaktionszeit pro Student wird nicht geringer.“ Mehr Wettbewerb im Bildungsmarkt führt laut Keller nicht dazu, dass langfristig deutsche Unis an den Rand gedrückt werden. Allerdings könnten deutsche Studenten online viel internationaler arbeiten.

March 01 2013

Neue Schritte für Open Access: EFI-Gutachten und Zweitveröffentlichungsrecht

Die EFI-Kommission fordert von der Bundesregierung mehr Open Access. Ein Gesetzentwurf des Justizministeriums sieht nun auch ein Zweitveröffentlichungsrecht vor, bleibt allerdings hinter den Empfehlungen der Wissenschaft zurück.

Die Expertenkommission für Forschung und Innovation (EFI) der Bundesregierung betont in ihrem neuen Jahresgutachten, (PDF), das diese Woche Kanzlerin Merkel übergeben wurde, die Bedeutung von Open Access für den Wissenschaftsstandort Deutschland. Die sechs Wissenschaftler, die die Bundesregierung mit Analysen und Empfehlungen beraten, kommen zu dem Schluss, dass Open Access in Deutschland gefördert werden müsse. Ein offener Zugang zu den Ergebnissen öffentlich geförderter Forschung führe „zu mehr Wettbewerb und zu einer verstärkten Erschließung der Potenziale des Internets bei der Verbreitung von Wissen.”

Über diese Feststellung hinaus fordert die Kommission ein unabdingbares Zweitveröffentlichungsrecht. Dieses Recht, wissenschaftliche Beiträge erneut zu veröffentlichen, impliziert keinerlei Zwang. Die Regelung würde Wissenschaftlerinnen und Wissenschaftlern die rechtlich abgesicherte Möglichkeit eröffnen, Publikationen, die in Zeitschriften oder Sammelbänden erschienen sind, nach einer Embargofrist auf Repositorien frei zugänglich zu machen. Dazu würde Paragraf 38 Urheberrechtsgesetz geändert werden. Das Ergebnis: Wissenschaftlich Urheber könnten selbst über den Grad der Sichtbarkeit ihrer Forschungsergebnisse entscheiden.

Aktuell sind Publizierende in der Wissenschaft auf die Regelungen der Verlage angewiesen. Die fallen unterschiedlich aus und bieten keine umfassende Rechtssicherheit. Der sogenannte „Grüne Weg” des Open Access lässt sich daher nur langsam umsetzen. Die Wissenschaft fordert das Zweitveröffentlichungsrecht seit Jahren. Der Bundesrat hat das Anliegen bereits 2006 auf die politische Tagesordnung gesetzt. Eine weiterer Anlauf der Länder folgte im letzten Jahr.

Justizministerium für Zweitveröffentlichungsrecht

Seit einigen Tagen liegt nun ein Referentenentwurf (PDF) des Justizministeriums vor: Im Rahmen einiger Änderungen am Urheberrechtsgesetz ist auch ein Zweitveröffentlichungsrecht vorgesehen. Der Entwurf fokussiert Beiträge, die „im Rahmen einer mindestens zur Hälfte mit öffentlichen Mitteln finanzierten Lehr- und Forschungstätigkeit entstanden und in einer periodisch mindestens zweimal jährlich erscheinenden Sammlung” erscheinen. Diese Beiträge sollen nach einem Embargo von zwölf Monaten in einer Manuskriptversion frei zugänglich gemacht werden können.

Die Vorstellungen des Justizministeriums weichen hier allerdings von den Empfehlungen der Wissenschaft ebenso wie von denen der Internet-Enquete des Bundestags ab. Diese hatten empfohlen, auch Beiträge in Sammelbänden zu berücksichtigen und formatgleiche Beiträgen – das heißt: im Verlagslayout – zu gestatten. Darüber hinaus hatten die Wissenschaftsorganisationen eine kürzere Embargofrist vorgeschlagen. Nach deren Vorstellung sollten zum Beispiel Zeitschriftenaufsätze bereits nach sechs Monaten über das Netz zugänglich gemacht werden können. Interessant wird nun sein, wie sich die Diskussion um das Finetuning beim Zweitveröffentlichungsrecht in den kommenden Wochen entwickelt.

Open Access in der Forschungsförderung

In anderen Ländern wird vermehrt auf eine verpflichtende Verankerung von Open Access gesetzt. Auch die Internet-Enquete hat sich in ihren Handlungsempfehlungen dieses Themas angenommen. Sie empfiehlt,

„die Zuwendung öffentlicher Mittel für Forschungsprojekte an die rechtlich verpflichtende Bedingung, zu knüpfen, dass die daraus  entstehenden, qualitätsgesicherten Publikationen [...], zeitnah nach der Erstveröffentlichung frei zugänglich gemacht werden.”

Die Expertenkommission für Forschung und Innovation greift diese Forderung auf und empfiehlt der Bundesregierung, Open Access verpflichtend in der Forschungsförderung zu verankern.

Die Empfehlung liegt im internationalen Trend: Erst diesen Monat hat die US-Regierung eine entsprechende Verordnung erlassen. Publikationen, die im Rahmen der öffentlich geförderten Forschung entstehen, sollen nach einer Embargoperiode von nicht mehr als zwölf Monaten frei zugänglich gemacht werden. Der Schritt der US-Regierung ist eine Reaktion auf die Petition “Access2research” die im vergangenen Jahr von mehr als 65.000 Menschen unterzeichnet wurde. In Deutschland wurde eine ähnliche Petition im Jahr 2009 von etwa 24.000 Bürgerinnen und Bürgern unterzeichnet. Sie gehörte damals laut Petitionsausschuss zu den bisher am meisten beachteten öffentlichen Petitionen.”


Foto: mibuchat, CC BY-NC-SA.

February 14 2013

Information Mining: Aus dem Steinbruch der Wissenschaft

Große Massen an Forschungsdaten werden mit Techniken des „Information Mining” maschinell ausgewertet, um neue statistische Muster zu entdecken. Das wirft technische und rechtliche Fragen und Probleme auf: In PDF-Dateien lässt sich schlecht nach Daten schürfen. Soll Information Mining in der Wissenschaft allgemein erlaubt oder lizenzrechtlich geregelt werden?

In nicht wenigen Wissenschaftsdisziplinen verschwimmen die Grenzen zwischen Text und Software, etwa wenn man living documents betrachtet, die Updates unterliegen, oder dazu übergeht, Texte in Umgebungen wie Github oder Figshare kollaborativ zu entwickeln. Wenn man Texte als eine Art kompilierte Software ansieht, sollte man auch deren Quelltexten, den Forschungsdaten, Aufmerksamkeit schenken. Denn wie Jenny Molloy von der Open Knowledge Foundation resümiert: „Science is built on data“.

Textpublikationen dokumentieren die Schaffung eines Wissensstands, die in Form von Zitaten oder Projektbewilligungen belohnt wird. Die zugrundeliegenden Daten bleiben oft verborgen – es sei denn, man stellt sie im Open Access bereit. Dies birgt gewisse Risiken: Wissenschaftler, die keinen Beitrag zur Erhebung leisteten, könnten die Daten auswerten und den ursprünglichen Datenproduzenten zur Konkurrenz werden.

Andererseits potenziert die offene Zugänglichkeit den wissenschaftlichen Fortschritt und die Verwertung der Daten, da unzählige Wissenschaftler sie auswerten können. Diese Crowd-Komponente der Datennutzung wird ergänzt durch die technischen Möglichkeiten des Data Mining. Digital vorliegendende Forschungsdaten werden automatisiert und rechnergestützt ausgewertet – ob Datenreihen, Tabellen, Graphen, Audio- und Videodateien, Software oder Texte.

Muster in Datenbergen entdecken

Digitale Verfügbarkeit und maschinelle Auswertungen kennzeichnen den Aufstieg der data-driven science, die statistische Muster in schier unendlichen Daten ausmacht, um diese anschließend wissenschaftlich zu erklären. Dieser Ansatz ergänzt die traditionelle theorie- und hypothesengetriebene Wissenschaft, die von Theorien ausgeht, Hypothesen ableitet, Erhebungsinstrumente entwirft, dann Daten erhebt und anschließend analysiert.

Um die Möglichkeiten der neuen Methoden auszuschöpfen, sollten die Daten jedoch offen verfügbar sein. So verlangen es zum Beispiel die Panton Principles, die fordern, dass Forschungsdaten auf jede mögliche Art offen genutzt, ausgewertet und weiterverbreitet werden dürfen, solange die Datenproduzenten genannt werden. Sogar diese Bedingungen entfallen, wenn die Resultate in die public domain, in die Gemeinfreiheit entlassen werden.

Stochern in PDF-Dateien

In der Praxis sind Forschungsdaten zwar teils verfügbar – sei es nur für Subskribenten wissenschaftlicher Journale oder auch für jedermann – offen sind sie jedoch nicht unbedingt: Weder rechtlich, denn selbst Informationen in auslesbaren Formaten stehen längst nicht immer unter einer Lizenz, die Data Mining ausdrücklich erlaubt. Noch technisch, denn oft finden sich Daten in versiegelten PDF-Dateien, die nicht maschinell ausgewertet werden können. Ein Umstand, den die Open-Science-Community pointiert mit der Analogie beschreibt, Daten aus einer PDF-Datei zu extrahieren gleiche dem Versuch, aus einem Hamburger wieder ein Rind zu machen.
Gegen das Text- und Data-Mining positionieren sich kommerzielle Akteure, deren Geschäftsmodell auf der Verknappung von Information basiert: In einer Konsultation (PDF) des Intellectual Property Office in Großbritannien sprachen sich zahlreiche dieser Informationsanbieter gegen eine Blankoerlaubnis zum Content-Mining copyright-belasteter Inhalte zu wissenschaftlichen Zwecken aus – selbst wenn die Institution eines Forschers auf die Inhalte via Subskription zugreifen darf und obwohl die Forschungsergebnisse mit öffentlichen Geldern produziert wurden.

Einige der Informationsanbieter schlugen vor, den Zugang über Lizenzierungen zu regeln, die allerdings vermutlich – dem traditionellen Geschäftsmodell folgend – kostenpflichtig sein dürften. Dem Chemiker Peter Murray-Rust etwa gestattete ein Verlag nach zwei Jahren zäher Verhandlung das Text-Mining von Publikationen, jedoch nur wenn die Rechte an den Resultaten an den Verlag fielen und nicht öffentlich zugänglich gemacht würden.

Nutzen der Offenheit

Volkswirtschaftlich betrachtet haben Data- und Text-Mining jedoch ungeheures Potential: Ihre Anwendung in der Wissenschaft könnte nach einer McKinsey-Studie der europäischen Wirtschaft eine Wertschöpfung von 250 Milliarden Euro pro Jahr bescheren. Das setzt aber voraus, dass Informationen offen verfügbar sind, denn der Ausschluss kommerzieller Daten-Nutzung verhindert, dass neue Dienste und Produkte entwickelt werden.

Murray-Rust etwa entwickelte Techniken zum Data-Mining kristallographischer Daten, deren Ergebnisse sehr fruchtbar für die Schaffung neuer medizinischer Wirkstoffe sein können. Wenn es nicht erlaubt ist, die ausgewerteten Daten kommerziell zu verwerten, werden Pharmafirmen vor der Verwendung Abstand nehmen. Nicht zuletzt ermöglicht Text- und Data-Mining auch effizienteres Information Retrieval, etwa wenn Forschern Empfehlungsdienste nach einer Analyse relevante Daten oder Texte vorschlagen und aufwändige Recherchen abkürzen.

Ulrich Herb ist Herausgeber des frei verfügbaren Sammelbandes „Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft”, Promovend zum Thema „Open Social Science“, Open Access Experte der Universität des Saarlandes, freiberuflicher Wissenschafts- und Publikationsberater. Foto: Flickr/Born1945, CC BY-SA.

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl