Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

March 05 2013

March 01 2013

Neue Schritte für Open Access: EFI-Gutachten und Zweitveröffentlichungsrecht

Die EFI-Kommission fordert von der Bundesregierung mehr Open Access. Ein Gesetzentwurf des Justizministeriums sieht nun auch ein Zweitveröffentlichungsrecht vor, bleibt allerdings hinter den Empfehlungen der Wissenschaft zurück.

Die Expertenkommission für Forschung und Innovation (EFI) der Bundesregierung betont in ihrem neuen Jahresgutachten, (PDF), das diese Woche Kanzlerin Merkel übergeben wurde, die Bedeutung von Open Access für den Wissenschaftsstandort Deutschland. Die sechs Wissenschaftler, die die Bundesregierung mit Analysen und Empfehlungen beraten, kommen zu dem Schluss, dass Open Access in Deutschland gefördert werden müsse. Ein offener Zugang zu den Ergebnissen öffentlich geförderter Forschung führe „zu mehr Wettbewerb und zu einer verstärkten Erschließung der Potenziale des Internets bei der Verbreitung von Wissen.”

Über diese Feststellung hinaus fordert die Kommission ein unabdingbares Zweitveröffentlichungsrecht. Dieses Recht, wissenschaftliche Beiträge erneut zu veröffentlichen, impliziert keinerlei Zwang. Die Regelung würde Wissenschaftlerinnen und Wissenschaftlern die rechtlich abgesicherte Möglichkeit eröffnen, Publikationen, die in Zeitschriften oder Sammelbänden erschienen sind, nach einer Embargofrist auf Repositorien frei zugänglich zu machen. Dazu würde Paragraf 38 Urheberrechtsgesetz geändert werden. Das Ergebnis: Wissenschaftlich Urheber könnten selbst über den Grad der Sichtbarkeit ihrer Forschungsergebnisse entscheiden.

Aktuell sind Publizierende in der Wissenschaft auf die Regelungen der Verlage angewiesen. Die fallen unterschiedlich aus und bieten keine umfassende Rechtssicherheit. Der sogenannte „Grüne Weg” des Open Access lässt sich daher nur langsam umsetzen. Die Wissenschaft fordert das Zweitveröffentlichungsrecht seit Jahren. Der Bundesrat hat das Anliegen bereits 2006 auf die politische Tagesordnung gesetzt. Eine weiterer Anlauf der Länder folgte im letzten Jahr.

Justizministerium für Zweitveröffentlichungsrecht

Seit einigen Tagen liegt nun ein Referentenentwurf (PDF) des Justizministeriums vor: Im Rahmen einiger Änderungen am Urheberrechtsgesetz ist auch ein Zweitveröffentlichungsrecht vorgesehen. Der Entwurf fokussiert Beiträge, die „im Rahmen einer mindestens zur Hälfte mit öffentlichen Mitteln finanzierten Lehr- und Forschungstätigkeit entstanden und in einer periodisch mindestens zweimal jährlich erscheinenden Sammlung” erscheinen. Diese Beiträge sollen nach einem Embargo von zwölf Monaten in einer Manuskriptversion frei zugänglich gemacht werden können.

Die Vorstellungen des Justizministeriums weichen hier allerdings von den Empfehlungen der Wissenschaft ebenso wie von denen der Internet-Enquete des Bundestags ab. Diese hatten empfohlen, auch Beiträge in Sammelbänden zu berücksichtigen und formatgleiche Beiträgen – das heißt: im Verlagslayout – zu gestatten. Darüber hinaus hatten die Wissenschaftsorganisationen eine kürzere Embargofrist vorgeschlagen. Nach deren Vorstellung sollten zum Beispiel Zeitschriftenaufsätze bereits nach sechs Monaten über das Netz zugänglich gemacht werden können. Interessant wird nun sein, wie sich die Diskussion um das Finetuning beim Zweitveröffentlichungsrecht in den kommenden Wochen entwickelt.

Open Access in der Forschungsförderung

In anderen Ländern wird vermehrt auf eine verpflichtende Verankerung von Open Access gesetzt. Auch die Internet-Enquete hat sich in ihren Handlungsempfehlungen dieses Themas angenommen. Sie empfiehlt,

„die Zuwendung öffentlicher Mittel für Forschungsprojekte an die rechtlich verpflichtende Bedingung, zu knüpfen, dass die daraus  entstehenden, qualitätsgesicherten Publikationen [...], zeitnah nach der Erstveröffentlichung frei zugänglich gemacht werden.”

Die Expertenkommission für Forschung und Innovation greift diese Forderung auf und empfiehlt der Bundesregierung, Open Access verpflichtend in der Forschungsförderung zu verankern.

Die Empfehlung liegt im internationalen Trend: Erst diesen Monat hat die US-Regierung eine entsprechende Verordnung erlassen. Publikationen, die im Rahmen der öffentlich geförderten Forschung entstehen, sollen nach einer Embargoperiode von nicht mehr als zwölf Monaten frei zugänglich gemacht werden. Der Schritt der US-Regierung ist eine Reaktion auf die Petition “Access2research” die im vergangenen Jahr von mehr als 65.000 Menschen unterzeichnet wurde. In Deutschland wurde eine ähnliche Petition im Jahr 2009 von etwa 24.000 Bürgerinnen und Bürgern unterzeichnet. Sie gehörte damals laut Petitionsausschuss zu den bisher am meisten beachteten öffentlichen Petitionen.”


Foto: mibuchat, CC BY-NC-SA.

February 28 2013

Four short links: 28 February 2013

  1. Myth of the Free Internet (The Atlantic) — equity of access is an important issue, but this good point is marred by hanging it off the problematic (beer? speech? downloads?) “free”. I’m on the council of InternetNZ whose mission is to protect and promote the open and uncaptureable Internet. (A concept so good we had to make up a word for it)
  2. Periodic Table of the SmartPhone (PDF, big) — from Scientific American article on Rare Earth Minerals in the Smartphone comes a link to this neat infographic showing where rare earth elements are used in the iPhone. (via Om Malik)
  3. CrazyFlie Nano Preorders19g, 9cm x 9cm, 20min charge time for 7m flight time on this nano-quadrocopter. (via Wired)
  4. Changing Scientific Publishing (The Economist) — Nature buys an alternative journal publisher (30 titles in 14 scientific fields), which comes with an 80k-member social network for scientists. Macmillan are a clever bunch. (O’Reilly runs Science Foo Camp with Macmillan’s Digital Sciences and Google)

February 25 2013

Wochenrückblick: Verwaiste Werke, Leistungsschutzrecht, Auskunftsanspruch

Das Justizministerium stellt einen neuen „Strauß” an Urheberrechtsänderungen vor, Siegfried Kauder übt Kritik am Leistungsschutzrecht, ein Auskunftsanspruch gegen Behörden folgt direkt aus dem Grundgesetz. Außerdem im Wochenrückblick: Italianshare.net, Jugendmedienschutz, Hacker-Angriffe, Kabelmarkt.

Justizministerium mit neuen Änderungen beim Urheberrecht

Das Bundesministerium der Justiz hat einen knapp 30-seitigen Entwurf zur Änderung des Urheberrechtsgesetzes vorgelegt. Der Referentenentwurf sieht eine Erleichterung der Nutzung verwaister und vergriffener Werke vor. Außerdem soll durch ein Zweitveröffentlichungsrecht für einzelne Wissenschaftspublikationen ein „Open-Access”-Anspruch begründet werden. Der Entwurf lehnt sich an die EU-Richtlinie über verwaiste Werke an. Angesichts der früheren Ankündigungen kann von einem großen Dritten Korb des Urheberrechts nicht die Rede sein. Im Jargon des Ministeriums gehöre der Entwurf zu einem „gewissen Strauß” an Änderungen des Urheberrechts.
Ausführlich bei Heise online.

Vorsitzender des Rechtsausschusses übt Kritik am Presse-Leistungsschutzrecht

Der Vorsitzende des Rechtsausschusses des Bundestages, Siegfried Kauder (CDU), will das geplante Presse-Leistungsschutzrecht „nicht im Schweinsgalopp durch den Bundestag jagen”. Die Anhörungen im Rechtsausschus wiesen „gravierende Mängel” auf. „Wir stehen vor dem Dilemma, dass wir einen großen Teil unserer Hausaufgaben nicht gemacht haben”, so Kauder. Zugleich mahnte er Nachbesserungen am aktuellen Gesetzesentwurf an. In der aktuellen Fassung könne er dem Bundespräsidenten nicht raten das Gesetz auszufertigen. Argumentativ nahm er Bezug auf eine vor kurzem veröffentlichte Studie nach der das Leistungsschutzrecht verfassungswidrig sei. Ursprünglich sollte es am 28. Februar vom Bundestag verabschiedet werden. Von der Tagesordnung wurde es aber inzwischen wieder gestrichen.
Zur Meldung bei Heise Online.

Bundesverwaltungsgericht: Auskunftsanspruch folgt aus der Pressefreiheit

Ein presserechtlicher Auskunftsanspruch gegen eine Bundesbehörde kann direkt aus dem Grundgesetz (Artikel 5 Abs. 1 S. 2 GG) hergeleitet werden. Dies hat das Bundesverwaltungsgericht entschieden. Presserechtliche Auskunftsansprüche seien bislang nur in den Landes-Pressegesetzen geregelt. Diese seien auf Bundesbehörden aber nicht anwendbar. Das Gericht betonte jedoch die besondere Bedeutung der Presse in einem freiheitlichen demokratischen Staat. Soweit der Bundes-Gesetzgeber von seiner Regelungskompetenz also keinen Gebrauch mache, kann hiernach ein Auskunftsanspruch direkt aus dem Grundrecht der Pressefreiheit hergeleitet werden.
Zur Besprechung bei Telemedicus.

Italien: Millionenstrafe wegen Verstoßes gegen das Urheberrecht

In Italien wurde die höchste Strafe aller Zeiten wegen Verstoßes gegen das Urheberrecht verhängt. Der Admin des Filesharing-Portals Italienshare.net wurde zu einer Strafe von 6,4 Millionen Euro verurteilt. Nach Überzeugung der Behörden soll er 580.000 Euro mit Werbung und Verkauf von Nutzerdaten verdient haben. Die italienische Guardia di Finanzia hatte das Forum als einen „Supermarkt für Raubkopien” bezeichnet.
Zur Meldung bei Heise online.

Nächster Anlauf zu neuem Jugendmedienschutz-Staatsvertrag

Die Länder wollen im Herbst einen neuen Entwurf für den Jugendmedienschutz-Staatsvertrag vorlegen. Ein Schwerpunkt soll der technische Jugendmedienschutz sein. Unter anderem solle die Effektivität der Jugendschutzprogramme verbessert werden. Umstritten ist weiterhin wieviele Altersstufen für die Bewertung von Inhalten vorgesehen sein sollen. Eine Novellierung des seit 2003 geltenden JMStV war vor zwei jahren gescheitert, obwohl von mehreren Seiten Reformbedarf angemahnt wird.
Zur Meldung bei Heise online.

Hackerangriffe aus China

Laut Verfassungsschutz hat es im letzten Jahr über 1.000 Hackerangriffe auf deutsche Firmen und Behörden gegeben. Dahinter stecken größtenteils ausländische Nachrichtendienste insbesondere aus China. Besonders betroffen waren die EADS und Thyssen-Krupp. Laut Focus und Spiegel haben die Angriffe inzwischen ein solches Ausmaß angenommen, dass die Bundesregierung verständigt wurde. Auch in den USA sind die Hacker Angriffe in großem Stil aus China nichts Unbekanntes.
Ausführlich bei Heise online.

Kabel Deutschland darf Tele Columbus nicht übernehmen

Das Bundeskartellamt hat die Übernahme des Kabelanbieters Tele Columbus durch Kabel Deutschland (KDG) untersagt. Die Übernahme hätte dazu geführt, dass speziell in Ostdeutschland keine Alternative zu Kabel Deutschland mehr bestanden hätte. Einen Weiterverkauf der besonders kritischen – weil alternativlosen – städtischen Netze hatte KDG ausgeschlossen. Das ohnehin schon bestehende „bundesweite Oligopol der beiden großen regionalen Kabelnetzbetreiber” Kabel Deutschland und Unitymedia Kabel BW wäre durch eine Übernahme so noch verstärkt worden. KDG könnte gegen die Entscheidung vor dem OLG Düsseldorf vorgehen, erklärte aber bereits die Übernahme als wirtschaftlich gescheitert.
Zur Nachricht bei Heise online.

Lizenz dieses Artikels: CC BY-NC-SA. Foto: Yi-tao Timo Lee, CC BY-NC.

February 22 2013

White House moves to increase public access to scientific research online

Today, the White House responded to a We The People e-petition that asked for free online access to taxpayer-funded research.

open-access-smallopen-access-smallAs part of the response, John Holdren, the director of the White House Office of Science and Technology Policy, released a memorandum today directing agencies with “more than $100 million in research and development expenditures to develop plans to make the results of federally-funded research publically available free of charge within 12 months after original publication.”

The Obama administration has been considering access to federally funded scientific research for years, including a report to Congress in March 2012. The relevant e-petition, which had gathered more than 65,000 signatures, had gone unanswered since May of last year.

As Hayley Tsukayama notes in the Washington Post, the White House acknowledged the open access policies of the National Institutes of Health as a successful model for sharing research.

“This is a big win for researchers, taxpayers, and everyone who depends on research for new medicines, useful technologies, or effective public policies,” said Peter Suber, Director of the Public Knowledge Open Access Project, in a release. “Assuring public access to non-classified publicly-funded research is a long-standing interest of Public Knowledge, and we thank the Obama Administration for taking this significant step.”

Every federal agency covered by this memomorandum will eventually need to “ensure that the public can read, download, and analyze in digital form final peer-reviewed manuscripts or final published documents within a timeframe that is appropriate for each type of research conducted or sponsored by the agency.”

An open government success story?

From the day they were announced, one of the biggest question marks about We The People e-petitions has always been whether the administration would make policy changes or take public stances it had not before on a given issue.

While the memorandum and the potential outcomes from its release come with caveats, from a $100 million threshold to national security or economic competition, this answer from the director of the White House Office of Science Policy accompanied by a memorandum directing agencies to make a plan for public access to research is a substantive outcome.

While there are many reasons to be critical of some open government initiatives, it certainly appears that today, We The People were heard in the halls of government.

An earlier version of this post appears on the Radar Tumblr, including tweets regarding the policy change. Photo Credit: ajc1 on Flickr.

Reposted bycheg00 cheg00

February 14 2013

Information Mining: Aus dem Steinbruch der Wissenschaft

Große Massen an Forschungsdaten werden mit Techniken des „Information Mining” maschinell ausgewertet, um neue statistische Muster zu entdecken. Das wirft technische und rechtliche Fragen und Probleme auf: In PDF-Dateien lässt sich schlecht nach Daten schürfen. Soll Information Mining in der Wissenschaft allgemein erlaubt oder lizenzrechtlich geregelt werden?

In nicht wenigen Wissenschaftsdisziplinen verschwimmen die Grenzen zwischen Text und Software, etwa wenn man living documents betrachtet, die Updates unterliegen, oder dazu übergeht, Texte in Umgebungen wie Github oder Figshare kollaborativ zu entwickeln. Wenn man Texte als eine Art kompilierte Software ansieht, sollte man auch deren Quelltexten, den Forschungsdaten, Aufmerksamkeit schenken. Denn wie Jenny Molloy von der Open Knowledge Foundation resümiert: „Science is built on data“.

Textpublikationen dokumentieren die Schaffung eines Wissensstands, die in Form von Zitaten oder Projektbewilligungen belohnt wird. Die zugrundeliegenden Daten bleiben oft verborgen – es sei denn, man stellt sie im Open Access bereit. Dies birgt gewisse Risiken: Wissenschaftler, die keinen Beitrag zur Erhebung leisteten, könnten die Daten auswerten und den ursprünglichen Datenproduzenten zur Konkurrenz werden.

Andererseits potenziert die offene Zugänglichkeit den wissenschaftlichen Fortschritt und die Verwertung der Daten, da unzählige Wissenschaftler sie auswerten können. Diese Crowd-Komponente der Datennutzung wird ergänzt durch die technischen Möglichkeiten des Data Mining. Digital vorliegendende Forschungsdaten werden automatisiert und rechnergestützt ausgewertet – ob Datenreihen, Tabellen, Graphen, Audio- und Videodateien, Software oder Texte.

Muster in Datenbergen entdecken

Digitale Verfügbarkeit und maschinelle Auswertungen kennzeichnen den Aufstieg der data-driven science, die statistische Muster in schier unendlichen Daten ausmacht, um diese anschließend wissenschaftlich zu erklären. Dieser Ansatz ergänzt die traditionelle theorie- und hypothesengetriebene Wissenschaft, die von Theorien ausgeht, Hypothesen ableitet, Erhebungsinstrumente entwirft, dann Daten erhebt und anschließend analysiert.

Um die Möglichkeiten der neuen Methoden auszuschöpfen, sollten die Daten jedoch offen verfügbar sein. So verlangen es zum Beispiel die Panton Principles, die fordern, dass Forschungsdaten auf jede mögliche Art offen genutzt, ausgewertet und weiterverbreitet werden dürfen, solange die Datenproduzenten genannt werden. Sogar diese Bedingungen entfallen, wenn die Resultate in die public domain, in die Gemeinfreiheit entlassen werden.

Stochern in PDF-Dateien

In der Praxis sind Forschungsdaten zwar teils verfügbar – sei es nur für Subskribenten wissenschaftlicher Journale oder auch für jedermann – offen sind sie jedoch nicht unbedingt: Weder rechtlich, denn selbst Informationen in auslesbaren Formaten stehen längst nicht immer unter einer Lizenz, die Data Mining ausdrücklich erlaubt. Noch technisch, denn oft finden sich Daten in versiegelten PDF-Dateien, die nicht maschinell ausgewertet werden können. Ein Umstand, den die Open-Science-Community pointiert mit der Analogie beschreibt, Daten aus einer PDF-Datei zu extrahieren gleiche dem Versuch, aus einem Hamburger wieder ein Rind zu machen.
Gegen das Text- und Data-Mining positionieren sich kommerzielle Akteure, deren Geschäftsmodell auf der Verknappung von Information basiert: In einer Konsultation (PDF) des Intellectual Property Office in Großbritannien sprachen sich zahlreiche dieser Informationsanbieter gegen eine Blankoerlaubnis zum Content-Mining copyright-belasteter Inhalte zu wissenschaftlichen Zwecken aus – selbst wenn die Institution eines Forschers auf die Inhalte via Subskription zugreifen darf und obwohl die Forschungsergebnisse mit öffentlichen Geldern produziert wurden.

Einige der Informationsanbieter schlugen vor, den Zugang über Lizenzierungen zu regeln, die allerdings vermutlich – dem traditionellen Geschäftsmodell folgend – kostenpflichtig sein dürften. Dem Chemiker Peter Murray-Rust etwa gestattete ein Verlag nach zwei Jahren zäher Verhandlung das Text-Mining von Publikationen, jedoch nur wenn die Rechte an den Resultaten an den Verlag fielen und nicht öffentlich zugänglich gemacht würden.

Nutzen der Offenheit

Volkswirtschaftlich betrachtet haben Data- und Text-Mining jedoch ungeheures Potential: Ihre Anwendung in der Wissenschaft könnte nach einer McKinsey-Studie der europäischen Wirtschaft eine Wertschöpfung von 250 Milliarden Euro pro Jahr bescheren. Das setzt aber voraus, dass Informationen offen verfügbar sind, denn der Ausschluss kommerzieller Daten-Nutzung verhindert, dass neue Dienste und Produkte entwickelt werden.

Murray-Rust etwa entwickelte Techniken zum Data-Mining kristallographischer Daten, deren Ergebnisse sehr fruchtbar für die Schaffung neuer medizinischer Wirkstoffe sein können. Wenn es nicht erlaubt ist, die ausgewerteten Daten kommerziell zu verwerten, werden Pharmafirmen vor der Verwendung Abstand nehmen. Nicht zuletzt ermöglicht Text- und Data-Mining auch effizienteres Information Retrieval, etwa wenn Forschern Empfehlungsdienste nach einer Analyse relevante Daten oder Texte vorschlagen und aufwändige Recherchen abkürzen.

Ulrich Herb ist Herausgeber des frei verfügbaren Sammelbandes „Open Initiatives: Offenheit in der digitalen Welt und Wissenschaft”, Promovend zum Thema „Open Social Science“, Open Access Experte der Universität des Saarlandes, freiberuflicher Wissenschafts- und Publikationsberater. Foto: Flickr/Born1945, CC BY-SA.

February 01 2013

Zusammenarbeit für offene Wissenschaftsdaten

Wissenschaftliche Organisationen weltweit diskutieren über den offenen Zugang zu Forschungsdaten.

Weiterlesen

January 23 2013

Open Metrics: Jenseits des Zitatkartells

Viele Wissenschaftler sympathisieren mit Open Access, dem freien Zugang zu wissenschaftlichen Publikationen.

Weiterlesen

January 14 2013

Reaktionen auf den Tod von Aaron Swartz: PDF-Tribute, Kritik an Justizbehörden

Aaron Swartz (r.). Foto: Fred Benenson, CC BY.

Die Nachricht vom Tod des Internet-Aktivisten Aaron Swartz hat am Wochenende weite Kreise gezogen. Cory Doctorow, Tim Berners-Lee, Lawrence Lessig, Danah Boyd, Brewster Kahle und viele andere trauern um Swartz, haben Nachrufe verfasst und Erinnerungen zusammengetragen. Der 26-jährige Swartz war Mitentwickler des RSS-Feeds, Mitgründer von Reddit, Entwickler für Creative Commons, Verfasser des Guerilla Open Access Manifesto, Aktivist gegen das SOPA-Gesetz, – die Liste könnte weiter gehen. Und er litt an Depressionen, worüber er in seinem Blog schrieb. In einem im Frühjahr anstehenden Prozess drohte ihm eine Haftstrafe von theoretisch bis zu 35 Jahren, weil er sich unerlaubt Zugang zum Netzwerk des Massachusetts Institute of Technology verschafft haben soll, um Millionen wissenschaftlicher Artikel aus dem JSTOR-Archiv zu laden.

#pdftribute

Die größte Resonanz findet im Moment ein Aufruf an Wissenschaftler, ihre Aufsätze frei ins Netz zu stellen – als Hommage an Swartz’ Eintreten für Open Access. Auslöser war ein Kommentar bei Reddit von Micah Allen. Es ist beeindruckend, die vielen Tweets unter #pdftribute zu lesen. Wie viele wissenschaftliche Autoren sich tatsächlich daran beteiligen, lässt sich aber schlecht abschätzen. Die provisorische Seite pdftribute.net sammelt Links.

Kritik an Justizbehörden

Eine Petition kritisiert das Vorgehen gegen Swartz als unverhältnismäßig und fordert, die zuständige Staatsanwältin Carmen Otiz abzusetzen. Aktuell hat sie etwa 10.500 Unterzeichner. Swartz’ Familie und seine Freundin halten die Staatsanwaltschaft und die Verwaltung des MIT für mitverantwortlich am Selbstmord Swartz’. In einer Erklärung schreiben sie:

Aaron’s death is not simply a personal tragedy. It is the product of a criminal justice system rife with intimidation and prosecutorial overreach. Decisions made by officials in the Massachusetts U.S. Attorney’s office and at MIT contributed to his death.

Ähnlich hat auch Lawrence Lessig argumentiert und die Staatsanwaltschaft als „Tyrann” (prosecutor as bully) bezeichnet:

For the outrageousness in this story is not just Aaron. It is also the absurdity of the prosecutor’s behavior. From the beginning, the government worked as hard as it could to characterize what Aaron did in the most extreme and absurd way.

Das MIT hat am Sonntag eine interne Untersuchung zur eigenen Rolle in den Ereignissen angekündigt. JSTOR, das den Streit mit Swartz nach Rückgabe der Dateien selbst einstellte, veröffentlichte eine Kondolenzerklärung.

An Aaron Swartz erinnert eine Gedenkseite, ein Tumblr und eine Sammlung beim Internet Archive.

November 08 2012

Video: Remixkultur – wem gehört das Wissen?

Was passiert, wenn sich der Werkbegriff auflöst? Was, wenn Künstler und Urheberrecht obsolet sind? Die Remix-Kultur provoziert grenzüberschreitend Fragen und Verlustängste, zeigte  eine Podiumsdiskussion des Goethe-Instituts Russland. Nun ist das Video frei verfügbar.

Organisiert vom Goethe-Institut Russland diskutieren:

Cornelia Sollfrank, Medienkünstlerin, lehrt Theorie und Praxis der zeitgenössischen Kunst an der Universität Dundee (Schottland);
Matthias Spielkamp, iRights.info
Stanislaw Koslowski, geschäftsführender Direktor von Wikimedia RU;
Jelena Woinikanis, Dr. phil, Mitglied des UNESCO-Lehrstuhls für Urheberrecht, Expertin der Vereinigung der Unternehmensjuristen, stellv. Leiterin der Abteilung für die Kooperation mit staatlichen Organen beim Unternehmen Rostelekom

October 23 2012

Digitale Geisteswissenschaften: Es fehlen Schnittstellen

Noch bleiben die digitalen Möglichkeiten in den Universitäten und Gedächtnisinstitutionen vielfach ungenutzt.

Weiterlesen

October 22 2012

Four short links: 22 October 2012

  1. jq — command-line tool for JSON data.
  2. GAFFTA — Gray Area Foundation For The Arts. Non-profit running workshops and building projects around technology-driven arts. (via Roger Dennis)
  3. Power Pwn — looks like a power strip, is actually chock-full of pen-testing tools, WiFi, bluetooth, and GSM. Beautifully evil. (via Jim Stogdill)
  4. Open Access Week — this week is Open Access week, raising awareness of the value of ubiquitous access to scientific publishing. (via Fabiana Kubke)

Open Access Week mit Podiumsdiskussion am Dienstag in Berlin

Heute beginnt die Open Access Week, eine seit 2008 stattfindende Aktionswoche, die für den freien Zugang zu wissenschaftlichen Informationen wirbt. Nach eigenen Angaben findet sie „überall”, also international statt und ist übrigens nicht zu verwechseln mit den Ende September in Wien abgehaltenen Open-Access-Tagen.

In Berlin gibt es zum Thema am Dienstagabend eine Podiumsdiskussion, die sich mit „Chancen und Herausforderungen” von Open Science beschäftigt. Damit ist neben Open Access im engeren Sinn auch die dauerhafte Zugänglichkeit von Forschungsdaten und der Einsatz des Web 2.0 in der Wissenschaft gemeint.

Aus dem Programm:

Wann: am Dienstag, den 23.Oktober 2012 ab 18 Uhr
Wo: Auditorium des Jacob-und-Wilhelm-Grimm-Zentrums der Humboldt-Universität zu Berlin
Die Veranstaltung ist kostenfrei. Es ist keine Anmeldung erforderlich.

Begrüßung durch Dr. Andreas Degkwitz (Humboldt-Universität zu Berlin)

Einführungsreferat: Prof. Dr. Martin Grötschel (Zuse-Institut Berlin, Technische Universität Berlin)
Moderation: Prof. Dr. Peter Schirmbacher (Humboldt-Universität zu Berlin)

Die Teilnehmer:

Dr. Christoph Bruch (Helmholtz-Gemeinschaft)
Prof. Dr. Ortwin Dally (Deutsches Archäologisches Institut)
Dr. Andreas Degkwitz (UB der Humboldt-Universität zu Berlin)
Prof. Dr. Martin Grötschel (Technische Universität Berlin)
Dr. Jeanette Hofmann (Wissenschaftszentrum Berlin für Sozialforschung)
Dr. Angelika Lex (Elsevier)
Dr. Anne Lipp (Deutsche Forschungsgemeinschaft)

Veranstaltet wird das Podium vom Open-Access-Büro der Helmholtz-Gemeinschaft, dem Institut für Bibliotheks- und Informations­wissenschaften der HU Berlin und anderen Berliner Hochschuleinrichtungen.

Weitere Veranstaltungen im Rahmen der Open Access Week gibt es diese Woche unter anderem auch in Dresden und Hannover.

October 12 2012

Bundesrat will beim Leistungsschutzrecht etwas nachbessern

Der Bundesrat hat sich auf seiner heutigen Sitzung den Ausschussempfehlungen zum Leistungsschutzrecht (PDF) nur teilweise angeschlossen. Die von den SPD-geführten Ländern Nordrhein-Westfalen, Rheinland-Pfalz und Berlin vorgeschlagene Vermutungsregel fand keine Mehrheit, so eine Sprecherin gegenüber iRights.info. Allerdings solle geprüft werden, ob das Leistungsschutzrecht nicht doch über eine Verwertungsgesellschaft abgewickelt werden müsse.

Zugleich will der Bundesrat Änderungen am Urheberrecht für Bildung und Wissenschaft, die in der Koalition unter den Tisch gefallen sind, seit der Dritte Korb zur Urheberrechtsreform auf Eis liegt: Ein Zweitveröffentlichungsrecht für Wissenschaftler und die Entfristung des auslaufenden Paragrafen 52a Urheberrechtsgesetz, der vor allem elektronische Semesterapparate an den Universitäten ermöglicht.

Mit der vorgeschlagenen Vermutungsregel als einer Art „kleinem Leistungsschutzrecht” sollten die Verleger die Möglichkeit bekommen, auch ohne Nachweis der Rechtekette gegen Urheberrechtsverletzungen vorzugehen; ein Vorschlag der unter anderem vom Journalistenverband Freischreiber kritisiert wurde. Auch den Verlegerverbänden ging er erwartungsgemäß nicht weit genug. Eine Verwertungsgesellschaftspflicht wurde ursprünglich diskutiert, war aber im Koalitionsentwurf nicht mehr vorgesehen. Falls es keine Verwertungsgesellschaft fürs Leistungsschutzrecht gibt, müssten LSR-Betroffene im Zweifelsfall Einzelverträge schließen – ein Aufwand, der den vermutlich nur wenige leisten könnten.

Beim Leistungsschutzrecht handelt es sich um ein Einspruchsgesetz, der Bundesrat muss also nicht zustimmen und hat damit nur begrenzte Vetomacht. Die Empfehlungen des Bundesrats gehen dem Bundestag nun zusammen mit einer Stellungnahme der Regierung zu und dürften damit auch die Debatte im Parlament prägen. Das Plenarprotokoll ist bislang noch nicht veröffentlicht.

August 15 2012

Mining the astronomical literature

There is a huge debate right now about making academic literature freely accessible and moving toward open access. But what would be possible if people stopped talking about it and just dug in and got on with it?

NASA’s Astrophysics Data System (ADS), hosted by the Smithsonian Astrophysical Observatory (SAO), has quietly been working away since the mid-’90s. Without much, if any, fanfare amongst the other disciplines, it has moved astronomers into a world where access to the literature is just a given. It’s something they don’t have to think about all that much.

The ADS service provides access to abstracts for virtually all of the astronomical literature. But it also provides access to the full text of more than half a million papers, going right back to the start of peer-reviewed journals in the 1800s. The service has links to online data archives, along with reference and citation information for each of the papers, and it’s all searchable and downloadable.

Number of papers published in the three main astronomy journals each year
Number of papers published in the three main astronomy journals each year. CREDIT: Robert Simpson

The existence of the ADS, along with the arXiv pre-print server, has meant that most astronomers haven’t seen the inside of a brick-built library since the late 1990s.

It also makes astronomy almost uniquely well placed for interesting data mining experiments, experiments that hint at what the rest of academia could do if they followed astronomy’s lead. The fact that the discipline’s literature has been scanned, archived, indexed and catalogued, and placed behind a RESTful API makes it a treasure trove, both for hypothesis generation and sociological research.

For example, the .Astronomy series of conferences is a small workshop that brings together the best and the brightest of the technical community: researchers, developers, educators and communicators. Billed as “20% time for astronomers,” it gives these people space to think about how the new technologies affect both how research and communicating research to their peers and to the public is done.

[Disclosure: I'm a member of the advisory board to the .Astronomy conference, and I previously served as a member of the programme organising committee for the conference series.]

It should perhaps come as little surprise that one of the more interesting projects to come out of a hack day held as part of this year’s .Astronomy meeting in Heidelberg was work by Robert Simpson, Karen Masters and Sarah Kendrew that focused on data mining the astronomical literature.

The team grabbed and processed the titles and abstracts of all the papers from the Astrophysical Journal (ApJ), Astronomy & Astrophysics (A&A), and the Monthly Notices of the Royal Astronomical Society (MNRAS) since each of those journals started publication — and that’s 1827 in the case of MNRAS.

By the end of the day, they’d found some interesting results showing how various terms have trended over time. The results were similar to what’s found in Google Books’ Ngram Viewer.

The relative popularity of the names of telescopes in the literature
The relative popularity of the names of telescopes in the literature. Hubble, Chandra and Spitzer seem to have taken turns in hogging the limelight, much as COBE, WMAP and Planck have each contributed to our knowledge of the cosmic microwave background in successive decades. References to Planck are still on the rise. CREDIT: Robert Simpson.

After the meeting, however, Robert has taken his initial results and explored the astronomical literature and his new corpus of data on the literature. He’s explored various visualisations of the data, including word matrixes for related terms and for various astro-chemistry.

Correlation between terms related to Active Galactic Nuclei
Correlation between terms related to Active Galactic Nuclei (AGN). The opacity of each square represents the strength of the correlation between the terms. CREDIT: Robert Simpson.

He’s also taken a look at authorship in astronomy and is starting to find some interesting trends.

Fraction of astronomical papers published with one, two, three, four or more authors
Fraction of astronomical papers published with one, two, three, four or more authors. CREDIT: Robert Simpson

You can see that single-author papers dominated for most of the 20th century. Around 1960, we see the decline begin, as two- and three-author papers begin to become a significant chunk of the whole. In 1978, author papers become more prevalent than single-author papers.

Compare the number of active research astronomers to the number of papers published each year
Compare the number of “active” research astronomers to the number of papers published each year (across all the major journals). CREDIT: Robert Simpson.

Here we see that people begin to outpace papers in the 1960s. This may reflect the fact that as we get more technical as a field, and more specialised, it takes more people to write the same number of papers, which is a sort of interesting result all by itself.

Interview with Robert Simpson: Behind the project and what lies ahead

I recently talked with Rob about the work he, Karen Masters, and Sarah Kendrew did at the meeting, and the work he’s been doing since with the newly gathered data.

What made you think about data mining the ADS?

Robert Simpson: At the .Astronomy 4 Hack Day in July, Sarah Kendrew had the idea to try to do an astronomy version of BrainSCANr, a project that generates new hypotheses in the neuroscience literature. I’ve had a go at mining ADS and arXiv before, so it seemed like a great excuse to dive back in.

Do you think there might be actual science that could be done here?

Robert Simpson: Yes, in the form of finding questions that were unexpected. With such large volumes of peer-reviewed papers being produced daily in astronomy, there is a lot being said. Most researchers can only try to keep up with it all — my daily RSS feed from arXiv is next to useless, it’s so bloated. In amongst all that text, there must be connections and relationships that are being missed by the community at large, hidden in the chatter. Maybe we can develop simple techniques to highlight potential missed links, i.e. generate new hypotheses from the mass of words and data.

Are the results coming out of the work useful for auditing academics?

Robert Simpson: Well, perhaps, but that would be tricky territory in my opinion. I’ve only just begun to explore the data around authorship in astronomy. One thing that is clear is that we can see a big trend toward collaborative work. In 2012, only 6% of papers were single-author efforts, compared with 70+% in the 1950s.

The average number of authors per paper since 1827
The above plot shows the average number of authors, per paper since 1827. CREDIT: Robert Simpson.

We can measure how large groups are becoming, and who is part of which groups. In that sense, we can audit research groups, and maybe individual people. The big issue is keeping track of people through variations in their names and affiliations. Identifying authors is probably a solved problem if we look at ORCID.

What about citations? Can you draw any comparisons with h-index data?

Robert Simpson: I haven’t looked at h-index stuff specifically, at least not yet, but citations are fun. I looked at the trends surrounding the term “dark matter” and saw something interesting. Mentions of dark matter rise steadily after it first appears in the late ’70s.

Compare the term dark matter with related terms
Compare the term “dark matter” with a few other related terms: “cosmology,” “big bang,” “dark energy,” and “wmap.” You can see cosmology has been getting more popular since the 1990s, and dark energy is a recent addition. CREDIT: Robert Simpson.

In the data, astronomy becomes more and more obsessed with dark matter — the term appears in 1% of all papers by the end of the ’80s and 6% today.

Looking at citations changes the picture. The community is writing papers about dark matter more and more each year, but they are getting fewer citations than they used to (the peak for this was in the late ’90s). These trends are normalised, so the only regency effect I can think of is that dark matter papers take more than 10 years to become citable. Either that or dark matter studies are currently in a trough for impact.

Can you see where work is dropped by parts of the community and picked up again?

Robert Simpson: Not yet, but I see what you mean. I need to build a better picture of the community and its components.

Can you build a social graph of astronomers out of this data? What about (academic) family trees?

Robert Simpson: Identifying unique authors is my next step, followed by creating fingerprints of individuals at a given point in time. When do people create their first-author papers, when do they have the most impact in their careers, stuff like that.

What tools did you use? In hindsight, would you do it differently?

I’m using Ruby and Perl to grab the data, MySQL to store and query it, JavaScript to display it (Google Charts and D3.js). I may still move the database part to MongoDB because it was designed to store documents. Similarly, I may switch from ADS to arXiv as the data source. Using arXiv would allow me to grab the full text in many cases, even if it does introduce a peer-review issue.

What’s next?

Robert Simpson: My aim is still to attempt real hypothesis generation. I’ve begun the process by investigating correlations between terms in the literature, but I think the power will be in being able to compare all terms with all terms and looking for the unexpected. Terms may correlate indirectly (via a third term, for example), so the entire corpus needs to be processed and optimised to make it work comprehensively.

Science between the cracks

I’m really looking forward to seeing more results coming out of Robert’s work. This sort of analysis hasn’t really been possible before. It’s showing a lot of promise both from a sociological angle, with the ability to do research into how science is done and how that has changed, but also ultimately as a hypothesis engine — something that can generate new science in and of itself. This is just a hack day experiment. Imagine what could be done if the literature were more open and this sort of analysis could be done across fields?

Right now, a lot of the most interesting science is being done in the cracks between disciplines, but the hardest part of that sort of work is often trying to understand the literature of the discipline that isn’t your own. Robert’s project offers a lot of hope that this may soon become easier.

August 09 2012

The risks and rewards of a health data commons

As I wrote earlier this year in an ebook on data for the public good, while the idea of data as a currency is still in its infancy, it’s important to think about where the future is taking us and our personal data.

If the Obama administration’s smart disclosure initiatives gather steam, more citizens will be able to do more than think about personal data: they’ll be able to access their financial, health, education, or energy data. In the U.S. federal government, the Blue Button initiative, which initially enabled veterans to download personal health data, is now spreading to all federal employees, and it also earned adoption at private institutions like Aetna and Kaiser Permanente. Putting health data to work stands to benefit hundreds of millions of people. The Locker Project, which provides people with the ability to move and store personal data, is another approach to watch.

The promise of more access to personal data, however, is balanced by accompanying risks. Smartphones, tablets, and flash drives, after all, are lost or stolen every day. Given the potential of mhealth, and big data and health care information technology, researchers and policy makers alike are moving forward with their applications. As they do so, conversations and rulemaking about health care privacy will need to take into account not just data collection or retention but context and use.

Put simply, businesses must confront the ethical issues tied to massive aggregation and data analysis. Given that context, Fred Trotter’s post on who owns health data is a crucial read. As Fred highlights, the real issue is not ownership, per se, but “What rights do patients have regarding health care data that refers to them?”

Would, for instance, those rights include the ability to donate personal data to a data commons, much in the same way organs are donated now for research? That question isn’t exactly hypothetical, as the following interview with John Wilbanks highlights.

Wilbanks, a senior fellow at the Kauffman Foundation and director of the Consent to Research Project, has been an advocate for open data and open access for years, including a stint at Creative Commons; a fellowship at the World Wide Web Consortium; and experience in the academic, business, and legislative worlds. Wilbanks will be speaking at the Strata Rx Conference in October.

Our interview, lightly edited for content and clarity, follows.

Where did you start your career? Where has it taken you?

John WilbanksJohn Wilbanks: I got into all of this, in many ways, because I studied philosophy 20 years ago. What I studied inside of philosophy was semantics. In the ’90s, that was actually sort of pointless because there wasn’t much semantic stuff happening computationally.

In the late ’90s, I started playing around with biotech data, mainly because I was dating a biologist. I was sort of shocked at how the data was being represented. It wasn’t being represented in a way that was very semantic, in my opinion. I started a software company and we ran that for a while, [and then] sold it during the crash.

I went to the Worldwide Web Consortium, where I spent a year helping start their Semantic Web for Life Sciences project. While I was there, Creative Commons (CC) asked me to come and start their science project because I had known a lot of those guys. When I started my company, I was at the Berkman Center at Harvard Law School, and that’s where Creative Commons emerged from, so I knew the people. I knew the policy and I had gone off and had this bioinformatics software adventure.

I spent most of the last eight years at CC working on trying to build different commons in science. We looked at open access to scientific literature, which is probably where we had the most success because that’s copyright-centric. We looked at patents. We looked at physical laboratory materials, like stem cells in mice. We looked at different legal regimes to share those things. And we looked at data. We looked at both the technology aspects and legal aspects of sharing data and making it useful.

A couple of times over those years, we almost pivoted from science to health because science is so institutional that it’s really hard for any of the individual players to create sharing systems. It’s not like software, where anyone with a PC and an Internet connection can contribute to free software, or Flickr, where anybody with a digital camera can license something under CC. Most scientists are actually restricted by their institutions. They can’t share, even if they want to.

Health kept being interesting because it was the individual patients who had a motivation to actually create something different than the system did. At the same time, we were watching and seeing the capacity of individuals to capture data about themselves exploding. So, at the same time that the capacity of the system to capture data about you exploded, your own capacity to capture data exploded.

That, to me, started taking on some of the interesting contours that make Creative Commons successful, which was that you didn’t need a large number of people. You didn’t need a very large percentage of Wikipedia users to create Wikipedia. You didn’t need a large percentage of free software users to create free software. If this capacity to generate data about your health was exploding, you didn’t need a very large percentage of those people to create an awesome data resource: you needed to create the legal and technical systems for the people who did choose to share to make that sharing useful.

Since Creative Commons is really a copyright-centric organization, I left because the power on which you’re going to build a commons of health data is going to be privacy power, not copyright power. What I do now is work on informed consent, which is the legal system you need to work with instead of copyright licenses, as well as the technologies that then store, clean, and forward user-generated data to computational health and computational disease research.

What are the major barriers to people being able to donate their data in the same way they might donate their organs?

John Wilbanks: Right now, it looks an awful lot like getting onto the Internet before there was the web. The big ISPs kind of dominated the early adopters of computer technologies. You had AOL. You had CompuServe. You had Prodigy. And they didn’t communicate with each other. You couldn’t send email from AOL to CompuServe.

What you have now depends on the kind of data. If the data that interests you is your genotype, you’re probably a 23andMe customer and you’ve got a bunch of your data at 23andMe. If you are the kind of person who has a chronic illness and likes to share information about that illness, you’re probably a customer at PatientsLikeMe. But those two systems don’t interoperate. You can’t send data from one to the other very effectively or really at all.

On top of that, the system has data about you. Your insurance company has your billing records. Your physician has your medical records. Your pharmacy has your pharmacy records. And if you do quantified self, you’ve got your own set of data streams. You’ve got your Fitbit, the data coming off of your smartphone, and your meal data.

Almost all of these are basically populating different silos. In some cases, you have the right to download certain pieces of the data. For the most part, you don’t. It’s really hard for you, as an individual, to build your own, multidimensional picture of your data, whereas it’s actually fairly easy for all of those companies to sell your data to one another. There’s not a lot of technology that lets you share.

What are some of the early signals we’re seeing about data usage moving into actual regulatory language?

John Wilbanks: The regulatory language actually makes it fairly hard to do contextual privacy waiving, in a Creative Commons sense. It’s hard to do granular permissions around privacy in the way you can do granular conditional copyright grants because you don’t have intellectual property. The only legal tool you have is a contract, and the contracts don’t have a lot of teeth.

It’s pretty hard to do anything beyond a gift. It’s more like organ donation, where you don’t get to decide where the organs go. What I’m working on is basically a donation, not a conditional gift. The regulatory environment makes it quite hard to do anything besides that.

There was a public comment period that just finished. It’s an announcement of proposed rulemaking on what’s called the Common Rule, which is the Department of Health and Human Services privacy language. It was looking to re-examine the rules around letting de-identified data or anonymized data out for widespread use. They got a bunch of comments.

There’s controversy as to how de-identified data can actually be and still be useful. There is going to be, probably, a three-to-five year process where they rewrite the Common Rule and it’ll be more modern. No one knows how modern, but it will be at least more modern when that finishes.

Then there’s another piece in the US — HIPAA — which creates a totally separate regime. In some ways, it is the same as the Common Rule, but not always. I don’t think that’s going to get opened up. The way HIPAA works is that they have 17 direct identifiers that are labeled as identifying information. If you strip those out, it’s considered de-identified.

There’s an 18th bucket, which is anything else that can reasonably identify people. It’s really hard to hit. Right now, your genome is not considered to fall under that. I would be willing to bet within a year or two, it will be.

From a regulatory perspective, you’ve got these overlapping regimes that don’t quite fit and both of them are moving targets. That creates a lot of uncertainty from an investment perspective or from an analytics perspective.

How are you thinking about a “health data commons,” in terms of weighing potential risks against potential social good?

John Wilbanks: I think that that’s a personal judgment as to the risk-benefit decision. Part of the difficulty is that the regulations are very syntactic — “This is what re-identification is” — whereas the concept of harm, benefit, or risk is actually something that’s deeply personal. If you are sick, if you have cancer or a rare disease, you have a very different idea of what risk is compared to somebody who thinks of him or herself as healthy.

What we see — and this is born out in the Framingham Heart Study and all sorts of other longitudinal surveys — is that people’s attitudes toward risk and benefit change depending on their circumstances. Their own context really affects what they think is risky and what they think isn’t risky.

I believe that the early data donors are likely to be people for whom there isn’t a lot of risk perceived because the health system already knows that they’re sick. The health system is already denying them coverage, denying their requests for PET scans, denying their requests for access to care. That’s based on actuarial tables, not on their personal data. It’s based on their medical history.

If you’re in that group of people, then the perceived risk is actually pretty low compared to the idea that your data might actually get used or to the idea that you’re no longer passive. Even if it’s just a donation, you’re doing something outside of the system that’s accelerating the odds of getting something discovered. I think that’s the natural group.

If you think back to the numbers of users who are required to create free software or Wikipedia, to create a cultural commons, a very low percentage is needed to create a useful resource.

Depending on who you talk to, somewhere between 5-10% of all Americans either have a rare disease, have it in their first order family, or have a friend with a rare disease. Each individual disease might not have very many people suffering from it, but if you net them all up, it’s a lot of people. Getting several hundred thousand to a few million people enrolled is not an outrageous idea.

When you look at the existing examples of where such commons have come together, what have been the most important concrete positive outcomes for society?

John Wilbanks: I don’t think we have really even started to see them because most people don’t have computable data about themselves. Most people, if they have any data about themselves, have scans of their medical records.
What we really know is that there’s an opportunity cost to not trying, which is that the existing system is really inefficient, very bad at discovering drugs, and very bad at getting those drugs to market in a timely basis.

That’s one of the reasons we’re doing this is as an experiment. We would like to see exactly how effective big computational approaches are on health data. The problem is that there are two ways to get there.

One is through a set of monopoly companies coming together and working together. That’s how semiconductors work. The other is through an open network approach. There’s not a lot of evidence that things besides these two approaches work. Government intervention is probably not going to work.

Obviously, I come down on the open network side. But there’s an implicit belief, I think, both in the people who are pushing the cooperating monopolies approach and the people who are pushing the open networks approach, that there’s enormous power in the big-data-driven approach. We’re just leaving that on the table right now by not having enough data aggregated.

The benefits to health that will come out will be the ability to increasingly, by looking at a multidimensional picture of a person, predict with some confidence whether or not a drug will work, or whether they’re going to get sick, or how sick they’re going to get, or what lifestyle changes they can make to mitigate an illness. Right now, basically, we really don’t know very much.

Pretty Simple Data Privacy

John Wilbanks discussed “Pretty Simple Data Privacy” during a Strata Online Conference in January 2012. His presentation begins at the 7:18 mark in the following video:

Strata Rx — Strata Rx, being held Oct. 16-17 in San Francisco, is the first conference to bring data science to the urgent issues confronting health care.

Save 20% on registration with the code RADAR20

Photo: Science Commons

July 25 2012

July 19 2012

Urheberrecht und Innovation – ein spannendes, angespanntes Verhältnis

Am Samstag (14.05 bis 15 Uhr) wird iRights.info-Mitgründer Matthias Spielkamp in der Sendung Breitband² auf Deutschlandradio Kultur eine Stunde über den Zusammenhang von Urheberrecht und Innovation sprechen – mit Moderator Philip Banse und  Jeanette Hofmann (WZB und Institut für Internet und Gesellschaft). Das Gespräch wird natürlich live im Deutschlandradio Kultur zu hören sein und bei DRadio gestreamt (rechte Spalte), aber auch als Video-Stream zu sehen sein (s. unten). Später wird die Sendung als Pod- und Vodcast zur Verfügung stehen.

Wir werden nicht über Acta, das Leistungsschutzrecht und Netz-Sperren sprechen, sondern der Frage nachgehen, ob und wie das geltende Urheberrecht Innovation behindert. Warum gibt es kein Spotify für Filme? Hätte Google Books in Deutschland entstehen können? Inwiefern wird Open Access durch geltendes Recht ausgebremst? Wie wirkt sich das geltenden Urheberrecht auf kolaborative Arbeiten mit ungezählten Urhebern aus? Wir gehen auch der Frage nach, was Urheberrecht eigentlich bewirken soll und was diskutierte Alternativ-Modelle verbessern würden. Thema ist sicher auch, wie man eigentlich nicht eingetretene Innovation misst.

Fragen gern in den Kommentaren in Philip Banses Blog, an @philipbanse oder während der Sendung per facebook.com/Breitband oder Twitter.

Hier der Stream im Flash-Format:

Und hier als HTML5 für alle neueren Browser und Flash-unfähigen Plattformen, wie z.B. Apples iOS:

Foto: Marco Fabbri | mfabbri, CC by-sa 2.0

July 17 2012

England und Europäische Kommission wollen mehr Open Access

The Cost of KnowledgeIllustration: Giulia Forsythe, The Cost of Knowledge, CC BY-NC-SA, [via]

Großbritannien soll ab 2014 auf Open Access in der Wissenschaft umsteigen, gerade hat der Staatsminister für Universitäten und Wissenschaft, David Willetts, entsprechende Pläne angekündigt, wie unter anderem der Guardian berichtet:

The government is to unveil controversial plans to make publicly funded scientific research immediately available for anyone to read for free by 2014, in the most radical shakeup of academic publishing since the invention of the internet. Under the scheme, research papers that describe work paid for by the British taxpayer will be free online for universities, companies and individuals to use for any purpose, wherever they are in the world.

Grün oder Gold?

In Open-Access-Terminologie geht es dabei um die „Golden Road” zum freien Zugang, also die Erstveröffentlichung von Artikeln und anderen Publikationen. Die Kosten für die Publikation von Artikeln würden also nicht mehr von den Bibliotheken getragen werden, sondern auf die Autorinnen und Autoren – indirekt also auf die Forschungseinrichtungen – umgelegt. Ein Gesetzenwurf ist noch nicht bekannt, das grundsätzliche Argument für Open Access dagegen schon lange: Die öffentliche Hand bezahlt für Forschungsergebnisse doppelt, in dem sie Forschung finanziert und deren Ergebnisse dann von den Wissenschaftverlagen zurückkaufen muss.

Argumentative Rückendeckung für die Regierung (und Anlass für die jüngste Ankündigung) bietet der im Juni veröffentlichte Finch-Report, den ein Team um die Soziologin Janet Finch erarbeitet hat. Dort schlagen die Autoren ebenjenen „goldenen Weg” vor und betonen die volkswirtschaftlichen Gewinne durch Open Access. Die Regierung hat sich den Folgerungen des Berichts nun weitgehend angeschlossen.

Aber auch die Auseinandersetzungen um Wissenschaftsverlage wie Elsevier, die im breit unterstützten Boykottaufruf „The Cost of Knowledge” mündeten, dürften zum Umschwung beitragen haben. Zuletzt gab etwa Winston Hide, einer der Herausgeber des Elsevier-Journals „Genomics”, demonstrativ seinen Rückzug bekannt.

Aus dem Open-Access-Lager gibt es aber auch Kritik am Vorhaben, genauer gesagt: am Weg dorthin. Im Blog „Impact of Social Sciences” der LSE verteidigt Steven Harnard die „Green Road”, also den Weg der Zweitveröffentlichung unabhängig von den Verlagen. Ähnlich äußert sich Peter Suber, der Direktor des Harvard Open Access Project, über den Finch-Report:

One can see the effect of publisher lobbying on the group’s misinformed disparagement of green OA and the group’s high priority to save incumbent publishers from risk.

Eine andere, weiter gehende Kritik am Modell der „Golden Road“ zielt darauf, es würde lediglich die Kosten eines ineffizient gewordenen Systems umverteilen. So schreibt etwa die Historikerin Maria Pretzler in ihrem Blog:

In the end, the question is whether we do need a much more radical overhaul of academic publication. Journals originally were the best (and often the only) way to make research results known to the scholarly community. (…) In the age of the internet, journals are, however, non longer the most efficient mode of disseminating research, and scholars continue to use them because they need the recognition which only publication in a reputable journal can provide.

Auch EU-Kommission will Open Access fördern

Daneben hat heute auch die Europäische Kommission bekannt gegeben, bei den von ihr finanzierten Forschungsprojekten verpflichtende Open-Access-Publikationen einzuführen. Die Presseerklärung spricht von einem „allgemeinem Grundsatz, der zunächst beim Förderprogramm „Horizon 2020” (Gesamtumfang etwa 80 Mrd. Euro) umgesetzt werden soll. Ob grün oder gold, ist der Kommission dabei gleich:

As of 2014, all articles produced with funding from Horizon 2020 will have to be accessible:
- articles will either immediately be made accessible online by the publisher (‘Gold’ open access) – up-front publication costs can be eligible for reimbursement by the European Commission; or
- researchers will make their articles available through an open access repository no later than six months (12 months for articles in the fields of social sciences and humanities) after publication (‘Green’ open access).

Und hierzulande? Passiert nicht viel, obwohl der freie Zugang zu Forschungsergebnissen in der Urheberrechtsdebatte noch das größte Konsenspotenzial haben dürfte. Vom dritten Korb, ursprünglich als Wissenschaftskorb angekündigt, hat man schon lange nichts neues mehr gehört. Übrig geblieben ist im Moment nicht viel mehr als das Leistungsschutzrecht.

May 27 2012

Deutschland braucht digitale Lehrmittelfreiheit

In der deutschsprachigen Wikipedia heißt es zur Begrifflichkeit: “Lernmittelfreiheit oder auch Lehrmittelfreiheit heißt, dass Gegenstände in Bildungseinrichtungen, vor allem Schulbücher, aber auch andere Dinge wie Übungshefte kostenlos bereitgestellt werden.” Diese allgemeine Beschreibung fußt nach der Enzyklopädie auf Forderungen aus der Revolution von 1848. Damals wurde das erste Mal der Ruf nach einkommensunabhängiger Verfügbarkeit von Lehr- und Lernunterlagen laut. In der Folge wurde der Zugang zu Lehrmitteln in Bildungseinrichtungen in Deutschland auf verschiedene Art und Weise geregelt. Heute hat sich eine starke Marktkonzentration weniger Anbieter herausgebildet. So werden in Deutschland beispielsweise 90 Prozent aller Schulbücher von den drei großen Verlagen Klett, Westermann und Cornelsen bereitgestellt.

Durch die Digitalisierung wird aber auch diese Branche nun reagieren müssen. Und nicht nur die, der Ruf nach einer grundsätzlichen Neustrukturierung der Angebotspalette bei Übungs- und Lehrmaterialien wird wieder lauter. Wir stehen am Beginn einer Lehrmittel-Revolution. Diese Revolution beinhaltet drei Freiheiten: Die Freiheit kostenlos auf Lehrmaterialien zugreifen zu können, der flächendeckende Einsatz von freien Lizenzen und der zwingende Einsatz von freien Formaten. Allen die Angst vor allzuviel Freiheit haben, alle die den Text ab jetzt in das Reich der Phantasterei abschieben wollen sei dringend empfohlen weiter zu lesen. Der technische Fortschritt und die Möglichkeiten der Digitalisierung werden die Kultusministerin und die gesamte Gesellschaft zum Umdenken zwingen. Der Widerstand gegen diese Veränderungen bestehender Verlage und Interessensgruppen wird den technischen Fortschritt nicht aufhalten. Deswegen gilt es, diesen zu gestalten. Deutschland verliert hierbei gerade schon wieder den Anschluß. Und dies als selbsternannte Bildungs- und Wissenschaftsnation.

Der Wissenschaftler Dr. Leonhard Dobusch hat nun für das “Zentrum für digitalen Fortschritt – D64″ das White Paper “Digitale Lehrmittelfreiheit – mehr als digitale Schulbücher” (PDF) geschrieben. Tablet PC`s und E-Book-Reader werden die Art und Weise wie in Zukunft gelernt wird grundsätzlich verändern, so Dobusch. Die bisherigen Konzepte zum Einsatz dieser technischer Hilfsmittel beruhten bislang aber alleine auf den alten Konzepten der analogen Welt und schreibe die bestehenden Verhältnisse linear fort. Ein Paradigmenwechsel finde nicht statt. Dobusch entwirft eine Landkarte der bestehenden Konzepte und benennt die aktuellen Einsatzformen. Ein Beispiel ist dabei die Geburt neuer Player wie Apple die in den USA mit proprietären Formaten auf den Schulbuchmarkt drängen.

Dobusch konstatiert:

Lehrmittelfreiheit war immer schon mehr als der kostenlose Zugang zu Lehr- und Lernunterlagen. Es war auch das klare Bekenntnis, dass die möglichst umfassende Bereitstellung von Lehr- und Lernunterlagen eine öffentliche Aufgabe zur Verbesserung der Bildungs- und damit Chancengleichheit in einer Gesellschaft darstellt. Diese Ziele von Lehrmittelfreiheit gilt es in der digitalen Gesellschaft weiterhin anzustreben. Die Bandbreite an Mitteln und Wegen, mit denen sich eine Gesellschaft diesen Zielen annähern kann, ist dank neuer digitaler Technologien allerdings in den letzten Jahren deutlich größer geworden.

Er wirft auch einen Blick auf die internationalen Entwicklungen. Diese können für Deutschland Vorbildcharakter haben. Hinter den Grenzen von Deutschland firmiert die digitale Lehrmittelfreiheit unter dem Begriff “Open Educational Ressources”. Wegweisende Programme hat beispielsweise das Massachusstes Institute of Technology (MIT) in Boston (USA) mit dem Open-Courseware-Program aufgelegt.

Die Relevanz des Thema wird gerade erst bekannt. Dobusch identifiziert die USA, China und Südafrika als Vorreiter der Entwicklungen. Private Stiftungen in den USA wie die Hewlett Foundation oder die Bill & Melinda Gates Foundation haben bereits Millionenbeträge zur Entwicklung von freien Lehrinhalten bereitgestellt. Auch die US-Regierung hat die Relevanz erkannt und Anfang 2011 zwei Milliarden US-Dollar zur Entwicklung von freien Lehrmaterialien zur Verfügung gestellt. Deutschland und der deutschrachige Raum sind bei diesen Veränderungen Entwicklungsland und es droht, dass der Anschluß verloren wird.

Als größte Probleme in Deutschland identifiziert Dobusch:

1. Geringe Bekanntheit unter Lernenden, Lehrenden und Bildungseinrichtungen sowohl von freien Lizenzen im Allgemeinen als auch von OER-Ansätzen im Speziellen.
2. Bislang keine nennenswerten Investitionen der öffentlichen Hand in den Aufbau eines Pools an frei lizenzierten Lehr- und Lernunterlagen, sowie keine Reform von Beschaffungsprozessen in Ländern mit Lehrmittelfreiheit
3. Kaum private Fördergelder für OER im Vergleich mit den USA sowie mit ärmeren Ländern, in denen Einrichtungen wie die Open Society Foundation in diesem Bereich aktiv sind.
4. Hinzu kommt der deutsche Bildungsföderalismus, der es erschwert, Größenvorteile zu nutzen sowie zentrale Initiativen im Bereich OER voranzutreiben.

Der Staat und die Gesellschaft stehen also vor drängenden Herausforderungen. Dobusch definiert drei aufeinander aufbauende konkrete Maßnahmen. Zunächst müsse in allen Bundesländern eine Machbarkeitsstudie angefertigt werden. Im Fokus stehen dabei folgende Fragen:

1. Welche Schritte in Richtung Open Educational Resources (OER) sind unter den gegebenen gesetzlichen Rahmenbedingungen möglich?
2. Welche gesetzlichen Hürden bestehen für OER und wie können sie abgebaut werden?

Als zweiten Schritt schlägt Dobusch eine Reihe von Pilotprojekten an Universitäten und anderen Bildungseinrichtungen vor. Auf die Pilotprojekte sollen sich die Einrichtungen im Sinne eines Wettbewerbs bewerben können. Die Pilotprojekte sollen auf den Erkenntnissen der Machbarkeitsstudien aufbauen. Zudem soll begleitend ein Kompetenzzentrum für offene Bildungsressourcen unter Federführung des Bundesministerium für Bildung und Forschung eingerichtet werden. Dieses solle insbesondere die zentrale Vergabe von Fördermitteln betreuen.

Das White Paper von Dobusch stellt einen Aufschlag für ein Umdenken in Deutschland dar. Gesellschaftliche, wirtschaftliche, bildungspolitische und soziale Gründe sprechen dafür, dass sich die Politik intensiv mit diesem Komplex beschäftigen sollte. Insbesondere muss dabei auch die Frage beantwortet werden, ob man aus Kostenersparnisgründen privaten Unternehmen, inklusive Einsatz von Geräten mit proprietären Systemen, den Erstzugriff auf die Ressource Bildungssystem und Wissenschaftslandschaft geben will oder ob der Staat diesen hochsensiblen Bereich nicht unter seine Obhut nehmen will.

Hier noch einmal der Link zu Dobusch` White Paper (PDF).

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl