Zukunftsgespräche Open Access 2010 in Berlin: kritische Gedanken

Am Montag fand im Clubhaus der FU Berlin die Zukunftsgespräche 2010 statt. Etwa 40 Personen versammelten sich, um über die Zukunft des freien Zuganges zu wissenschaftlichen Texten zu sprechen. Nach einleitenden Worten durch den Vizepräsident der FU Berlin Prof. Dr. Michael Bongardt, der die Frage stellte, ob es heute nicht eine Umburchssituation in der Teilung von Wissen gibt, eröffneten die Kontextreferate von Christoph Bruch zu “Wissenschaftliche Kommunikation: Selbstbestimmung, Wirtschaftsförderung oder gesellschaftliche Emanzipation?” und von Stefan Gradmann “Von Büchern zu Tripeln” die eintägige Konferenz. Bruch zeigte den Makrokosmos der Bewegung Open Access, Gradmann wagte einen Blick in die Zukunft von Wissensaufbewahrung und -recherche und zeigte klar und deutlich, wie stark der technische Fortschritt wohl Publizieren und Wissensteilung grundsätzlich ändern könnte. Auf einer Podiumsdiskussion unter der Moderation von Gabriele Beger hielten Johannes Fournier von der DFG, Florian Grandel von PKP, Eric Merkel-Sobotta von Springer, Günter Mey von der neuen Gesellschaft für Psychologie, Anita Runge von Querelles und Ingeborg Zimmermann von der Hauptbibliothek der Universität Zürich aus verschiedenen Perspektiven (Wissenschaft, Bibliothek, Verlag, Forschungsgesellschaft und Entwickler) den Stand und die Perspektive von Open Access fest. Diese Diskussion/Gespräch bildete den Ausgangspunkt der Diskussionen in den nachmittäglichen Arbeitsgruppen. Als Themen-Cafes wurden am Nachmittag die Themen “Transformation Print in Open Access” (moderiert von Katja Mruck und Günter Mey), “Recht und Ökonomie” (Heinz Pampel, Marco Tullney), “Open Access und Bücher” (Florian Grandel, Anita Runge) sowie “Mehrwerte für Wissenschaft und Öffentlichkeit” (Christoph Bruch, Stefan Gradmann) in 20 Minuten reihum diskutiert. Eine Zusammenfassung mit Aussicht beendete die Tagung.

So erst einmal der Ablauf. Was ist mein Fazit aus der Veranstaltung? Als erstes war es sehr gut organisiert. Schön war es, viele der Teilnehmer persönlich kennenzulernen, mit denen man zuvor nur über das Internet Kontakt hatte. Das zur äußeren Gestalt.

Inhaltlich erfuhr ich wenig Neues. Vielmehr lösten die konzentrierte Stimmung, in der man sich bei einer Konferenz befindet, zahlreiche, auch zweifelnde Fragen über Open Access aus. Ich habe das diffuse Gefühl in einer Sackgasse geraten zu sein. Vielleicht etwas ungeordnet versuche ich im Folgenden, diese Gedanken zu skizzieren. Zunächst einmal stellt sich der ökonomische Aspekt von Open Access für mich jetzt komplizierter da. Im Grunde findet ja eine Kostenumverteilung vom Nutzer zum Produzenten statt, denn Publizieren kostet einfach Geld: Geld für die Aufbereitung des Manuskriptes, der Bereitstellung und der Verbreitung/Bewerbung (bei der Masse der Texte reicht das Einstellen nicht aus, um oft gefunden zu werden). Bisher wird dieser Part von den Endverbrauchern bezahlt (vereinfachte Darstellung). Bei Open Acces muß dieser Part am Anfang oder in der Mitte übernommen werden, also beim Produzenten oder durch Fördermittel in der Mitte subventioniert werden. Nun stellt sich mir die Frage, ob dies tatsächlich sinnvoll ist. Denn Fördermittel werden bisher hauptsächlich an universitäre Institutionen vergeben. Nicht angebundene Wissenschaftler wie viele der Individualpromovenden fallen dabei herunter, werden faktisch ausgeschlossen. Gleiches verkompliziert sich bei Mischfinanzierungen: welcher Teil wird von wem übernommen?

Der nächste Gedanke, der mir dabei kam, ob dadurch nicht auch der Wettbewerb über “nutzbringende Forschung” verlorengeht. Ein sehr schwieriges, zahlreichen Diskussionsstoff bürgendes Feld, denn wer bestimmt, welche Forschung nützlich ist? Wenn Verlage in Open Access-Form publizierende Wissenschaft nicht mehr unternehmerisch attraktiv finden und letztlich auf die Publikation von wissenschaftlichen Texten verzichten, dann muß dies von den Wissenschaftlern selbst übernommen werden. Entstehen denn nicht dadurch staatlich organisierte, verlagsähnliche Strukturen (Anstellungen von Layoutern, Bewerbern etc.)? Wird es dann Wettbewerb geben oder ein zentrale Anlaufstelle?

Wen meinen wir denn genau, wenn wir von freien Zugang für jedermann sprechen? Ist es denn nicht vielmehr so, daß Wissenschaft heute so stark spezialisiert ist, daß die breite Bevölkerung (=Steuerzahler) gar keinen Zugang findet, weil sie einfach die Texte nicht mehr verstehen? Mir geht es mit zahlreichen Texten so, nicht nur den naturwissenschaftlichen, sondern eben auch aus anderen Bereichen der Geisteswissenschaften.

Ich lehne Open Access jetzt nicht ab, es gibt sehr wohl gute Gründe dafür. Jedoch finde ich es wichtig, dieses Thema auch kritisch zu hinterfragen. Denn nur so werden wir zahlreiche Schwierigkeiten, die es gibt, vielleicht lösen können. Daß Open Access auch im internationalen Raum kritisch hinterfragt wird, zeigt der Blogbeitrag von Monographer.

Neben den kritischen Hinterfragen von Open Access zeigt es für mich ganz klar, daß der Kreis der Wissenschaftler, die sich damit beschäftigen, noch sehr klein ist. Es gibt – und dies wurde auch auf der Tagung festgestellt – viel zu wenige Informationsveranstaltungen an den Universitäten für den wissenschaftlichen Nachwuchs (Studenten, keine Einbindung des Themas in die universitäre Ausbildung) und – ergänzend – auch für die Bevölkerung. Denn wenn Open Access tatsächlich durch Bürger genutzt werden soll, dann sollten sie auch wissen, wie und wo sie die entsprechenden freien zugänglichen wissenschaftlichen Texte finden.

Related Posts Plugin for WordPress, Blogger...

Über Wenke Bönisch

Wenke Bönisch arbeitet heute nach einer beruflichen Station in einem Wissenschaftsverlag (Autorenbetreuung, Satz und Social Media) als Freiberuflerin u. a. für den Ulmer Verlag (http://socialmedia.ulmer.de), für die Frankfurter Buchmesse sowie für den Digitalisierungsdienstleister Editura (http://editura.de) im Social Media Bereich. Neben Social Media beschäftigt sie sich mit den Themen elektronisches Publizieren, Wissenschaft, Open Access und Neue Medien. Zu ihren entsprechenden Projekten hält sie dazu auch Workshops, Vorträge und Seminare. Unter den Namen @digiwis (http://twitter.com/digiwis) twittert sie (fast) täglich. Auf ihrer Website http://digiwis.de bloggt sie zu ihren Tätigkeitsschwerpunkten.
Dieser Beitrag wurde unter Open Access abgelegt und mit , , verschlagwortet. Setze ein Lesezeichen auf den Permalink.

21 Antworten auf Zukunftsgespräche Open Access 2010 in Berlin: kritische Gedanken

  1. Vielen Dank für diesen ausführlichen Beitrag und die kritischen Gedanken darin! Zu zwei Punkten möchte ich kurz ein paar Gedanken in den Raum werfen.

    Du schreibst “Denn Fördermittel werden bisher hauptsächlich an universitäre Institutionen vergeben. Nicht angebundene Wissenschaftler wie viele der Individualpromovenden fallen dabei herunter, werden faktisch ausgeschlossen. Gleiches verkompliziert sich bei Mischfinanzierungen: welcher Teil wird von wem übernommen?” Neben der Möglichkeit eine Förderung für Open Access Publikationen für Wissenschaftler jedweder organisatorischer Zugehörigkeit zu schaffen, sähe ich eine ehrenvolle Aufgabe für die Deutsche Nationalbibliothek bzw. die Deutsche Digitale Bibliothek.

    Im Gesetz über die Deutsche Nationalbibliothek sind in §2 (Aufgaben und Befugnisse) die Voraussetzungen dafür durchaus geschaffen: “Die Bibliothek hat die Aufgabe …a) die ab 1913 in Deutschland veröffentlichten Medienwerke und b) die ab 1913 im Ausland veröffentlichten deutschsprachigen Medienwerke, Übersetzungen deutschsprachiger Medienwerke in andere Sprachen und fremdsprachigen Medienwerke über Deutschland im Original zu sammeln, zu inventarisieren, zu erschließen und bibliografisch zu verzeichnen, auf Dauer zu sichern und für die Allgemeinheit nutzbar zu machen sowie zentrale bibliothekarische und nationalbibliografische Dienste zu leisten,… 3. mit den Facheinrichtungen Deutschlands und des Auslands zusammenzuarbeiten sowie in nationalen und internationalen Fachorganisationen mitzuwirken.”

    Hier wäre doch Open Acces gut aufgehoben, oder? Somit könnten auch die Zuwendungen weiter an Institutionen gehen, wenn dem denn unbedingt so sein muss.

    Zum zweiten Punkt – etwas später im Beitrag schreibst Du: “Wen meinen wir denn genau, wenn wir von freien Zugang für jedermann sprechen? Ist es denn nicht vielmehr so, daß Wissenschaft heute so stark spezialisiert ist, daß die breite Bevölkerung (=Steuerzahler) gar keinen Zugang findet, weil sie einfach die Texte nicht mehr verstehen? Mir geht es mit zahlreichen Texten so, nicht nur den naturwissenschaftlichen, sondern eben auch aus anderen Bereichen der Geisteswissenschaften.”

    Sicher ist nur ein kleiner Teil der Öffentlichkeit – die interessierte Öffentlichkeit – an dem freien Zugang zu wissenschaftlichen Arbeiten und Ergebnissen interessiert. Und selbst davon dürfte immer nur ein kleiner Teil in der Lage sein, die Texte zu durchdringen und sie zu verstehen. Aber sollten wir deswegen den Zugang verwehren? oder sollten wir nicht eher daran arbeiten, die breitere Öffentlichkeit dahingehend zu motivieren, sich diesen Themen dennoch zu nähern? Open Data (im Bereich eGovernment) finde ich hier ein gutes Beispiel. Auch hier werden nur wenige mit den öffentlich zugänglichen (und maschinenlesbaren) Daten etwas anfangen können und im Stande sein Anwendungen zu programmieren, die auf Baiss dieser Daten Informationslücken schließen. Und sicher wird es hier immer “Wenige” geben, die die Daten für “Viele” interpretieren – defacto so wie im bsiherigen Mediensystem. Mit einem Unterschied/einer Verbesserung: die Quellen wären offen zugänglich, damit überprüfensfähig und der Prozess somit transparent!

    Oder habe ich mich verrannt?

    • Wenke Richter sagt:

      Erst einmal ein herzliches Dankeschön für Deinen ausführlichen Kommentar und Diskussionseinstieg.
      Zum ersten Punkt: eine ähnliche Idee wurde am Montag während der Podiumsdiskussion angerissen – eine Förderung durch die DFG im Sinne von Nationallizenzen. Also so wie Du es auch angedacht hast, über einen großen Fonds, angebunden an die DNB, Publikationen unabhängig einer institutionellen Anbindung oder nicht zu fördern. Ich finde diese Idee auf den ersten Blick recht reizvoll. Wie sehen es denn Bibliothekare? Ein Einspruch, den ich von einem Bibliothekar zwar im Zusammenhang mit Repositorien gehört, aber wohl dann auch auf diese Idee anwendbar wäre, ist, daß Bibliotheken eben keine Verlage sind, heißt, daß es nicht ihre Aufgabe ist, verlegerische Dienste anzubieten. Denkt man diesen Punkt der Finanzierung weiter, stoße ich auf folgende gedankliche Schwierigkeit, die in gewisser Weise auch bei der jetzigen DFG-Förderung auftritt. Bei einer Closed Access-Publikation würde im Idealfall der Nutzer die Publikation durch Kauf finanzieren. Die Gefahr bei der durch Fördergelder finanzierten Open Access-Publikation sehe ich, daß Verlage Unternehmen sind, den Preis für Autoren hoch ansetzen, da sie ja nichts durch Verkauf verdienen oder komplett das Verlegen wissenschaftlicher Texte aufgeben (Extremfall). Im ersten Fall werden durch Fördergelder auch Steuergelder verwendet (eben am Anfang und nicht am Ende). Im zweiten Fall müßten dann Wissenschaftler ihre Texte selbst verlegen. An diesem Punkt würde dann über kurz oder lang wieder ein Verlag (vielleicht staatlich geprägter) entstehen. Das Problem ist eben die Koppelung der Publikation von wissenschaftlichen Texten an unternehmerisches Handeln.
      Zum zweiten Punkt: ich glaube, daß die Spezialisierung von Wissenschaften zu weit fortgeschritten ist, als das direkt der größere Teil der Öffentlichkeit herangeführt werden kann. Die eigentlichen Nutzer wird immer das entsprechende Fachpublikum sein. Daß eben nur eine kleine Minderheit tatsächlich die Texte sinnvoll nutzen kann, ist am Ende auch eine Barriere. Natürlich kann durch einen freien Zugang mehr Transparenz theoretisch geschaffen werden. Die Brücke könnten gute Wissenschaftsjournalisten bilden. Eine andere Möglichkeit(Idee wäre auch – und die halte ich für sinnvoll – wissenschaftliche Texte im Open Access so aufzubereiten, daß sie von einer breiteren Öffentlichkeit gelesen und verstanden werden können. Vielleicht sollten wir auch einmal darüber diskutieren, für welche Texte Open Access besonders sinnvoll ist: beispielsweise für den Spezialtext, den nur etwa 100 Leute lesen und verstehen könnten, oder den sachbuchähnlichen Text, der mehrere tausend potentielle Leser hätte.

  2. Ich würde bei Open Access genau an dem von Dir beschriebenen Problem ansetzen – an der Koppelung der Publikation von wissenschaftlichen Texten an unternehmerisches Handeln. Genau dieses Problem würde ich bei öffentlich finanzierter OA-Publikationen nämlich nicht mehr sehen. Die Bibliotheken (ob nun National- oder Digitale Bibliothek) hätten hierbei nämlich ausschließlich die Aufgabe eines Providers, der das Werk zur Verfügung stellt – und das, zur Minimierung der Kosten, in digitaler Form und nicht in Print (anschließende print-on-demand Verwertungsketten wären dann Bezahlservices, die jeder User einzeln bestimmen könnte). In dieser Publikationsform sehe ich noch nicht einmal die Notwendigkeit eines Verlags – sicher müsste man sich um solche Dinge wie Lektorat und anschließendes Design und Vermarktung Gedanken machen. Aber sind wir mal ehrlich, wir reden hier von wissenschaftlichen Publikationen (in meinem Verständnis also Publikationen, die neue Forschungsergebnisse und den Erkenntnisprozess zu eben jenen darstellen sollen) – und gerade hier ist der Aufwand von Design relativ gering, bleibt also Lektorat und Vermarktung. Beides ließe sich doch aber bereits in der Forschungsplanung berücksichtigen, oder?

    “…issenschaftliche Texte im Open Access so aufzubereiten, daß sie von einer breiteren Öffentlichkeit gelesen und verstanden werden können.” Hier würde ich Dir widersprechen. Open Access soll in meinen Augen ja gerade nicht (oder nicht ausschließlich) bereits verschlankte, “übersetzte” und in eine Story eingebettete Texte vorhalten, sondern die tatsächlich entstandenen wissenschaftlichen Ergebnisberichte. Schön ist natürlich, wenn Forscher eine “easy/easier to understand” Version gleich dazuliefern. Aber hier sehe ich in der Tat noch Übersetzungsleistungen seitens der Medien oder der interessierten Öffentlichkeit (z.B. Science-Blogger).

    Disclaimer: ich bin übrigens in der OA-Diskussion nicht allzu bewandert. Ich hoffe also, dass ich hier nicht nur die schon verdauten Argumente noch einmal wiederkäue. Wenn ja, dann bitte signalisieren! ;-)

    • Wenke Richter sagt:

      Du schreibst: “wir reden hier von wissenschaftlichen Publikationen (in meinem Verständnis also Publikationen, die neue Forschungsergebnisse und den Erkenntnisprozess zu eben jenen darstellen sollen) – und gerade hier ist der Aufwand von Design relativ gering, bleibt also Lektorat und Vermarktung. Beides ließe sich doch aber bereits in der Forschungsplanung berücksichtigen, oder?” Genau das ist der Punkt, an dem ich widersprechen muß. Es ist für eine gute Veröffentlichung eben nicht mit ein bissl Satz getan, den jeder mit Word machen kann. Dann kommen dilettantische Ergebnisse heraus, die das Lesen und Verstehen nicht fördern, sondern behindern. Ein gutes Layout unterstützt das Lesen des Textes. Man sieht übrigens bei einigen Büchern aus sogenannten Dissertationsverlagen sofort, ob ein Laie es selbst setzen mußte. Die Texte sehen wie Kraut und Rüben aus. Der Satz ist eben eine der wichtigen Dienstleistungen der Verlage. Es steht auf einem anderen Blatt, daß diese Dienstleistung teilweise von Verlagen wieder als Pflichtaufgabe dem Autor zugewiesen wird. Und wenn wir zum Satz auch Lektorat, Korrektorat und Vermarktung nehmen, sind es eben Grundarbeiten der Verlage. Wandeln dann sich nicht die Bibliotheken zu Quasi-Verlagen, wenn sie dies übernehmen? Ist das ihre eigentliche Aufgabe?

  3. “Publizieren kostet einfach Geld” ist eine wahre Aussage. Aber: Im Prä-Internetzeitalter funktionierte wissenschaftliches Publizieren nur durch den Flaschenhals der Toll Access-Geschäftsmodelle kommerzieller Wissenschaftsverlage. Open Access kann sehr viel mehr und anderes bedeuten, als dieses Geschäftsmodell 1:1 ins Netz zu übertragen und dabei lediglich die Allokation der Kosten auf andere Stellen der ansonsten identischen Verwertungskette zu verschieben. Wer sagt denn z.B., daß die Wissenschaftscommunity auf ewig auf die Mechanismen des Filterns bzw. der Steuerung von Aufmerksamkeit angewiesen ist, die das alte Modell hervorgebracht hat? Was die substantiellen Tätigkeiten wie das eigentliche Schreiben der Artikel, den Peer Review etc. angeht: Hier beruhte das alte Modell auf der kostenlosen Aneignung der Arbeit der Wissenschaftler, die dies stets ohne gesonderte Bezahlung getan haben.
    Schade, daß sich die deutsche Open Access-Community kaum für die Web-Revolution und die damit verbundenen Innovationspotentiale interessiert.

    • Wenke Richter sagt:

      Ich stimme Ihnen zu, daß wir alle Beteiligten noch zu stark an den traditionellen Publikationsmechanismen verhaftet sind. Wir hätten jetzt also die Chance, Publizieren neu zu gestalten. Meine Frage dabei ist, wie soll dies zukünftig aussehen? Wer übernimmt welche Aufgaben beim wissenschaftlichen Publizieren? Ich denke, wenn wir diese Fragen in den zukünftigen Diskussionen beantworten können, dann hat Open Access sehr gute Chancen eine wichtige Variante wissenschaftlichen Publizierens zu werden. Ich bin auf diese Diskussion sehr gespannt und freue mich drauf.

  4. “Wir hätten jetzt also die Chance, Publizieren neu zu gestalten. Meine Frage dabei ist, wie soll dies zukünftig aussehen?”

    Dazu fällt mir ein interessanter Beitrag in dem (ansonsten eher langweiligen) Magazin “research*eu” (Supplement, No 27, September 2010) ein: “New paradigm for scientific publication and peer review”. Darin wird ein EU-finanziertes Forschungsprojekt unter der Leitung von Fabio Casati vorgestellt: “Innovating the scientific knowledge object lifecycle (LiquidPublication”. Es lohnt sich vermutlich, sich mit diesem Modell näher – und auch kritisch, z. B. aus Sicht nicht forschender Leser wissenschaftlicher Publikationen – auseinanderzusetzen.

    Der Beitrag ist, wie ich gerade ergoog… nein: er-ecosiat habe, auch online: http://cordis.europa.eu/ictresults/index.cfm?section=news&tpl=article&BrowsingType=Features&ID=91404

    Und hier geht es direkt zum LiquidPublication-Projekt: http://project.liquidpub.org/

    Viele Grüße aus Köln

  5. “Wen meinen wir denn genau, wenn wir von freien Zugang für jedermann sprechen? Ist es denn nicht vielmehr so, daß Wissenschaft heute so stark spezialisiert ist, daß die breite Bevölkerung (=Steuerzahler) gar keinen Zugang findet, weil sie einfach die Texte nicht mehr verstehen?”

    Auch hierzu noch eine kurze Anmerkung – fast schon ein Reflex bei mir – ich hoffe, das kommt inzwischen nicht allzu gebetsmühlenartig an. ;-)

    Damit “die” breite Bevölkerung dennoch etwas von den wissenschaftlichen Erkenntnisfortschritten mitbekommt, brauchen wir populärwissenschaftliche Darstellung unterschiedlichsten Niveaus und unterschiedlichster Ausrichtung. Sehr viele Sachbücher und Berichte in populären Magazinen – von “Spektrum der Wissenschaft” über diverse Wissenschaftsblogs bis “P. M.” – werden heutzutage von freien Mitarbeitern der jeweiligen Verlage bzw. Redaktionen verfasst. Und diese Freien stehen derzeit bei ihren Recherchen ständig vor verschlossenen Türen bzw. Bezahlschranken. Insofern vermute ich, dass auch eine bloße Umverteilung der Gelder (statt teurer Zeitschriftenabos nun teure Veröffentlichungsgebühren) kein Nullsummenspiel wäre, sondern ein Gewinn: Nicht nur Wissenschaftler, sondern auch die Leute, die Wissenschaft erklären und in die Gesellschaft hineintragen, hätten besseren Zugang zu den Fachpublikationen.

  6. Dörte sagt:

    Hallo an alle DiskussionsteilnehmerInnen,

    ich bin auch keine Expertin, was Open Access angeht. Der Idee stehe ich aufgeschlossen gegenüber, aber doch habe ich wie Wenke Bedenken, wenn es um die Finanzierung von Open Access geht. Bibliotheken alleine oder aber in Kooperation mit den Rechenzentren von Hochschulen und Forschungseinrichtungen werden auf Dauer nicht in der Lage sein, einen dauerhaften Zugang finanzieren zu können. Hier muss eine noch verstärktere Kooperation der einzelnen Einrichtungen stattfinden. Dies wird jedoch auch schwierig werden, durch die unterschiedliche forschungsorientierte Gewichtung.

    Forschungsorientierte Einrichtungen werden einen höheren Bedarf an Zugang zu und Bereitstellung von OA-Angeboten haben und daher eher zu finanziellen Zugeständnissen bereit sein, als dies praxisorientierte Einrichtungen tun werden. Sie werden über einen kostenfreien Zugang zu Forschungsergebnissen dankbar sein, werden aber selbst kaum genug Materialien aus ihrer Sicht produzieren, die eine aktive teure Beteiligung an der Aufrechterhaltung von Repositorien und einer Finanzierung einer notwendigen Langzeitarchivierung rechtfertigen. Dies kann sich durch die Umstrukturierung und eine stärkere Forschungsausrichtung ändern, jedoch wird diese eher in eine praxis- und gewinnorientierte und weniger in eine publizierende Richtung gehen.

    Neben den Kosten für die Datenhaltung und dem Problem der Langzeitarchivierung gibt es derzeit ein weiteres Dilemma, welches gelöst werden muss und dass bei allen derzeit technischen Diskussionen noch nichtmal ansatzweise wirklich angegangen wird. Dies ist die sehr verteilte Datenhaltung und die Sichtbarkeit der Inhalte von Repositorien.

    Die verteilte Datenhaltung wird zwar durch Suchmaschinen wie Base relativiert, aber dennoch erachte ich es für notwendig, dass eine einfache Einbindung der ausgwählten Angebote in die lokalen Kataloge der Bibliotheken möglich ist. Hier gibt es immer wieder auch Unsicherheiten bei KollegInnen zu beobachten. Ist es erlaubt, auf einzelne, auf fremden Servern abgelegte Dokumente zu verlinken? Welchen Link verwende ich? Sind die Verlinkungen dauerhaft? Wie sieht die rechtliche Seite der Nutzung aus? Wo finde ich entsprechende Angebote? Welche Qualitätsbeurteilungskriterien gibt es? Und manchmal ist ihnen sogar gar nicht klar, was Open Access eigentlich bedeutet.

    Ein weiteres Problem meines Erachtens nach ist das Sehen, Entdecken der OA-Angebote in einer Flut von Informationen. Gute Sichtbarkeit erhalten im bibliothekarischen Bereich fast immer Angebote, die entweder alt hergebrachten Publikationsmodellen angepasst sind, z.B. Zeitschriften wie Libreas oder parallele digitale Veröffentlichungen zu Printausgaben, beispielsweise Steinhausers “Recht auf Sichtbarkeit”. Auch bekannte Namen und netzbezogene Inhalte können für einen Erfolg im Open Access-Bereich stehen, z.B. Prof. Dr. Thomas Hoerens Skript “Internetrecht”. Das sind Ausnahmen, oder sehe ich hier etwas falsch?

    Erfolgreiches Open Access macht aus meiner Sicht neben der Finanzierung von Datenhaltung, Langzeitarchivierung auch eine Finanzierung und Aufbereitung der Daten-/Publikationsdarstellung notwendig, um eine entsprechende Aufmerksamkeit für das eingestellte Dokumente zu erhalten. Hier gibt es noch erhebliche Defizite.

  7. Schön hier eine Diskussion zu sehen, die doch schon mal ein bisschen weiter hinaus denkt. Ich denke man kann davon ausgehen, dass sich im wissenschaftlichen Bereich Golden Open Access über lang durchsetzen wird. Springer hat reine OA-Zeitschriften angekündigt und auch bei Wiley werden welche geplant.

    Das Geschäftsmodell der Verlage wird sich wandeln (müssen). Als ein bisher ungenannter Punkt, kann man vielleicht auch hoffen, dass mit dieser Kostenverlagerung zum Autor oder dessen Förderinstitution auch ein Umdenken im Publizieren à la “Publish or perish” stattfinden wird und zunehmend Qualität über Quantität gewichtet wird. Zumindest stelle ich heute fest, dass sich Forschende gerade dann mit Golden OA beschäftigen, wenn sie ein “besonders wichtiges” Paper rausbringen möchten.

    @ Dörte

    Über die Auffindbarkeit von Open Access-Publikationen würde ich mir keine Sorgen machen. Open Access bringt ja die Publikationen gerade aus dem Invisible Web und macht sie indexierbar für jede Suchmaschine. Solange Bibliothekskataloge noch einen Teil des Invisible Web sind, halte ich es auch nicht für sinnvoll sie aufwändig dort reinzubringen.
    Zudem dürften hier Entwicklungen im Bereich Semantic Web & Linked Data die Auffindbarkeit verbessern. Siehe zum Beispiel: http://dx.doi.org/10.1371/journal.pcbi.1000361

    Auch die Langzeitarchivierung profitiert von Open Access. Da OA-Publikationen in der Regel proaktiv mit einer “positiven” Lizenz ausgestattet werden, können Programme wie LOCKSS diese ohne rechtlichen Aufwand die Inhalte archivieren. Ein CLOCKSS (Controlled LOCKSS) wäre gar nicht nötig.

    • Dörte sagt:

      @ Christian Gutknecht

      Dass die Sichtbarkeit der Publikationen erhöht wird, durch dieses Auftauchen aus dem Invisible Netz ist die eine Sache, über die ich mir an dieser Stelle keine Sorgen mache. Es geht aber meiner Meinung nicht nur darum. Neben dieser Auffindbarkeit finde ich es sinnvoll, sie in bestehende Recherchesysteme der Wissenschaftsbereiche einzubinden oder Leitsysteme zu entwickeln, die gezielt solche Publikationen dorthin bringen, wo der Nutzer sie finden möchte. Momentan erlebe ich: Dokument bei Google sichtbar, unsichtbar aber in Bibliotheksangeboten, weil sie dort in den Repositorien eingekapselt sind. Es betrifft nicht nur die Bibliothekskataloge. Gibt es Anbindungs- und Filtermöglichkeiten für Bibliothekssuchmaschinen? Einen guten Ansatz bietet hier ALBERT (http://waesearch.kobv.de/lse/). Leider wird diese Suchmaschine meines Wissens nach nicht weiterentwickelt. – Hier verlässt man dann wohl auch die reine Diskussion um OA und geht hin auch zu einer Diskussion über Bibliothekskatalog 2.0, Semantic Web & Linked Data – etc.

      Die Langzeitarchivierung profitiert von Open Access. JA, aber die Frage der Finanzierung und Beteiligung von Finanzierungen bleibt dabei bestehen und vor allem die Bereitschaft “außenstehender” Einrichtungen.

      • “Dokument bei Google sichtbar, unsichtbar aber in Bibliotheksangeboten”

        Ja und? Doch lieber so als umgekehrt. Wie Du richtig schreibst haben hier die Bibliothekskataloge etwas aufzuholen. Repositorien wie Eprints bringen beispielsweise Linked Data Funktionen inzwischen standardmässig mit: http://www.eprints.org/ontology/.

        Sicher zur Finanzierung der Langzeitarchivierung gehören natürlich noch ganz andere Komponente. Copyright-Abklärungen sind aber tatsächlich ein grosser Teil davon. David S.H. Rosenthal von LOCKSS spricht in einem Vortrag (http://vimeo.com/5407401, ab 40.20) gar von Kosten in der Einheit “byte/lawyer”.

        • Wenke Richter sagt:

          Ich stimme Dörte zu, wenn sie auf die Problematik der Auffindbarkeit hinweist. Natürlich suchen zahlreiche Leser Informationen über Suchmaschinen, aber es ist eben dann doch nützlich und pragmatisch, wenn der Leser in der Bibliothek gleich in den Bibliothekskatalogen die OA-Publikationen findet, als noch gleichzeitig google etc. zu bemühen. Und ist es denn nicht paradox, wenn Dokumente auf Repositorien durch entsprechend bibliographische Datenbanken nicht, aber durch Suchmaschinen dann doch gefunden werden?

  8. Klaus Graf sagt:

    Nochmals: Wenn die Bibliothekare ihre Hausaufgaben nicht machen, ist das das Problem der Bibliothekare und nicht von Open Access.

    Es ist in der Tat wichtiger, wenn die Eprints bei Google auffindbar sind als in Verbundkatalogen, obwohl sie da auch sein sollten, da empirische Studien leider zeigen, dass Suchwerkzeuge wie OAIster oder BASE bei Wissenschaftlern nur wenig bekannt sind. Mit dem jüngst installierten KVK-Filter ist aber ein Schritt in die richtige Richtung gemacht worden, denn der KVK ist doch vielen Wissenschaftlern bekannt und von diesen werden hoffentlich bald die meisten diese unscheinbare Schaltfläche rechts oben bemerkt haben.

    Eprints und Digitalisate müssen in die Verbundkataloge, keine Frage. Ich stelle mir einen lokalen OPAC 2.0 so vor: Auf eine Suche werden zusätzlich zu den lokalen Büchern oder offline Medien in einer weiteren Sektion die lokalen lizenzierten Online-Medien ausgegeben, danach in einer dritten die freien Internetquellen (z.B. aus BASE).

    Nebenbei zum OPAC 2.0: Natürlich sollte der Benutzer selbst einstellen können, wieviele Treffer er auf der Seite sehen möchte. Ich hasse es, wenn Datenbanken mir vorschreiben, dass ich jeweils nur 10 Treffer auf einmal sehen darf. Daher habe ich bei den Voreinstellungen bei Google seit vielen Jahren immer 100 Treffer eingestellt.

    Wichtig wäre aber neben den Metadaten auch eine Volltexstsuche für die Inhalte der Repositorien wie sie z.B. HathiTrust bietet. Hier schwebt mir ein intelligentes Suchwerkzeug/Harvester vor, das nur dann harvested, wenn Google Lücken hat. Die üblichen Google Custom Searches setzten auf dem Google Index auf und können also nicht mehr finden als er und finden auch nicht alles, was Google hat!

    BASE müllt nach wie vor seine Treffer mit Projekt-Gutenberg-Volltexten, Wikibooks etc. zu. Hier sollte eine klare Trennung erfolgen, d.h. man sollte ankreuzen können, ob man überhaupt Volltexttreffer will – das meiste sind inzwischen eh Metadaten.

  9. Auch wenn der Nutzen des Bibliothekskatalogs für Naturwissenschaftler von Bibliothekaren häufig masslos überschätzt wird, will ich ja gar nicht sagen, dass eine Integration von Repositorien in den Bibliothekskatalog nicht unwichtig ist. Allerdings gibt es meiner Meinung nach wichtigere Piroritäten.

    An allererster Stelle sollte die Inhaltsgewinnung stehen. Wie immer wieder zurecht kritisiert wir, sieht es hier bei vielen Repositorien sehr mager aus. Das liegt vor allem daran, dass für jede einzelne Publikation eine Menge Überzeugungs- und Aufklärungsarbeit geleistet werden muss. Wer da noch Zeit findet, Metadaten zurück in den Katalog zu spielen darf sich glücklich schätzen.

    Ich finde als Repository hat man schon viel getan, wenn man die Daten in einem zeitgemässen Format über eine offene Schnittstelle zu Verfügung stellt.

  10. Vielen Dank für die Zusammenfassung und Gedanken zu den Zukunftsgesprächen, und auch die Kommentare sind sehr interessant.

    Meine persönliche Meinung: es gibt noch viel zu tun. Für mich ist es keinesfalls sicher, dass sich Gold OA über lang durchsetzen wird. Und welche Rolle die Bibliotheken dann haben würden. Und als Wissenschaftler in den Lebenswissenschaften schaue ich neidisch auf die USA und UK, die PubMed Central als disziplin-spezifisches Repository haben. Ich würde mir wünschen, dass es eine breitere Diskussion über Business-Modelle gibt. Author-pays ist eben nicht immer die beste Lösung.

  11. Wenke Richter sagt:

    Lambert Heller wies heute auf Twitter auf die Studie u. a. von Florian Grandel zum Modell “Wissenschaftler/in als Herausgeber/in” hin:
    https://lists.spline.inf.fu-berlin.de/lurker/message/20101029.123804.ac001825.de.html

    Link zur Studie: http://journals.sfu.ca/src/index.php/src/article/view/24/41

    Vielen Dank dafür.

  12. jerico sagt:

    Hallo Wenke,

    danke, dass du auf John’s Studie verweist. Ich bin übrigens kein Mitauter der Studie. Das muss ein Missverständnis sein. :-)

    Ich denke die Studie und auch diese Diskussion zeigen, dass die gerade in Deutschland oft so selbstverständlich akzeptierte Aussage “ohne (kommerzielle) Verlage geht es nicht” so nicht richtig ist sondern eher der Lobbyarbeit der Verlage entspringt.

    Dass sich solche Vorurteile halten können liegt auch daran, dass es aus Sicht wissenschaftlicher Akteure in Deutschland immer noch recht einfach ist, Publikationen in einem zunehmend ineffizienten Publikationsmodell ohne Rücksicht auf die Folgekosten zu finanzieren. Es wird aber inzwischen schwieriger, da genannte (zumeist öffentliche!) Endverbraucher zurecht gegen Preiserhöhungen oberhalb der Inflationsrate, Bundlingpolitik und andere Konzentrationseffekte rebellieren und der Zugang zu traditionellen Publikationsformen sich weiter verschlechtert.

    Wir haben gerade im traditionellen System zunehmend ein Problem zu hoher Konzentration von Marktmacht. Angebotsorientierte Publikationsformen sind dabei Teil der Lösung, nicht Teil des Problems. Nicht umsonst zeigte sich Herr Sobotta bei der genannten Podiumsdiskussion bezüglich Fragen aus dem Publikum zu Springers Gewinnmargen sehr zugeknöpft.

    Was du bei deiner Argumentation nämlich vergisst, ist, dass die von dir genannten Endnutzer eben auch im Wesentlichen öffentliche Mittel ausgeben, und dass bei der Verlagerung dieser Mittel auf die Angebotsseite für die öffentliche Hand in der Gesamtsicht wesentliche Einsparungen bei gleichzeitig erheblich verbesserter Zugänglichkeit möglich sind.

    Selbstverständlich kostet Publizieren weiterhin Geld und benötigt gute Verlagsarbeit. Unser Erfahrung nach verursacht das angebotsfinanzierte Modell aber ca. 50% geringere Publikationskosten auch unter Einbeziehung institutioneller Eigenleistungen. Dies liegt vor allem an der Disintermediation des Publikationsprozesses und einem nicht am Gewinn orientierten Geschäftsmodell. Übrigens eröffnet sich dabei für differenzierte Verlags(teil)leistungen weniger etablierter Verlage oder selbständiger professioneller Dienstleister (z.B. Lektorat, Layout) eine attraktive Marktnische, die der Wettbewerbssituation in der Praxis eher gut tut, als dass sie ihr schaden würde.

    Aus Sicht der öffentlichen Förderung und der Wissenschaft erreicht das angebotsorientierte Modell bei geringerem Mitteleinsatz einen nachweislich höheren Impact (Zitierungen, Abrufe), eine bessere urheberrechtliche Situation für Autor/innen und mehr Einfluss auf die Publikationspolitik für die Wissenschaftler/innen, siehe die in der Studie zitierten systematischen Untersuchungen.

    Ob dabei unabhängige Wissenschaftler/innen ausgeschlossen werden oder nicht ist eine ausschließlich politische Frage die in der öffentlichen Diskussion und bei den Förderinstitutionen zu entscheiden ist und nicht von der Frage abhängt, ob angebotsorientiert oder nicht gefördert wird.

    Unsere Studie zeigt genau das Gegenteil: Generell erleichtert das angebotsorientierte Modell den Zugang nicht institutionell organisierter Forscher/innen zu Publikationsplattformen eher als ihn zu erschweren. Siehe auch der überproportional hohe Anteil von “Wissenschaftler/innen als Herausgeber/innen” aus ansonsten in der Wissenschaftswelt eher unterrepräsentierten Ländern. Von einer “zentralen Anlaufstelle” kann nicht die Rede sein. Eher eröffnet sich die Aussicht auf eine etwas buntere Verlagslandschaft.

    Mehr und mehr Wissenschaftler/innen (unter ihnen Anita Runge, Günter Mey und, wenn auch mit anderen Inhalten, du selbst mit deinem Blog) erkennen diese Vorteile und nutzen sie für sich.

    Viele Grüße,
    Florian Grandel

  13. Die Videos zur Veranstaltung “Zukunftsgespräche Open Access” sind nun online und für alle zum Nachschauen:
    http://www.zukunftsgespraeche.de/dokumentation/index.html

  14. Pingback: Quo vadis Open Access? | Blog der Frankfurter Buchmesse

Hinterlasse eine Antwort

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *

Du kannst folgende HTML-Tags benutzen: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>