Heute ist jeder ein Verleger. Ob der Gartenbauverlag aus Stuttgart, der Göttinger Universitätsverlag, der Global Player Elsevier oder der gewöhnliche Blogger – alle sind sie eingeladen zur ersten Konferenz „Academic Publishing in Europe“. Und irgendwie ist man sich auf dem Podium auch alles in allem sehr einig und solidarisch – einige Open Access Aktivisten ausgenommen (die auf diesem Parkett natürlich auch gerne als „OA-Ideologen“ bezeichnet werden). Was bewegt die versammelten Publisher, was solidarisiert diese doch so heterogene Spezies? In den Eröffnungsverträgen wurde immer wieder hervorgehoben, wie wichtig das Publikationswesens für die Aufrechterhaltung der Tradition, die Bewahrung der „Cultural Heritage“ und für die Zivilisation allgemein ist. Und es war kein Zufall, das auch später bei der Dinner-Rede die Geschichte des wissenschaftlichen Verlagswesens ausgehend von der Gründung der Akademischen Verlagsanstalt 1906 in Posen skizziert wird. Doch davon später mehr.

Weitere drängende Themen sind die Sichtbarkeit der Verleger als Wahrer von wissenschaftlichen Ideen und Kulturgütern, das Urheberrecht und die Verteilung dieser – auf dem Weg durch den Verlag – zu Wissen gewordenen Forschungsergebnisse. Und immer wieder Open Access, Open Access, Open Access. Diese bedrohende Menetekel scheint die ganzen zwei Tage über der Versammlung zu schweben und (neben dem Copyright) die Reihen der Verlagsbranche zusammenzuschweissen.

Wo tagen Verleger? Nicht in hypermodernen Congresscentern sondern inmitten der von Schrapnell- und Kugelwunden gezeichneten Fassade des Leibnizsaals in der Berlin-Brandenburgischen Akademie der Wissenschaften am Gendarmenmarkt.

Neben den ehrenwerten Themen der Eröffnungsreden spielt – trotz aller gegenteiligen Beteuerungen – allerdings auch der (aus Gründen, die wir später streifen werden) notwendig zu erzielende (leidige!) Profit eine zentrale Rolle. Selbst der Nature-Exponent David Hoole muß davor warnen, diese “eigentlichen” Stärken des Verlagswesens könnten auf dem Altar einer ausschließlichen Profitfixierung geopfert werden. Dieser – auch aus Bibliothekarssicht interessante – Gedanke wird sich wie ein roter Faden durch die zwei Konferenztage ziehen:

Die etablierten Verlagsdinosaurier haben ob des Schielens auf Shareholder Values den Kontakt zum Wissenschaftler verloren und werden nun massiv durch die schnellen, flinken und disruptiven Open Access-Säugetiere bedroht. (O.Obst)

Einige sprechen in ihrem Vortrag oder unter vier Augen von den abtrünigen Wissenschaftlern, die sich mit allen möglichen und unmöglichen Leuten solidarisieren würden, anstatt mit ihren ewigen Fürsprechern seit grauen Vorzeiten, den Verlegern. Können wir Verleger die Zeit anhalten und das Rad noch einmal zurückdrehen, indem wir uns wieder mehr um unsere eigentliche Klientel / unser eigentliches Kapital – die Wissenschaftler – bemühen? Oder ist der Open Access-Zug schon zu weit voraus? Dass zwischen Verlegern und Wissenschaftlern zwar eine historisch gewachsene Symbiose vorliegt, aber keine ewige Brüderschaft garantiert wurde (wie die Stärke der Open Access-Bewegung zeigt), scheint noch nicht in aller Ohren angekommen zu sein. Stattdessen wurde mehr oder weniger beruhigend auf die schiere Unmöglichkeit hingewiesen, die finanziellen Grundlagen des gegenwärtigen Systems innerhalb von wenigen Jahren zu ändern. (Unlogisch, denn für Open Access müssen nicht zwangsläufig alte Strukturen aufgebrochen werden: Das Geld kann auch bei Open Access (Institutional Member bei BMC) von der Bibliothek wie gewohnt zum Verlag fliessen, hier muß nichts mühsam umgelenkt werden. Dies gilt auch für OA-Repositories.

Aber nun chronologisch! Ca. 120 Personen waren der Einladung von Arnoud de Kemp gefolgt. Sally Morris (CEO ALPSP) begrüßte die Teilnehmer zu dieser ersten APE-Konferenz, die nicht die letzte bleiben solle. AP in Europe ist deswegen interessant, weil a) hier alles began, b) 50% aller Verleger hier sitzen, darunter c) die großen Drei Elsevier, Springer und Taylor & Francis und d) seit 1996 hier auch mehr Artikel publiziert werden als in den USA. So to say „Europe is at the Heart of Publishing“.

Gottfried Honnefelder, Präsident des Börsenvereins, thematisierte in seiner Brandrede das technologische Drama, das sich vor unseren Augen abspielt und unsere Kultur und Zivilisation gefährdet: Universeller Zugang zu Informationen in Zusammenspiel mit einem verlagsfeindlichen Urheberrecht.

Nicole Dewandre von der European Commission drehte den Morris-Satz sehr elegant um und machte daraus „Science and therefore Academic Publishing is at the Heart of Europe“. Im weiteren stellte sie die Studie der Europäischen Kommission: ECONOMIC Study on the economic and technical evolution of the scientific publication markets in Europe vor, die bereits für einiges Aufsehen gesorgt hatte, da die Schwächen des gegenwärtigen wissenschaftlichen Publikationssystems sehr genau analysiert werden. Hauptkritikpunkt dieser Studie ist, dass der Steuerzahler (un damit die EU) insgesamt dreimal für Forschung bezahlen würden: 1. für die Forschung selber, 2. für die Publizierung derselben und 3. für den Kauf der Publikationen. Die EU interessiert sich natürlich für die Sinnhaftigkeit dieser Ausgaben und wie die Effizienz des gegenwärtigen Systems gesteigert werden kann. Dewandre wies auf die Lissabon-Strategie der EU hin, die Ausgaben z.B. für die Forschung zu erhöhen. Doch damit sei es nicht getan, es müsse auch der Impact der Forschung erhöht werden. Die im Bericht festgestellte „market imperfection“ behindere einen höheren Impact. Die imperfection (kein echter Wettbewerb) beruhe auf dem fehlenden Wissen der Leser um die wahren Kosten, da die Verträge „in Vertretung der Nutzer“ von den Bibliotheken gemacht und bezahlt würden. Ein interessanter Gedanke von ihr war, dass es sich bei den traditionellen Preismodellen um value-based pricing anstatt von cost-based pricing handeln würde. Auf gut deutsch: Der Status Quo ist ein paradiesischer Zustand für Verleger: Sie können jede Profitsteigerung erreichen, da „der Markt das hergibt“ (Bibliotheken müssen abonnieren, wenn die Fakultät den Titel um jeden Preis haben will). Diese einfachen Business-Verhältnisse wurden später von Pieter Bolman (ehemaliger CEO von STM) in seiner Dinner-Rede gelobt. Was sind die Empfehlungen des Berichts? Um zu einem cost-based pricing modell zurückzufinden, solle a) der Wettbewerb gefördert werden, b) weitere Fusionen und Aufkäufe sollen genau geprüft werden und c) das elektronische Publizieren via Open Access unterstützt werden. Peter Suber’s Kommentar zum EU-Bericht: This is big.

Jürgen Renn, Max Planck Institut für die Geschichte der Wissenschaft, gab einen visionären und atemberauben Ausblick in die Zukunft des wissenschaftlichen Kommunikationswesens. Er beklagte das ungenutzte Potential der neuen Medien und sah die Lösung in Open Access als Teil der Openness-Bewegung, die er als „paradigm shift of science“ herbeiwünschte. Vorteile von frei zugänglichen Forschungsergebnissen ist a) Text Mining, b) Rohdaten und c) Reproducibility. Die durch die neuen Medien möglich gewordene „global connectivity of knowledge“ (Stichwort: the self-organizing web) würde die Wissenszunahme beschleunigen. Der Prozeß ist nicht technology-driven, sondern user-needs-driven. Was passiert mit den Verlegern? Sorry, to say that, but confrontation or collaboration, je nachdem ob sie Toll Access or Open Access anbieten.


Derk Haank, CEO Springer, sah auf die “Transition from print to electronic”, die bei den Journals nach nicht einmal 10 Jahren vollzogen sei, mit Zufriedenheit zurück. Nun kämen die Bücher dran. Für die Zukunft sähe es nach einem Angebotsmix aus Verlagsdatenbanken und privaten/institutionellen Repositories aus. Mit letzteren hätte er keine Probleme, selbst wenn diese alle publizierten Artikel komplett enthalten würden. Diese „friedliche Koexistenz“ gelte aber nur, solange diese Repositories keine kommerziellen Absichten hätten. „Can see no harm in that“. Schlußendlich bekam die europäische Mehrwertsteuer noch ihr Fett ab. Sie verhindere eine größere Verbreitung der e-only Subskriptionen, die in Europa nur 1/3 der Abonnements betragen würden.

Nature’s David Hoole brachte einen kurzen Abriß der Geschichte des Publikationswesens, schön tabellarisch sortiert nach USA und Europa. Obwohl intensiv mit IT-Lösungen, Hard- und Software beschäftigt, wäre der Internetcrash an den Verlagen nahezu spurlos vorüber gegangen (ich nehm’ mal an, dank der Finanzkraft der Kunden). Zum Schluß präsentiete er eine SWOT-Analyse des Verlagswesens mit den Schwächen profit-imperative, poor PR, moving slow, und den Bedrohungen: national access & archiving, disruptive business models, disintermediation.

Der Ex-Vorsitzende des Publications Committee von FEBS, Willy Stalmans, brachte dann harte Fakten. 99% ihrer gesamten Einnahmen in Höhe von 3,5 Mio. € erzielt FEBS durch die Publikation des FEBS Journal und der FEBS Letters. Diese Summe schüttet FEBS an ihre 40.000 Mitglieder in Form von Workshops, Fellowships, Grants etc. wieder aus. Insbesondere die Erweiterung nach Osteuropa (und bis nach Kirgisien!) schlägt hier deutlich zu Buche. Stalmans befürchtete nun aufgrund von Subskritionsverlusten aufgrund von Digitalisierung und Öffnung der Zeitschriften-Archive (die Journale haben ein 12 Monats-Embargo), dass bei einem obligatorischen sechsmonatigem (oder gar keinem) Embargo die Zeitschriften eingehen und damit die Einnahmen der FEBS komplett wegbrechen würden. Dies wäre das Ende der Society, wie wir sie kennen würden. Der ACS-Präsident hätte zu dieser Problematik gesagt:

Bei einem 6-Monats-Embargo kann eine Fachgesellschaft die Kosten für hochqualitative Zeitschriften und ein Peer-Review nicht mehr herausholen.

Stalmans berechnete den Preis, den nach dem Autor-Pay-Modell jeder Autor für eine Publikation in einer FEBS-Zeitschrift bezahlen müsste, damit die Einnahmen gleich blieben: Sage und schreibe 8.500 €. Bei 3,5 Mio. FEBS-Gewinn (+ 20% Gewinn für den Verlag) und 1.634 Publikationen im Jahr komme ich damit auf Kosten von 5.800 € und einen Erlös von 2.700 € pro Artikel – eine Profitmarge von 32%. Kommentar: Mit diesen 2.700 € unterstützt der Steuerzahler über die Bibliotheken (und die FEBS) die Biochemiker in aller Welt (Ich bitte um den Aufdruck von “Notopfer Kirgisen” auf jedem Zeitschriftenheft ;-) ) . Die neue – dritte – FEBS-Zeitschrift Molecular Oncology (Launch in 2006) “will bridge the gap between basic and clinical science” und ganz sicher auch den gap zwischen Kirgisen und Mitteleuropa…

Nach diesen interessanten Interna zum Kommerz nicht-kommerzieller Gesellschaften verteidigte Matthew Cockerill (als Ersatz für den verhinderten Vitek Tracz. Schade, ich hätte gerne diesen Daniel Düsentrieb des modernen Publikationswesens kennengelernt) Open Access vehement. Im wesentlichen lautete seine These wie folgt: Das Publikationswesen hat viele Entwicklungen verschlafen, aber gerade heute wäre wichtig, neue Wege zu finden. Open Access ist ein Modell dafür. Laßt uns damit experimentieren. Because data can flow freely, totally new services like ebay could evolve. Due to the fact, that information is not on paper, four new services in the future:

  1. adding semantic structure to enrich articles and data: knowledge in articles should be computer readable, there semantics should be captured at time or production not afterwards, for this there are standards emerging, e.g. the National Center of Biomedical Ontology, which is working on controlled vocabulary for that purpose = not just words (MeSH) but concepts.

  2. mining tools for hypothesis drawing
  3. tape together the collective knowledge of the community: the selection process e.g. of Wikipedia let the best things survive. Tools like postgenomics.com produce better and quicker citation statistics, because they measure the impact of scientific articles in newspaper, blogs, wikis, etc. Another example is CiteULike, the Hyde Park (Central Park?) of scientist’s whole life. In CiteULike you share bibliographic data with other people on default.
  4. interactive tools for structured writing of articles (fewer error, easier writing process)

Not all activities of the publishing industry are replaced by technology. But a transition process is necessary (and starting at the very moment) from lower levels of adding value to higher levels. Low means the publisher just add simple things like peer review, printing and distribution, high means the publisher enrich the data of the scientist semantically or postgenomically or whatsoever and creates (or makes possible) are really high-sophisticated level of knowledge interaction.

Hier geht’s zum 2. Tag


Comments

Comments are closed.

Name (required)

Email (required)

Website

Speak your mind