Montag 24. September 2018

reset view
09:00 - 10:15
  • Come together mit Begrüßungskaffee
  • Raum Inffeldgasse 25/D Foyer EG/1.OG
  • Workshop Open Access für Einsteiger*innen
  • Raum Inffeldgasse 25/D Foyer 1.OG
    HS i5
    HS i6
  • Referent/in Christina Riesenweber (Freie Universität Berlin, DE) Isabella Meinecke (SUB Hamburg, DE) Martin Ebner (TU Graz, AT)
  • Abstract

    Allen, die neu im Thema Open Access oder zum ersten Mal auf den Open-Access-Tagen sind, wird in diesem Kurzworkshop ein übersichtlicher Einstieg ermöglicht. Expert*innen aus dem Programmkomitee stellen die wichtigsten Grundkonzepte der Open-Access-Community vor. Im Anschluss gibt es 3x15 Minuten Gelegenheit, die diesjährigen Schwerpunktthemen der Open-Access-Tage näher kennenzulernen, mit anderen Teilnehmer*innen ins Gespräch zu kommen und eigene Fragen zu klären.

10:30 - 11:00
  • Eröffnung und Grußworte
  • Raum Inffeldgasse 16/B KG HS i13
  • Grußworte MinR Peter Seitz (Bundesministerium Bildung, Wissenschaft und Forschung, AT)
  • Grußworte VR Claudia von der Linden (TU Graz, AT)
  • Eröffnung Ulrike Krießmann (TU Graz, AT)
11:00 - 12:00
  • Keynote 1 Open Access in France: how the call of Jussieu reflects our social, technical and political landscape
  • Raum Inffeldgasse 16/B KG HS i13
  • Referent/in Laurent Romary (Inria, FR)
  • Abstract

    Our presentation is centred on the description of the French higher education and research environment and the way it has developed in the scientific and technical information domain, up the recent presentation of the national open science policy by Minister Frédérique Vidal in July 2018. We will show that the focus on identifying a public service to universities and research institutions has lead to the setting up of centralised and coordinated services and decision-making processes that have put us in a strong position in the context of the on-going negotiations that are taking place with several monopolistic publishers.

    After a quick presentation of the general landscape, we will focus on the actual technical infrastructures that are currently in place and in particular how the existence of a national (cheap and efficient) publication repository has facilitated the development of a green open access orientation in the country. We will also present the general political support we have in this respect, with both the “Loi pour une République Numérique” (with articles related to open access and TDM) and the multi-institutional call of Jussieu aiming at providing a basis for an in-depth change of the publication eco-system. As an example of a concrete implementation of such policies, we will detail the open access strategy of Inria, which has had a deposit mandate in HAL since several years.

    10.5281/zenodo.1443165
12:00 - 13:30
  • Mittagspause
  • Raum Inffeldgasse 10 / Mensa
13:30 - 15:00
  • Session 1 Nationaler Open-Access-Kontaktpunkt OA2020-DE - Zentrale Ergebnisse des ersten Projektjahres
  • Raum Inffeldgasse 25/D 1.OG HS i7
  • Vortrag 1 Pilotprojekt "Politikwissenschaftliche Open-Access-E-Books im Transcript Verlag" sowie "Überregionales Konsortium zur Finanzierung von Zeitschriftenpublikationen bei Genuinen Openaccess-Verlagen" Abstract

    Beide Pilotprojekte erarbeiten Transformationsmodelle in Zusammenarbeit mit Akteur_innen aus den Wissenschaftseinrichtungen und Verlagen.

    Das Konzept und Umsetzungsszenario des ersten Pilotprojekts wurde von dem Nationalen Open-Access-Kontaktpunkt und dem transcript Verlag entwickelt. Ziel ist die Entwicklung eines für Verlag und Bibliotheken gleichermaßen tragbaren, transparenten und ökonomisch nachhaltigen Open-Access-E-Book-Geschäftsmodells. Dabei sollen die Defizite vorhandener Ansätze adäquat adressiert werden. So sollen für Bibliotheken oder Teilgruppen von Bibliotheken (z. B. Fachinformationsdienste und Zentrale Fachbibliotheken) klare Anreize geschaffen werden, mehr Mittel im Sinne der Open-Access-Transformation zu verwenden. Das Modell wurde für E-Books mittelgroßer bzw. kleiner deutschsprachiger Verlage entwickelt. Kernelemente sind die Open-Access-Stellung einer Frontlist (Pilot: Titel Politikwissenschaft transcript Verlag 2019) sowie ein Konsortium (Kombination aus FID und weiteren Bibliotheken), dass das Erscheinen von Open-Access-Monographien maßgeblich finanziert. Es ist eine Beteiligung des FID Politikwissenschaft an der Organisation und anteiligen Finanzierung im Pilotprojekt geplant. Die Organisation des Konsortiums erfolgt mit initialer Unterstützung des Kontaktpunkts. Ziel ist es ab Beginn der zweiten Jahreshälfte 2018 mit der Mitteleinwerbung zu beginnen.

    Das zweite Pilotprojekt adressiert das Problem, dass es an zahlreichen deutschen Universitäten und wissenschaftlichen Institutionen mit relevantem Open-Access-Publikationsaufkommen an einer strukturellen Verankerung der Open-Access-Finanzierung, etwa durch einen Publikationsfonds, fehlt. Zudem läuft das DFG-Förderprogramm „Open Access Publizieren“ 2020 aus. Bestehende Finanzierungsstrukturen sind häufig noch nicht nachhaltig aufgestellt. Es fehlen Kennzahlen zur Bedarfsabschätzung, die eine Ausgabenplanung für das kostenpflichtige Open-Access-Publizieren für Bibliotheken analog zur Planung von Subskriptionsausgaben ermöglichen, sowie eine effiziente Organisation der Abrechnungsprozesse. Es wird daher durch den Nationalen Open-Access-Kontaktpunkt vorbereitet, die Finanzierung des goldenen Weges des Open-Access-Publizierens im Rahmen eines überregionalen Konsortiums in Zusammenarbeit mit einem genuinen Open-Access-Verlag pilotartig zu erproben, um die Finanzierung von genuinen Open-Access-Publikationen strukturell besser zu verankern. Dies geschieht komplementär zu bestehenden Transformationsvorhaben wie SCOAP3 oder DEAL.

    In dem Beitrag werden beide Pilotprojekte und ihre Bedeutung für die Erwerbungstätigkeit einer wissenschaftlichen Bibliothek vorgestellt.

    10.5281/zenodo.1460968
  • Referent/in Dirk Pieper (Universität Bielefeld, DE) Nina Schönfelder (Universität Bielefeld, DE) Alexandra Jobmann (Universität Bielefeld, DE)
  • Vortrag 2 Transformationsindex - Ein Index zur Einordnung Institutioneller Aktivitäten im Rahmen der Openen-Accesstransformation Abstract

    Die Allianz der deutschen Wissenschaftsorganisationen strebt eine Transformation bestehender Zeitschriften in den Open Access an. Während das von der Allianz geförderte Projekt DEAL konkret mit den Verlagen Elsevier, Springer Nature und Wiley verhandelt, hat das ebenfalls von der Allianz geförderte Projekt Nationaler Open-Access-Kontaktpunkt einen breiteren Auftrag, nämlich die Schaffung von Voraussetzungen für eine möglichst flächendeckende Open-Access-Transformation. Wissenschaftliche Einrichtungen und vor allem die dort verankerten Bibliotheken können und sollen diese Transformation durch politische Erklärungen, aktive Handlungen und die Umwidmung von Subskriptions- und Lizenzgeldern unterstützen.

    Mit der Etablierung eines Transformationsindex soll daher ein Instrument geschaffen werden, um Fortschritte der Open-Access-Transformation auf Ebene der wissenschaftlichen Einrichtungen und Bibliotheken zu messen und gleichzeitig zu bestimmen, wie viele Ressourcen in den Open Access von diesen investiert werden. Ebenso zeigt der Index interessierten Einrichtungen Möglichkeiten des institutionellen Open-Access-Engagements auf und dient über ein Ranking der informellen Einordnung in ein Raster möglicher Open-Access-Aktivitäten. Der Index wird inhaltlich in vier Dimensionen mit jeweils eigenen Indikatoren unterteilt und soll so die folgenden grundlegenden Fragen beantworten: 1. Wie stark ist das politische Engagement einer wissenschaftlichen Einrichtung in Bezug auf Open Access? 2. Hat sie aus dem Engagement bestimmte Handlungsoptionen abgeleitet und umgesetzt? 3. Ist sie in der Lage fundierte Aussagen über die Höhe der Ausgaben für Open Access zu treffen?

    Der Beitrag stellt den Transformationsindex anhand seiner Dimensionen und den zugeordneten Indikatoren sowie seine methodischen Grenzen vor. Der Input soll als Grundlage dienen, um mit der anwesenden Open-Access-Community die Anwendbarkeit des Indexes und die Strategien zur Integration organisationaler und fachlicher Besonderheiten in das Methodendesign zu diskutieren.

    10.5281/zenodo.1460968
  • Referent/in Alexandra Jobmann (Universität Bielefeld, DE)
  • Vortrag 3 Artikelbearbeitungsgebühren - Spiegel des Impact-Factors oder Erbe des Subscriptionsmodells? Abstract

    Dieser Beitrag untersucht anhand multivariater Regressionsanalysen, welche Faktoren die Höhe von Artikelbearbeitungsgebühren (Article Processing Charges – APC) beeinflussen. Auf Basis des openAPC-Datensatzes, der Teil des INTACT-Projekts an der Universitätsbibliothek Bielefeld ist, werden tatsächlich gezahlte Artikelbearbeitungsgebühren (im Gegensatz zu Listenpreisen) durch folgende Variablen erklärt: (1) den „source normalized impact per paper – SNIP“ der CWTS Journal Indicators, d. h. durch den Impact-Factor der Fachzeitschrift, in der der Artikel publiziert wurde, (2) den Verlag, (3) ob die Fachzeitschrift hybrid ist oder ausschließlich open access publiziert, und (4) die Fachrichtung der Zeitschrift. Die Untersuchung wird sowohl für den gesamten openAPC-Datensatz als auch für die Teilstichprobe der britischen Daten zwischen 2014 und 2016 durchgeführt – letzteres um das Problem einer Stichprobenverzerrung aufgrund eines selektiven Berichtverhaltens von wissenschaftlichen Einrichtungen an openAPC zu umgehen. Die empirischen Ergebnisse deuten stark darauf hin, dass für die Höhe der zu zahlenden Artikelbearbeitungsgebühren der Impact-Factor und der Hybrid-Status einer Fachzeitschrift entscheidend sind. Diese Variablen erklären in einer bivariaten Regression 20–35% (je nach Stichprobe) der gesamten Varianz. Allerdings ist der Zusammenhang zwischen den APC und dem SNIP für reine Open-Access-Zeitschriften wesentlich enger als für hybride Zeitschriften. Für die Höhe der Artikelbearbeitungsgebühren ist darüber hinaus relevant, welcher Verlag die Fachzeitschrift herausgibt. Ungeklärt bleibt zurzeit noch der Einfluss unterschiedlicher Förderbedingungen, die in den berichtenden Ländern für die Übernahme der Artikelbearbeitungsgebühren durch wissenschaftliche Einrichtungen für ihre Mitarbeiter_innen oder Drittmittelempfänger_innen gelten.

    Der vorliegende Beitrag ist insbesondere für die Abschätzung der Finanzierbarkeit einer großflächigen Open-Access-Transformation für wissenschaftliche Bibliotheken und Einrichtungen sowie für das Open-Access-Monitoring von Bedeutung. Die Ergebnisse der Regressionsanalysen ermöglichen in Kombination mit Publikationsdaten eine Prognose über die Summe der zu zahlenden Artikelbearbeitungsgebühren für eine jeweilige Einrichtung. Im Sinne eines Kosten-Monitorings werden preistreibende Faktoren offengelegt und einer weiteren ökonomischen Analyse zugänglich gemacht.

    10.5281/zenodo.1460968
  • Referent/in Nina Schönfelder (Universität Bielefeld, DE)
  • Session 2 OER an Universitäten implementieren und verankern: „Open Education Austria“ an konkreten Beispielen
  • Raum Inffeldgasse 25/D EG HS i3
  • Vortrag 1 Qualifizierungsangebote als Motor für freie Bildungsresourcen Abstract

    Freie Bildungsressourcen bzw. Open Educational Resources (OER) gewinnen im Kontext der Hochschullehre zunehmend an Bedeutung. Offen lizenzierte Lehr-/Lernmaterialien sind für Lehrende wie für Studierende mit zahlreichen Vorteilen verbunden. Mit der Verwendung und der Erstellung von OER sind allerdings auch Herausforderungen verknüpft. Dieser Beitrag zeigt, wie diesen Herausforderungen mit Hilfe von Qualifizierungsangeboten erfolgreich begegnet werden kann.

    Obwohl OER in den letzten Jahren stärker in den Fokus des akademischen Lehrbetriebs gerückt sind, ist ihre Bekanntheit nach wie vor eher gering. Hierin liegt auch eine Hauptursache dafür, dass die Verwendung und Erstellung von freien Bildungsressourcen nur in einem eher bescheidenen Ausmaß stattfinden. Ein zweiter wesentlicher Grund dafür ist der Umstand, dass viele Lehrende im Umgang mit OER unsicher sind. Zum einen existieren Unklarheiten in Bezug auf die angewandten Lizenzierungen, im Konkreten in Bezug auf das Creative-Commons-Modell. Zum anderen führt die dezentrale Speicherung von OER dazu, dass das Finden von freien Bildungsressourcen entsprechende Erfahrung und Kompetenzen voraussetzt.

    Um den Einsatz und die Produktion von OER in der Hochschullehre zu erhöhen, ist es demnach notwendig, ihren Bekanntheitsgrad zu steigern und Lehrende über die notwendigen Rahmenbedingungen beim Einsatz von freien Bildungsressourcen zu informieren. Dazu wurde im Zuge des Projekts „Open Education Austria“ (www.openeducation.at) ein eigenes Arbeitspaket „Information und Qualifizierung“ eingerichtet. Hier wurden Qualifizierungsangebote entwickelt, die in weiterer Folge an den vier am Projekt beteiligten Universitäten erprobt wurden. Zu diesen Maßnahmen zählen vor allem ein OER-Workshop, ein OER-MOOC und ein OER-Leitfaden. Zudem wurden spezifische Workshops zu den Themen „Urheberrecht und Creative Commons“, „OER- Erstellung“ und „OER-Implementierungsstrategien“ im Rahmen des ersten österreichischen OER- Festivals angeboten.

    Die OER-Workshops wurden bisher siebenmal durchgeführt. Viele Workshopteilnehmer/innen bekundeten ihr Interesse, aufgrund ihrer neu erworbenen Kompetenzen OER zu nutzen oder selbst zu produzieren. Qualifizierungsangebote sind somit ein essentieller Faktor, um die Verwendung und Produktion von OER voranzutreiben.

  • Referent/in Michael Kopp (Universität Graz, AT)
  • Vortrag 2 "Von der OER Erstellung zur OER Nutzung“ Implementierung von OER Beispiel der Univ. Wien Abstract

    Das in der Session-Beschreibung vorgestellte HRSM-Projekt „Open Education Austria“ hat sich zum Ziel gesetzt bis Dezember 2018, ein OER-Fachportal zu implementieren, auf dem Offene Bildungsressourcen (in Form von Videos, Bildern, Texten und Lernpfaden etc.) aller beteiligten Partner gefunden werden können. Das Konzept sieht vor, dass vorerst alle Projektpartner ihre OER in einem lokalen Repositorium ablegen und verwalten. Das Portal holt sich die Informationen über die OERs (Metadaten) und stellt diese über einer gemeinsamen Suchoberfläche zur Verfügung. Der Prototyp ist zum Zeitpunkt des Vortrags bereits in Betrieb und mit den Repositorien der Partner verbunden.

    Die Universität Wien betreibt dieses Fachportal für alle Partneruniversität über den Zeitraum des Projekts hinaus und die Projektpartner sowie das CTL sind bestrebt, den Anteil an OERs durch Qualifizierungs- und Unterstützungsangebote vor allem für Lehrende zu erhöhen (siehe Session 2 und 3). Das Fachportal kann auf Wunsch mit einer Vielzahl universitärer Repositorien verknüpft werden.

    Die Gründe für ein Fachportal sind vielfältig:

    • Bündelung von qualitätsvollen OERs: Beliebigkeit vermeiden, Fokus und Differenzierung auf Disziplinen
    • Akzeptanz unter den AnwenderInnen und ErstellerInnen: Vertrauenswürdigkeit innerhalb der Fachgemeinschaft
    • Gute Sichtbarkeit des Gesamtangebots, bessere Auffindbarkeit im Internet
    • Informationssicherheit: Erschließung und Langzeitarchivierung
    • Vernetzung und Einbettung: Funktion eines „Schaufensters“ der Institution bzw. Fachgemeinschaft

    Der im Vortrag vorgestellte Workflow (siehe Grafik 1) von der OER Erstellung bis hin zur OER-Nutzung soll an zwei konkreten Fallbeispielen dargestellt. Dabei werden auch die Herausforderungen im Bereich der Erstellung, Metdadaten-Anreicherung und Nutzung aufgezeigt.

    10.5281/zenodo.1440967
  • Referent/in Paolo Budroni (Universität Wien, AT) Raman Ganguly (Universität Wien, AT) Christoph Jokubonis (Universität Wien, AT) Sylvia Lingo (Universität Wien, AT) Felix Schmitt (Universität Wien, AT) Charlotte Zwiauer(Universität Wien, AT)
  • Vortrag 3 Unterstützung Lehrender bei der OER-Produktion Abstract

    Die erfolgreiche Verankerung offener Bildungsressourcen (OER) in der akademischen Lehrpraxis erfordert die Unterstützung der Lehrenden auf unterschiedlichen Ebenen. Dieser Vortrag identifiziert die wesentlichen Ansatzpunkte für solche Unterstützung und zeigt beispielhaft auf, wie sie implementiert werden kann.

    Im Rahmen des Hochschulraumstrukturmittel-Projekts Open Education Austria (OEA) der Universität Wien, der Technischen Universität Graz, der Universität Graz und der Universität Innsbruck wurden Unterstützungsmaßnahmen für Lehrende im Arbeitspaket 1 definiert und seit Sommer 2016 an den Universitäten Wien und Innsbruck systematisch implementiert. Die Fragestellungen, mit denen die beratenden Dienstleistungseinrichtungen sich konfrontiert sehen, lassen sich in die drei Kategorien Urheberrecht/Lizenzierung, Medienproduktion und Mediendidaktik gruppieren. An der Universität Wien wird das zentrale Unterstützungsprogramm für OER durch das Team „Digitale Lehre“ am Center for Teaching and Learning (CTL) angeboten. An der Universität Innsbruck werden finanzielle Zuschüsse LehrveranstaltungsleiterInnen für die Anstellung von MitarbeiterInnen für die Materialproduktion zur Verfügung gestellt. Das Team „Digitale Medien und Lerntechnologien“ (DMLT) coacht die Beteiligten.

    Urheberrechtliche und lizenztechnische Fragen stellen ein zentrales Anliegen vieler Lehrender dar, die sich zwar mit dem klassischen Zitatrecht auskennen, Lizenzmodelle wie Creative Commons aber dazu nur schwer ins Verhältnis setzen können. Maßnahmen sind hier neben Weiterbildungsangeboten eine Online-Liste mit häufig gestellten Fragen (FAQ) und Einzelfallberatungen, wobei auch auf juristische Expertise zurückgegriffen werden kann.

    Mediendidaktische Beratung findet vorwiegend fallbasiert statt, wenn Lehrende digitale Medien gezielt einsetzen möchten, um beispielsweise Studierende besser auf Studieninhalte und –abläufe vorzubereiten.

    Der handwerkliche Aspekt der Produktion unterschiedlichster Medienformate (Videos, Grafiken, Audio) bildet mit Abstand das am häufigsten nachgefragte Unterstützungsangebot. Es bindet die meisten Ressourcen, und häufig werden im Vor- und Nachgang auch urheberrechtliche und mediendidaktische Beratung nachgefragt. Es zeigte sich, dass die Vermittlung von „Hilfe zur Selbsthilfe“, die Qualifizierung und Motivation Lehrender zur selbstständigen Medienproduktion, sich schwierig gestaltet, was im Umkehrschluss ein qualitativ hochwertiges und effizienzoptimiertes Dienstleistungsangebot dauerhaft rechtfertigen kann.

    10.5281/zenodo.1440976
  • Referent/in Ortrun Gröblinger (Universität Innsbruck, AT) Sylvia Lingo (Universität Wien, AT) Daniel Handle-Pfeiffer (Universität Wien, AT) Felix Schmitt (Universität Wien, AT) Christoph Winter (Universität Wien, AT)
  • Workshop 1 Open Access und Studierende
  • Raum Inffeldgasse 25/D 1.OG HS i5
  • Abstract

    Anders als Promovierende stehen Studierende im Bachelor- und Masterstudium selten im Fokus, wenn es um die Informationsvermittlung zu Open Access geht. Dabei sind diese nicht nur die publizierenden Wissenschaftler/innen von morgen, sie profitieren auch im Studium ganz unmittelbar von Open Access: Sei es bei der Recherche, die nicht an den Lizenzgrenzen des Uni-Campus endet; sei es beim Thema Open Educational Ressources, die gleichermaßen zur Informationsvermittlung wie auch als Best-Practice-Basis zur Verfügung stehen; sei es bei der Veröffentlichung von Studienarbeiten oder ersten Qualifikationsschriften über universitätseigene Plattformen und Repositorien. Obwohl mit dem freien Online-Zugriff auf Informationen, beispielsweise über Wikipedia, oder der Nutzung von offener Software vertraut, scheint das Thema Open Access bei vielen Studierenden noch wenig verankert zu sein und gelegentlich sogar auf Vorbehalte zu treffen.

    In diesem Workshop sollen unter anderen folgende Fragen aufgegriffen und ergebnisorientiert diskutiert werden:

    • Wie erreicht man die heterogene Zielgruppe?
    • Welche Formate eignen sich (Teilnahme an Lehrveranstaltungen, Verankerung in allgemeine Recherche-Schulungen, Coffee Lectures, Webinare...)?
    • Welche Tools sind besonders interessant (z.B. Unpaywall)?
    • Welche Themen sind für die Zielgruppe wichtig – und welche für die OA-Vermittlung?
    • Wie können studentische Arbeiten für institutionelle Repositorien gewonnen werden?
    • Welche Vorbehalte und Hemmschwellen müssen überwunden werden?

    Der Workshop verfolgt zwei Ziele: Er ist erstens als Austauschforum für Kolleginnen und Kollegen gedacht, die im Bereich Vermittlung mit dem Thema beschäftigt sind. Zweitens soll als konkretes Ergebnis eine Handreichung mit Empfehlungen und Praxis-Beispielen entstehen, die im Anschluss an die Open-Access-Tage redigiert zur Verfügung gestellt wird (Zenodo, CC BY 4.0).

    Alle Interessent/innen werden dazu ermuntert, ihre Fragen, Anregungen, Ideen und Best-Practice-Beispiele vorab an die Moderator/innen zu schicken, um eine ausgewogene und zielorientierte Diskussion zu unterstützen.

    10.5281/zenodo.1443194
  • Referent/in Stefan Schmeja (Technische Informationsbibliothek (TIB), DE) Ulrike Kändler (Technische Informationsbibliothek (TIB), DE)
15:00 - 15:30
  • Pause (Netzwerk-Kaffee)
  • Raum Inffeldgasse 25/D Foyer EG/1.OG
15:30 - 17:00
  • Session 3 Open Science - Initiativen und Projekte
  • Raum Inffeldgasse 25/D 1.OG HS i7
  • Vortrag 1 Offene Wissenschaft – wo stehen wir tatsächlich? Abstract

    „Open Science“ bedeutet zuende gedacht die komplette Öffnung des wissenschaftlichen Arbeitsprozesses von der Antragsstellung bis hin zu Kommunikation und Nachnutzung der Ergebnisse. Während bei der Zugänglichmachung von Publikationen im Open Access sowie von Forschungsdaten nach dem FAIR-Data-Prinzip schon viel erreicht wurde (wenngleich auch längst noch nicht alle Probleme gelöst sind) und beides von unterschiedlichen Stakeholdern im Wissenschaftsbetrieb (z.B. Wissenschaftler*innen, Forschungsförderer, Bibliotheken) vorangetrieben wird, steht man bei der Öffnung der übrigen Stadien des wissenschaftlichen Arbeitsprozesses teilweise noch am Anfang, was eine Diskussion und Konsensbildung im Hinblick auf die Notwendigkeit, die Bereitstellung von verlässlicher Infrastruktur, Setzung von Standards und Vereinheitlichung von Workflows sowie die Schaffung von Anreizen angeht. Der Vortrag gibt einen schlaglichtartigen Überblick, wie sich hier der aktuelle Stand bei Öffnung der Antragsstellung, offene Methoden, offene Protokolle, offene Laborbücher, Open Peer Review, offene Metriken, Open Educational Resources, Open Innovation und Citizen Science darstellt. Anschließend soll mit den Teilnehmenden diskutiert werden, ob und wie die Öffnung auch hier gelingen kann.

    10.5281/zenodo.1440982
  • Referent/in Jasmin Schmitz (ZB MED - Informationszentrum Lebenswissenschaften, DE)
  • Vortrag 2 Opening up the research lifecycle Abstract

    The currently transforming science landscape of scholarly publication has highlighted the need for interaction between all key stakeholders engaged in the research lifecycle and unveiled new tools that support the Open Science paradigm.

    This new environment requires also new collaboration and sharing tools. OpenUP, an EU funded project, is set out to contribute to the discourse of Open Science by (1) identifying ground-breaking mechanisms, processes and tools for peer-review for all types of research results, (2) exploring innovative dissemination mechanisms with an outreach aim towards businesses, education, and society as a whole, and (3) analyzing a set of novel indicators that assess the impact of research results and correlate them to channels of dissemination. OpenUP engages with all stakeholders via a series of outreach events, and the creation of an OpenUP Hub, a collaborative web based Knowledge Base that hosts a catalogue of open tools/services, methodologies, best practices from various disciplines, success stories, reports.

    OpenUP Hub (openuphub.eu) is an open, dynamic and collaborative knowledge environment that systematically captures, organizes and categorizes research outcomes, best practices, tools, and guidelines relevant to review-dissemination-assessment phases of the research lifecycle through the prism of Open Science. It is an integrated solution that puts the scientific community in the center to support to its needs. It primarily addresses all key stakeholders engaged in the research lifecycle?: researchers, young scholars, educators, librarians, publishers and Research & Innovation (R&I) project members. It also actively engages the rest of its important stakeholders that have a “stake” in the research lifecycle: Open Science advocators, policy makers, funders, general public and representatives from the industry.

    The presentation plans to introduce the OpenUP Hub as an interactive tool which can be incorporated into a variety of curriculum, directly or indirectly dealing with Open Science activities, as an open educational resource.

    10.5281/zenodo.1440988
  • Referent/in Edit Görögh (University of Göttingen, DE) Eleni Toli (University of Athens, GR) Electra Sifacaki (University of Athens, GR) Tony Ross-Hellauer (Know Center, AT)
  • Vortrag 3 GO FAIR: Eine länder- und disziplinübergreifende Initiative zur Verbesserung der Auffindbarkeit, Zugänglichkeit, Interoperabilität und Wiederverwendbarkeit von Forschungsdaten Abstract

    2016 veröffentlichte die Europäische Kommission das Konzept einer European Open Science Cloud (EOSC). Ein Vorschlag für die praktische Umsetzung der EOSC stellt die GO FAIR Initiative dar. Ihr offener und bottom-up-orientierter Ansatz ermöglicht die Einbindung aller Forschungsbereiche und Mitgliedsstaaten und strebt an, Forschungsdaten zukünftig gemeinsam nutzbar und wiederverwendbar zu machen.

    Um das Wissenschaftssystem auf allen Ebenen zu durchdringen, sind Anstrengungen in verschiedenen Handlungsfeldern notwendig. Innerhalb der GO FAIR Initiative werden diese als GO CHANGE, GO TRAIN und GO BUILD bezeichnet. GO CHANGE zielt auf den kulturellen Wandel ab, der die FAIR-Prinzipien zu einem funktionierenden Standard in der Wissenschaft macht. Hierdurch sollen Belohnungssysteme reformiert werden, so dass offene wissenschaftliche Aktivitäten einbezogen und Forschungsdaten zukünftig als ein wichtiges Ergebnis des Forschungsprozesses anerkannt werden. GO TRAIN beschäftigt sich mit der Aus- und Weiterbildung erforderlicher Datenexpertinnen und Datenexperten. Für einen verantwortungsvollen Umgang mit Forschungsdaten ist die Vermittlung von Kernkompetenzen im Bereich Datenadministration (Data Stewardship und Data Science) elementar. GO BUILD befasst sich mit dem Bedarf an interoperablen und föderierten Dateninfrastrukturen. Hierdurch wird eine Harmonisierung von Standards, Protokollen und Diensten angestrebt, die es allen Forschenden ermöglicht, wissenschaftliche Daten fachübergreifend zu hinterlegen, abzurufen und zu analysieren.

    Zur Umsetzung der FAIR-Prinzipien wird zurzeit ein Netzwerk aus länder- und disziplinübergreifenden Implementierungsprojekten aufgebaut, so dass Synergien geschaffen und folglich redundante Arbeiten innerhalb der drei Handlungsfelder vermieden werden. Sämtliche Aktivitäten der GO FAIR Initiative unterstützen die Philosophie von Open Access, Forschungsdaten – wann immer möglich – offen zugänglich zu machen und zur Nachnutzung zur Verfügung zu stellen. Forschungsergebnisse werden hierdurch transparent, weitere Forschung wird kostengünstig ermöglicht, Qualitätssicherung kann betrieben und Vertrauen in die Wissenschaft hergestellt bzw. aufrechterhalten werden. Somit ebnet die GO FAIR Initiative den Weg zur EOSC, welche zukünftig Forschende in ganz Europa verbindet.

    10.5281/zenodo.1441000
  • Referent/in Monika Linne (ZBW Leibniz-Informationszentrum Wirtschaft, DE)
  • Session 4 Appel de Jussieu für offene Wissenschaft und Bibliodiversität
  • Raum Inffeldgasse 25/D EG HS i3
  • Vortrag 1 Jussieu Call : Building Bibliodiversity Abstract

    A reminder of the main recommendations of the Jussieu Call is made. Those for the short and medium term: invest the savings made on journal subscriptions in the development and support of Open Science. Those for the longer term: reform the system for evaluating the researchers which is the main source of all the current abuses. The possible convergence of the many initiatives underway in these two perspectives and the need for their coordination are highlighted.

    10.5281/zenodo.1441008
  • Referent/in Jacques Lafait (Paris Institute of Nanosciences, FR)
  • Vortrag 2 Transition to open access and the Jussieu Call Abstract

    A critical discussion of the Jussieu Call is given, including its possible role in the transition to open science.

    10.5281/zenodo.1441019
  • Referent/in Daniel Wyler (University of Zurich, CH)
  • Vortrag 3 „Pluralism of publishing“ / „Pluralismus des Publizierens“ Abstract

    Aktuell werden unterschiedliche Wege der Transformation in den Open Access diskutiert. Ausgehend von einer kurzen Übersicht wird der Beitrag eine Bewertung der Situation unter Berücksichtigung möglicher Konsequenzen versuchen.

    10.5281/zenodo.1441021
  • Referent/in Angela Holzer (German Research Foundation / Deutsche Forschungsgemeinschaft, DE)
  • Vortrag 4 Towards a shared vision for open scholarly communication: the Vienna Principles and the Jussieu Call Abstract

    There are considerable deficits in how scholarly knowledge is produced and disseminated. Open Science has the potential to change the workings of the scholarly communication system for the better. Openness, however, is a means to an end and within the scientific community, there is no commonly agreed set of principles that describe the system of scholarly communication that we want to create. Open Science is still a fuzzy concept for many; grounding it in a set of widely shared principles would make it much more understandable. The Vienna Principles and the Jussieu Call are two efforts into this direction. In my talk, I will point out commonalities and differences between the two charta and sketch how they can further a shared vision for open scholarly communication in collaboration with other initiatives.

    10.5281/zenodo.1441028
  • Referent/in Peter Kraker (Open Knowledge Maps, AT)
  • Session 5 OA in den Geisteswissenschaften
  • Raum Inffeldgasse 18 EG HS i1
  • Vortrag 1 Der Weg zu Open Access in den Geistes- und Sozialwissenschaften: Publikationspraktiken, Hindernisse und Potentiale Abstract

    Die Umsetzung von Open Access scheint im Sinne eines 'inescapable imperative' unabdingbar geworden zu sein. In diesem Zusammenhang galt lange Zeit die Annahme, dass es lediglich eine Frage der Zeit sei, bis alle wissenschaftlichen Disziplinen mit den Vorreitern der Open-Access-Bewegung gleichziehen und in ihren Publikationspraktiken konvergieren. Kürzlich durchgeführte Untersuchungen haben jedoch gezeigt, dass sich einzelne Disziplinen hinsichtlich ihrer Open Access Publikationspraktiken stark unterscheiden - sowohl im Hinblick auf den Anteil öffentlich zugänglicher Publikationen als auch bezüglich der gewählten Publikationswege.

    In einer Übersichtsstudie wurden die Open-Access-Publikationspraktiken wissenschaftlicher Disziplinen verglichen und disziplin-spezifische Hindernisse und Potentiale zur Umsetzung von Open Access identifiziert. In dem vorliegenden Beitrag werden die Ergebnisse dieser Studie für die Geistes- und Sozialwissenschaften präsentiert. Zunächst werden die Open-Access-Publikationspraktiken der Geistes- und Sozialwissenschaften dargestellt, um in einem zweiten Schritt die zentralen Hindernisse und Potentiale zur Umsetzung von Open Access in den Geistes- und Sozialwissenschaften zu erläutern.

    10.5281/zenodo.1441034
  • Referent/in Anna Severin, (Swiss National Science Foundation & University of Bern, CH)
  • Vortrag 2 Sind konsortiale Modelle der Weg zu mehr Open Access in den Geisteswissenschaften? – erste Ergebnisse des Projekts OLH-DE Abstract

    Das BMBF-geförderte Projekt OLH-DE hat zum Ziel, konsortiale Modelle für die Förderung von Open Access insbesondere in den Geisteswissenschaften im deutschsprachigen Raum bekannter zu machen und die Anzahl der Unterstützer/innen solcher Modelle deutlich zu erhöhen. Darüber hinaus beinhaltet die Projektförderung finanzielle Mittel zur Transformation (deutschsprachiger) geisteswissenschaftlicher Zeitschriften auf das Open Library of Humanities Modell.

    Um Einsichten in die Situation, Organisation und Finanzierung von geisteswissenschaftlichen Zeitschriften, die Rolle der Herausgeber/innen, ihre Beziehungen zu den Verlagen und ihre Einstellung zu Open Access zu erlangen, wurden im Rahmen des Projekts Interviews und Befragungen durchgeführt. Dies umfasst zum einen intensive Interviews und eine elektronische Befragung von Herausgeber/innen geisteswissenschaftlicher Zeitschriften sowie Gespräche mit Entscheidungsträger/innen in Bibliotheken zur Bereitschaft der Förderung alternativer Open-Access-Modelle, insbesondere in den Geisteswissenschaften. Im Rahmen des Vortrags werden erste Ergebnisse dieser Interviews und Befragungen vorgestellt und diskutiert, inwieweit und unter welchen Voraussetzungen Modelle wie die Open Library of Humanities signifikant und nachhaltig zu mehr Open Access in den Geisteswissenschaften beitragen können.

    10.5281/zenodo.1441040
  • Referent/in Lena Dreher (Univerversität Konstanz, DE) Anja Oberländer (Univerversität Konstanz, DE)
  • Vortrag 3 Archivum Medii Aevi Digitale (AMAD): Wenn die Mediävistik auf Open Access trifft Abstract

    Der Vortrag präsentiert das neue DFG-Projekt AMAD und das neuartige Potential für die wissenschaftliche Community, das die Zusammenwirkung eines Fachrepositoriums als interdisziplinäre Open Access-Publikationsplattform mit einem Wissenschaftsblog als Qualitätssicherungs- und Impact-Instrument bietet.

    In den Naturwissenschaften sind Fachrepositorien und Plattformen wie ArXiv für die Veröffentlichung im Open Access fest etabliert und hoch angesehen, unter anderem weil sie die für die Naturwissenschaften entscheidende schnelle Verfügbarkeit der Ergebnisse für den Forschungsdiskurs ermöglichen.

    In den Geisteswissenschaften, deren Publikationskultur stark am gedruckten Buch orientiert ist, sind Fachrepositorien und Open Access-Publikationsplattformen trotz zunehmender Förderungen noch nicht etabliert. Die kostenpflichtigen Angebote der Verlage stellen auch bei elektronischen Veröffentlichungen noch oft die bevorzugte Alternative dar. Dabei können Fachrepositorien auch für die Geisteswissenschaften unter Berücksichtigung ihrer spezifischen disziplinären Anforderungen eine valide und zeitgemäße Alternative zum Verlag bieten. Zentrale Bedürfnisse der Fachcommunities sind dabei neben einer dauerhaften, zuverlässigen Publikationsform die freie Zugänglichkeit, ein gezieltes Content-Marketing und die Vernetzung mit wichtigen Schnittstellen wie Bibliothekskatalogen, Fachbibliographien und Suchmaschinen, um die Auffindbarkeit und Sichtbarkeit der Veröffentlichungen zu garantieren.

    Das zum 1. Oktober 2018 startende Projekt „Archivum Medii Aevi Digitale – Mediävistisches Fachrepositorium und Wissenschaftsblog für die Mittelalterforschung (AMAD)“ greift diese Bedürfnisse auf und entwickelt mit der Kopplung eines Fachrepositoriums und eines Wissenschaftsblogs eine innovative Lösung für das geisteswissenschaftliche Publizieren. Das DFG-finanzierte Projekt, das aus einer Kooperation zwischen dem Lehrstuhl für Mittelalterliche Geschichte mit dem Schwerpunkt Spätmittelalter an der Ludwig-Maximilians-Universität München, dem Hessischen BibliotheksInformationsSystem (HeBIS) und dem Akademievorhaben Regesta Imperii hervorgeht, stellt sich durch die neuartige Kombination aus mediävistischem Repositorium und Wissenschaftsblog den Herausforderungen des Open Access in der Mediävistik und eröffnet vor allem dem wissenschaftlichen Nachwuchs mit einer innovativen und zuverlässigen Publikationsinfrastruktur eine Alternative zur kostenintensiven Verlagspublikation. Durch gezielte Maßnahmen, die im Vortrag dargestellt werden, will das Projekt eine unkomplizierte, qualitätskontrollierte, frei zugängliche und schnelle Verfügbarkeit von Forschungsergebnissen erreichen und den fachlichen Austausch fördern.

    10.5281/zenodo.1443136
  • Referent/in Maria Aglaia Bianchi (Akademie der Wissenschaften und der Literatur, DE)
  • Tool Marktplatz
  • Raum Inffeldgasse 10 / Bibliothek
  • iMooX – Es ist Zeit, etwas Neues zu lernen Ebner, Markus (Technische Universität Graz, AT) Grandl, Maria (Technische Universität Graz, AT) Ebner, Martin (Technische Universität Graz, AT) Abstract

    iMooX wurde im Dezember 2013 von der Karl-Franzens-Universität Graz und der Technischen Universität Graz gegründet und ist Österreichs erste und bisher einzige MOOC-Plattform auf der freie und offen lizenzierte Online-Kurse als OER zu unterschiedlichen Themen angeboten werden, die allen Interessentinnen und Interessenten kostenlos, zeit- und ortsunabhängig zur Verfügung stehen. Einzig eine stabile Internetverbindung ist Voraussetzung für die Nutzung der Plattform.

    Ein MOOC (Massive Open Online Course) ist eine spezielle Form an Online-Kursen, bei der traditionelle Formen der Wissensvermittlung wie Videos, Lesematerial und Problemstellungen mit Diskussionsforen, in denen Lehrende und Lernende miteinander kommunizieren können, und Quizzes, anhand derer die Lernenden ihren Wissenserwerb überprüfen können, kombiniert werden. MOOCs eignen sich optimal, um Lerninhalte einer großen Zahl von Interessierten zeit- und ortsunabhängig näher zu bringen.

    Unser Ziel ist, universitäre und allgemeine Inhalte einer breiten Bevölkerungsschicht zugänglich zu machen und möglichst vielen die Möglichkeit zu geben, sich weiterzubilden. Dabei setzten wir ausschließlich auf offene Bildungsressourcen mit expliziter Creative-Commons-Lizenzierung. Somit sind alle Lernangebote von iMooX nicht nur kostenlos zugänglich, sondern auch frei weiter- und wiederverwendbar. Grundsätzlich kommen dabei die sogenannten Creative-Commons-Lizenzen zum Einsatz, was bedeutet, dass alle auf iMooX angebotenen Inhalte zu eigenen (Lehr-) Zwecken verwendet werden können und auch (entgeltfrei) wiederverwendet werden dürfen. Diese führte auch dazu, dass die österreichische UNESCO die Schirmherrschaft über das Projekt übernahm, da es mit deren Bildungszielen, der gezielten Verbreitung von Bildungsinhalten), übereinstimmt.

    Jedes Semester wird das Angebot der Plattform um weitere spannende Kurse ergänzt. Derzeit offerieren wir über 35 Kurse auf universitärem Niveau mit unseren 30+ Partnern (darunter 13 Hochschulen und 3 Ministerien) und zählen über 20000 Lernende auf unserer Plattform.

    Beim Markstand können Sie sich selbst von https://imoox.at/ überzeugen und in unserem kostenlosen Kursangebot stöben, sowie über die Ziele, Strategien und Erfahrungen mit MOOCs mit uns diskutieren.

    URL
  • VIPER: A visual interface to research projects for the European Open Science Cloud Kraker, Peter (Open Knowledge Maps, AT) Schramm, Maxi (Open Knowledge Maps, AT) Kittel, Christopher (Open Knowledge Maps, AT) Chamberlain, Scott (Open Knowledge Maps, AT) Arrow, Thomas (Open Knowledge Maps, AT) Abstract

    To maximise the impact of research projects, discoverability of their results is key. But with 2.4 million research projects already indexed in the EOSC via OpenAIRE, getting an overview of project outputs is a challenging task. This may lead to a situation, where it becomes almost impossible to get a complete and clear picture of what has been produced in some of the most important projects, even though the majority of their outputs are open access.

    VIPER, the Visual Project Explorer, addresses this problem. It enables funders, institutions, researchers, and other societal stakeholders to systematically explore a project’s output, and to understand its reception in different areas. In VIPER, each project is represented as a knowledge map: a visualization showing a topical clustering of a project’s publications and datasets. Users can interact with the visualization by zooming into a particular cluster and inspect the underlying outputs in detail. If a publication is open access, it can be viewed within the same interface.

    VIPER was developed by Open Knowledge Maps with funding received in the OpenAIRE Tender Calls. It is built on top of OpenAIRE’s massive open access database of research projects, publications, and datasets. We exploit a unique property of OpenAIRE data: the link between projects, publications and datasets. This enables us to realize an innovative open science application.

    While VIPER can be used on its own, project representations can also be embedded on other websites using a simple JavaScript snippet. On a project website, the visual representation can be used as an automatically updated dissemination page.

    To try out VIPER, please visit https://openknowledgemaps.org/viper

    Software license: MIT

    The sumission was created by the VIPER project team. Peter Kraker is the project lead and will be presenting the tool.

    URL
  • Publizieren mit dem Content-Management-System Drupal Arning, Ursula (ZB MED - Information Centre for Life Sciences, DE) Abstract

    Das Content-Management-System Drupal bringt die technischen Bausteine mit, die für eine wissenschaftliche Publikation unumgänglich sind: Über das Rechtesystem kann der Review-Prozess im System gesteuert und dokumentiert werden. Automatische Erinnerungen erleichtern die Kommunikation mit den Autorinnen und Autoren sowie mit den Gutachterinnen und Gutachtern. Danach können die Artikel mit einem Klick freigeschaltet werden, sind sofort weltweit sichtbar und stehen der Wissenschaftscommunity zur Verfügung. Durch die inhärente Versionierungsfunktion können einzelne Kapitel eines Buches jederzeit ohne großen Aufwand aktualisiert werden. ZB MED bereitet daher auf dem Content Management System Drupal die Publikationsplattform PUBLISSO (http://books.publisso.de) auf: Für Kongresse, Zeitschriften und Bücher. Dadurch wird eine Vernetzung zwischen den verschiedenen Publikationsarten ermöglicht, die deren Sichtbarkeit zusätzlich verstärkt. Zudem ist auch eine Crossreferenzierung durch embedded Links von der Plattform Gold auf das Fachrepositorium Lebenswissenschaften möglich. Durch die Einbindung von Videos und Audiovisuellen Materialien wird es zu einer echten „enhanced publication“.

    Nach dem erfolgreichen Aufbau wird das Publikationssystem auf einem Git zur Verfügung gestellt, so dass andere Bibliotheken, die selbst entsprechende Publikationsangebote aufbauen möchten, dies nachnutzen können.

    URL
  • DeepGreen auf dem "Tool-Marktplatz" der OA-Tage 2018, Graz (Österreich) Dierkes, Thomas (Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / Zuse Institut Berlin (ZIB), DE) Abstract

    Das DFG-geförderte Projekt DeepGreen hat das Ziel, wissenschaftliche Veröffentlichungen, die lizenzrechtlich nach Embargofristen frei zugänglich gemacht werden dürfen, rechtssicher und automatisiert in den Open Access zu überführen. Der Fokus des Projektes lag in der ersten Projektphase zunächst auf den sogenannten Allianz-Lizenzen mit umfassenden Open-Access- Komponenten, welche durch die DFG gefördert und überregional verhandelt wurden.

    Im Rahmen der zweiten Förderphase von 2018-2020 strebt das Projekt DeepGreen an, einen bundesweiten, automatisierten und rechtssicheren Artikellieferdienst für wissenschaftliche Publikationen, die Open Access gestellt werden können, zu etablieren.

  • OA-EZB, ein EPrints-Plug-in zur Einbindung von OA-Rechten aus Allianz- und Nationallizenzen in institutionelle Repositorien Colin Sippl (Universität Regensburg, DE) Silke Weisheit (Universität Regensburg, DE) Gernot Deinzer (Universität Regensburg, DE) Abstract

    Open-Access-Rechte (OA-Rechte) aus Allianz-und Nationallizenzen, die in der Elektronischen Zeitschriftenbibliothek (EZB) erfasst sind, lassen sich nun in institutionelle Repositorien einbinden. Dies gelingt nun mit OA-EZB, einem eigens für die Repositoriensoftware EPrints entwickelten Plug-in, das auf die neuen OA-Schnittstellendienste der EZB zugreift.

    Dieses Plugin wurde im Rahmen des DFG-Projektes „OA-EZB: Open-Access-Services der Elektronischen Zeitschriftenbibliothek (EZB)“ an der Universitätsbibliothek Regensburg entwickelt. Es besteht aus drei Modulen, die sich getrennt voneinander konfigurieren lassen. Das erste Modul greift auf die OA-Schnittstellen der EZB zu und gibt die Informationen über hinterlegte Zweitveröffentlichungsrechte, z. B. für Allianz-Lizenzen, in einer Übersicht aus. Das zweite Modul ruft verlagsseitige OA-Policies in SHERPA/RoMEO ab. Im dritten Modul wird ein Hinweis auf das deutsche Zweitveröffentlichungsrecht gemäß Urheberrechtsgesetz ausgegeben. Im Frontend des EPrints-Repositoriums erscheinen die abgerufenen Daten aller Module an einer zuvor definierten Stelle, beispielsweise vor dem Hochladen eines Artikels.

    Somit erhalten Autoren bereits vor dem Hochladen ihrer Forschungsergebnisse alle erforderlichen Informationen in einer Übersicht, die unkompliziert über die Möglichkeiten zur Veröffentlichung in Open Access aufklärt. Damit soll die Nutzung des grünen Weges gefördert werden.

    Auf technischer Seite wurde das existierende EPrints-Plug-in für SHERPA/RoMEO (http://files.eprints.org/799/) aktualisiert und der Zugriff auf die neuen EZB-Schnittstellendienste implementiert. Die Entwicklung von OA-EZB erfolgt für EPrints der Version 3.3.16 und wird bei Abschluss unter der GPL-Lizenz auf GitHub zur freien Nutzung bereitgestellt. Für seinen Betrieb ist eine Registrierung für die API-Zugänge bei SHERPA/RoMEO und bei der EZB notwendig.

    Zur Veranschaulichung wurde eine öffentlich zugängliche Testumgebung eingerichtet, die unter https://oa-ezb.uni-regensburg.de abgerufen werden kann. Eine Anleitung befindet sich auf der Startseite. Durch den in der Testumgebung möglichen Wechsel der EZB- Institutions-ID (EZB-BIBID), zeigt sich der große Vorteil, den der Zugriff auf die in der EZB hinterlegten OA-Rechte bietet, da die Informationen sofort institutionsspezifisch für die Nutzer ausgegeben werden. Nach seiner Fertigstellung wird OA-EZB ein fester Bestandteil des Publikationsservers der Universität Regensburg.

    Link: https://oa-ezb.uni-regensburg.de
    Lizenz: GNU General Public License 3.0
    Verhältnis zur vorgestellten Software:
    Die EZB sowie die Erweiterung zur Verwaltung von National- und Allianzlizenzen wurden an der Universitätsbibliothek Regensburg entwickelt. Die Software EPrints 3.3.16, entwickelt an der University of Southampton, ist unter der GPL 3.0 frei verfügbar. Das Plug-in OA-EZB wurde an der Universitätsbibliothek Regensburg programmiert.

    URL
  • Der Altmetrics Generator “Metrician” Julius Stropel (VZG, DE) Daniel Beucke (SUB Göttingen, DE) Abstract

    Soziale Medien werden von Forschenden für Zusammenarbeit und Austausch mit Kolleginnen und Kollegen verwendet, aber auch um die breite Öffentlichkeit und Förderorganisationen auf ihre Ergebnisse aufmerksam zu machen. Darüber hinaus erhalten Forschende und Institutionen schnelles und direktes Feedback auf ihren Forschungsoutput. Für die Messung des Einflusses von wissenschaftlichen Erkenntnissen auf die Gesellschaft einerseits und die zukünftige Forschung andererseits stehen damit neben zitationsbasierten Methoden zusätzliche Wege offen. Diese alternativen Metriken - oder auch Altmetrics - werden im Rahmen des DFG-geförderten Projekt *metrics untersucht und es wird zudem exemplarisch ein Tool konzipiert und entwickelt, das Metriken für digitale Objekte (z.B. Dokumente) sammelt und aggregiert. Dabei liegt der Schwerpunkt auf alternativen Metriken aus Social-Media-Anwendungen wie Twitter, YouTube und Facebook.

    Anhand einer DOI kann “Metrician” Altmetrics anzeigen und so einen Eindruck von der Nutzung der Ressource geben. Der Vorteil von dem Tool ist die Offenheit und Transparenz im Vergleich zu ähnlichen kommerziellen Tools, bei denen nicht ersichtlich ist, was sie wie zählen. Bestehende kommerzielle Anbieter alternativer Metriken sind (teilweise) inkonsistent bzgl. der Offenheit über die Algorithmen, die sie bei der Erfassung und Verrechnung der Metriken verwenden. Oft ist nicht klar, welche konkreten Informationen aus den Abfragen bei den Anbietern verwendet und wie diese gewichtet wurden. Ein Indiz für unterschiedliche Verrechnungs-Algorithmen bzw. Abfragemethoden stellen die sich zum Teil gravierend divergierenden Metriken verschiedener Anbieter alternativen Metriken dar. Da ein Wissen über die verwendeten Algorithmen jedoch notwendig für eine sinnvolle Interpretation der Metriken ist, strahlt das Problem auch auf diese Ebene aus.

    Das Tool verwendet eine MySQL-Datenbank, in der die von den APIs der Social-Media-Anbietern erhaltenen Daten zum Teil roh und zum Teil prozessiert gespeichert werden. Jedes erfasste wissenschaftliche Werk stellt einen eindeutigen Datenbankeintrag dar, dem Informationen wie DOI, Landingpage-URL und konkrete Metriken wie z.B. die Anzahl der referierenden Tweets seit einem bestimmten Zeitpunkt zugeordnet werden.

    Beim Toolmarktplatz möchten wir unser Tool dem interessierten Publikum vorstellen und im Gespräch Verbesserungs- und Erweiterungsmöglichkeiten besprechen. Zudem wollen wir der interessierten OA-Community die Nutzung von alternativen Metriken in ihren eigenen Systemen - wie beispielsweise dem institutionellen Repositorium - nahelegen und über Vor- und auch die Nachteile sprechen.

    Link: explore.metrics.gbv.de
    Softwarelizenz: Licensed under GNU Affero General Public License (AGPL v3.0) (https://www.gnu.org/licenses/agpl-3.0.de.html)

    URL
  • Open Access Monitor Deutschland Ecker, Dirk (Forschungszentrum Jülich GmbH, DE) Abstract

    Das Projekt zu Einrichtung und Betrieb des Open Access Monitor Deutschland, gefördert durch die Allianz der Wissenschaftsorganisationen (OA2020-DE) und das BMBF (SynOA), wird zur Verbesserung der Datenlage zu Open Access in Deutschland beitragen.

    Mit dem Aufbau eines Monitorings für den Transformationsprozess von Closed Access (meist Subskriptionsausgaben) hin zu Open Access (meist Publikationsausgaben) sollen die Daten bestehender Projekte zusammengefasst, deren Datenbasis ausgeweitet und in einer abgestuften Anwenderoberfläche nutzbar gemacht werden.

    Der Monitor dient als Informationsquelle für Forschungsförderer und Bibliotheken und wird Autoren eine Grundlage für ihre Publikationsstrategie liefern. Das Tool soll Verhandlungsführer, Bibliothekare und Wissenschaftler bei der Analyse der Lizenzierungs- und Publikationssituation einzelner Einrichtungen, Konsortien oder auch auf nationaler Ebene, unterstützen. Informationswissenschaftlern werden Forschungsdaten für Studien zum wissenschaftlichen Publikationswesen verfügbar gemacht.

    Er integriert verschiedene Systeme und Datenquellen, die sich teilweise selbst noch im Aufbau befinden. Datenquellen wie Web of Science, Unpaywall, OpenCitations, Dimensions, OpenAPC, Crossref, LAS:eR, Nationaler Statistikserver und GOKb werden mittels deren API abgefragt und die Daten regelmäßig aktualisiert.

    Das Backend der Anwendung ist in C# geschrieben, ebenso der Importer, der die Quellen verarbeitet. Das Frontend ist eine Single-Page-Application (SPA) geschrieben in JavaScript, HTML und CSS unter Verwendung des SPA-Frameworks VueJS und Vuetify (Material Design Component Framework). Die Kommunikation zum Backend erfolgt via REST-Schnittstelle OData.

    In Abhängigkeit eines abgestuften Rechtemanagements, welches die Sicht auf die Datenbasis festlegt, werden zur Nutzung des Tools unterschiedliche Zugriffsschichten realisiert. D.h. nicht jeder Nutzer kann alle Daten des Open Access Monitors sehen und auswerten ? das hat inhaltliche wie auch lizenzrechtliche Gründe. Beispielsweise unterliegen Daten zu Subskriptionszahlungen oft einer vertraglichen Geheimhaltungspflicht, daher werden diese nur für die jeweilige Einrichtung sichtbar gemacht. Daten, bei denen solche Beschränkungen nicht vorliegen, werden für alle Nutzer sichtbar gemacht.

    Darüber hinaus werden Filtermöglichkeiten und Exportfunktionen bereitgestellt. Der Zugriff kann sowohl über die Webseite als auch über die zur Verfügung gestellte REST-Schnittstelle erfolgen.

    Der Open Access Monitor ist frei zugänglich und verfügbar, schränkt die Sicht auf die Daten und die REST-Schnittstelle aber anhand der Authentifizierung ein.

    Für die OA-Tage ist im Rahmen des Tool-Marktplatzes die erste öffentliche Präsentation des bis dahin entwickelten Stands der Anwendung geplant.

    Ein Link zur lauffähigen Version kann zum jetzigen Zeitpunkt aus technischen Gründen noch nicht freigegeben werden.

    Projekt-Link: http://www.fz-juelich.de/zb/DE/Leistungen/Open_Access/syn_oa_monitoring/syn_oa_monitoring_node.htm
    Zukünftiger Tool-Link: https://open-access-monitor.de

    Der OA-Monitor wird vorgestellt von Dirk Ecker, Projektmitarbeiter und Entwickler des Frontends.

    URL
  • Das Giles Ecosystem Damerow, Julia (Arizona State University, USA) Abstract

    In den Digital Humanities werden zunehmend computergestützte Methoden, wie zum Beispiel Topic Modeling oder Named Entity Recognition, auf Textkorpora angewendet, um neue Wege zur Sammlung und Analyse von Dokumenten anzubieten. Die Wissenschaftler stehen dabei häufig vor dem Problem, dass sie PDF Dokumente in reinen Text umwandeln müssen, da auch wenn Dokumente mit einer Open-Access-Lizenz verfügbar sind, meist PDF Dateien, aber keine reinen Textdateien bereitgestellt werden. Die meisten Tools benötigen diesen jedoch als Input. Zwar gibt es Programme, die PDFs in Text umwandeln können (entweder durch Extrahieren von eingebettetem Text oder mittels OCR), allerdings sind diese meist entweder proprietär oder verlangen zumindest minimale Programmier- oder Terminalkenntnisse vom einzelnen Wissenschaftler.

    Um dieses Problem zu lösen, hat die Digital Innovation Group der Arizona State University das Giles Ecosystem (kurz Giles) entwickelt. Das Giles Ecosystem ist ein verteiltes System zur Extraktion von in PDF eingebettetem Text und OCR von PDF-Dokumenten und Bildern. Es wird unter einer Open-Source-Lizenz entwickelt. Auf der einen Seite erlaubt Giles Nutzern, Dateien direkt hochzuladen. Von diesen wird dann Text extrahiert, der heruntergeladen werden kann. Auf der anderen Seite stellt das System eine API zur Verfügung, mit der andere Applikationen Dateien zur Verarbeitung an Giles schicken können. Giles eignet sich damit als Backendsystem von Dokumentenrepositorien und anderen Dateimanagementsysteme.

    Das Giles Ecosystem hat eine modulare und erweiterbare Struktur. Durch den Einsatz von Apache Kafka (einer Plattform zur Verarbeitung von Datenströmen) können zusätzliche Komponenten dem System hinzugefügt werden, ohne dass Änderungen an den Kernkomponenten notwendig sind. So gibt es beispielsweise Komponenten zur Extraktion von biologischen Artennamen aus Textdokumenten und zur Indexierung von Dokumenten in Solr. Solche zusätzlichen Komponenten können dem System optional hinzugefügt werden.

    Projekt Link: https://github.com/diging/giles-eco-giles-web

    Lizenz: MPL 2.0

    Die Einreichende (Julia Damerow) ist die leitende Entwicklerin der Software.

    URL
  • OA-Anteil bestimmen mit Python Eva Bunge (Deutsches Museum, DE) Abstract

    Das Python-Skript analysiert Artikeldaten, die aus verschiedenen Datenbanken gewonnen wurden, und identifiziert den jeweiligen Anteil an goldenem, grünem und hybriden Open Access. In der Session wird das Skript erläutert sowie exemplarisch eine Analyse durchgeführt. Interessierte werden vor Ort beim Ausprobieren unterstützt.

  • MyCoRe-Repositorien Frank Lützenkirchen (Universitätsbibliothek Duisburg-Essen, DE) Kathleen Neumann (Verbundzentrale des GBV (VZG), DE) Wiebke Oeltjen (Universität Hamburg, RRZ, MyCoRe, DE) Abstract

    MyCoRe ist ein Open-Source-Framework für Repositorien. Die Softwarebibliothek stellt ein breites Spektrum an Funktionalität zum Erschließen, Recherchieren, Veröffentlichen und Präsentieren von Metadaten und digitalen Inhalten bereit. Auf Basis des Frameworks können institutionelle oder fachliche Repositorien, Online-Archive, Bibliographien oder andere Anwendungen realisiert werden. MyCoRe-Web-Anwendungen sind individuell anpassbar, vielseitig einsetzbar und nachhaltig nutzbar.

    Im Rahmen des Tool-Marktplatzes werden besondere Funktionalitäten rund um Open-Access-Publikationen vorgestellt:

    RSS-Feeds, Datenbankabfragen nach Affiliation oder Benachrichtigungen aus ORCID können neue Publikationen der eigenen Einrichtung in externen Quellen finden und die Publikationsdaten automatisiert in das eigene Repositorium oder die Online-Bibliographie einspielen. MyCoRe verfügt weiterhin über SWORD- und REST-Schnittstellen, über die Anbieter direkt Publikationen einstellen können.

    Über die Enrichment-Resolver-Komponente werden diese Daten aus externen Quellen weiter angereichert, beispielsweise aus dem DOAJ oder dem OADOI Dienst. Sofern eine freie Lizenz ermittelt wird, kann so auch der Volltext der Publikation in das Repositorium übernommen werden.

    Die ORCID-Integration in MyCoRe ermöglicht es, Publikationsdaten zwischen dem Repositorium und den ORCID-Profilen der Wissenschaftlerinnen und Wissenschaftler zu synchronisieren (ORCID-Claiming).

    Diese Erweiterungen sollen im Rahmen von Plug-Ins für das „MyCoRe MODS Institutional Repository“ (MIR) bereitgestellt werden. MIR basiert auf dem MODS-Datenmodell und stellt alle typischen Funktionen eines institutionellen Repositoriums bereit. Die Standard-Installation eines MIR-Repositoriums ist als Demo-Anwendung unter http://www.mycore.de/mir/ verfügbar.

    Weitere MyCoRe-Anwendungen: http://www.mycore.de/applications/list.html

    MyCoRe ist als Open Source unter der GNU General Public License 3 ("GPL3") verfügbar.

    URL
  • Nachvollziehbarkeit und Reproduzierbarkeit von softwaregestützter und softwarebezogener Forschung Matthias Fratz (Universität Konstanz, DE) Stefan Kombrink (Universität Ulm, DE) Franziska Rapp (Universität Ulm, DE) Volodymyr Kushnarenko (Universität Ulm, DE) Daniel Scharon (Universität Konstanz, DE) Pia Schmücker (Universität Ulm, DE) Marcel Waldvogel (Universität Konstanz, DE) Stefan Wesner (Universität Ulm, DE) Abstract

    Das im Projekt SARA (Software Archiving of Research Artefacts) entwickelte webbasierte Tool ermöglicht eine komfortable Archivierung und Veröffentlichung von Softwareartefakten (Quellcode, Skripte etc.) aus Git Repositories (derzeit GitLab und GitHub) heraus. Forschende können ihre Projekte - ganz oder teilweise – mithilfe einer Instanz des SARA-Services in ein Git-Archiv überführen und über institutionelle Repositorien (IRs) veröffentlichen. Neben der Möglichkeit der geschlossenen Archivierung ist die Option der Veröffentlichung hervorzuheben: Mithilfe des Tools können Wissenschaftler auswählen, welche Branches eines Projekts veröffentlicht werden sollen und den Umfang selbst festlegen: es kann beispielsweise nur eine bestimmte Version eines Softwareartefakts veröffentlicht werden oder aber die gesamte Entwicklungshistorie (einschließlich aller Versionen). Auch eine Kürzung der Entwicklungshistorie auf vom Nutzer als wichtig markierte Punkte ist möglich. Das Tool stellt die Daten entsprechend der Wahl des Nutzers zusammen und archiviert sie.

    Wünscht der Nutzer eine Veröffentlichung, übermittelt das Tool Metadaten an das institutionelle Repositorium, welches der Nutzer ausgewählt hat und wofür er einen Zugang besitzen muss. Derzeit liegt der Fokus auf DSpace-basierten Repositorien, von denen mehrere Instanzen an das Tool angebunden werden können. Über individuelle Mappings können Eingabefelder im IR vorausgefüllt werden, was die weitere Bearbeitung im IR erleichtert. Erfolgreiche Veröffentlichungen sind dann über die bei IR typischen Mechanismen in anderen Nachweissystemen auffindbar, z.B. OpenAIRE, BASE, Data Cite Search, GoogleScholar, um einige Beispiele zu nennen.

    Das webbasierte Tool kann von mehreren Einrichtungen gemeinsam genutzt werden. Es trägt zu Open Science bei, indem es bereits während des Forschungsprozesses eingesetzt werden kann und über die Archivierung und Veröffentlichung von Softwareartefakten die Nachvollziehbarkeit von softwaregestützter oder softwarebezogener Forschung erleichtert.

    Link zum Projekt: https://www.forschungsdaten.info/praxis-kompakt/aktuelle-infrastrukturprojekte/fdm/sara/
    Link zur Demoversion: https://demo.sara-service.org/
    Softwarelizenz: Open Source

    URL
  • OceanTEA: Open Data Publication and Exploration of Ocean Observation Data Wilhelm Hasselbring (Kiel University, DE) Arne Johanson (Xing, Hamburg, DE) Reiner Jung (Kiel University, DE) Ingo Thomsen (Kiel University, DE) Abstract

    Observation-based marine sciences gather large amounts of time series data. For example, autonomous ocean observation systems, such as the Modular Ocean Laboratory (MoLab) [1], collect measurements on temperature, salinity, current and more which can be invaluable for answering ocean related research questions. This kind of data is usually collected and retrieved from observation instruments and subsequently stored and analyzed on local computers, which limits access and reuse of the data. Publications based on these analyses are often static, i.e. provided as PDF, and cannot be checked and repeated.

    OceanTEA addresses these limitations. It allows to curate and interactively explore observations. With this software, a researcher can explore high-dimensional time series datasets. This can be done offsite - on a ship for instance - and collected data can be integrated subsequently though upload and be made available publicly.

    We built OceanTEA using modern web technologies and a microservice architecture to alleviate scientific work and provide an extensible platform for scientists: New services tailored for additional analyses, simulations or access to external data repositories can be integrated in one joint front-end [2]. This architectural approach is not primarily intended for a centralized service but to be set up at different locations integrating different sets of tools. Our current exemplary setup (see link below) provides public access to real ocean observation time series (second tab) and interactive models on cold water corals movement (last tab) [4].

    OceanTEA is actively used at the Helmholtz Centre for Ocean Research Kiel (GEOMAR). Also, the metadata of OceanTEA data is harvested - as part of the Generic Research Data Infrastructure (GeRDI) project [3, 7]1 - to be searchable and accessible. In the future, we will extend OceanTEA in two directions: First, we aim to integrate additional interactive modeling tools and simulations [5, 6] Second, we intend to support interactive publications with an increasing set of supported services, e.g., ocean simulation services.

    Tool Details

    Demo Site: http://oceantea.uni-kiel.de
    License: Apache License 2.0
    Presenter: Support and Future Development

    Code Repositories: The OceanTEA microservices are provided in form of docker2 images, so the source code is available through multiple archives at https://github.com/a-johanson?tab=repositories - which in detail these are:

    References

    1. S. Flögel et al. "A new stand-alone modular ocean laboratory - MoLab: 100 days in an arctic cold-water coral reef". In: EMSO Meeting . 2013.
    2. A. Johanson et al. "OceanTEA: Exploring Ocean-Derived Climate Data Using Microservices". In: Proceedings of the Sixth International Workshop on Climate Informatics (CI 2016) . NCAR Technical Note NCAR/TN. Sept. 2016, pp. 25-28.
    3. R. Grunzke et al. "Challenges in Creating a Sustainable Generic Research Data Infrastructure". In: Software- technik-Trends: Vol. 37, No. 2 . Berlin: Gesellschaft für Informatik e.V., Fachgruppe PARS, 2017, pp. 74-77.
    4. A. Johanson et al. "Modeling Polyp Activity of Paragorgia arborea using Supervised Learning". In: Informatics 39 (Mai 2017). FO Sust. - Digital Ocean, pp. 109-118.
    5. A. Johanson et al. "SPRAT: A spatially-explicit marine ecosystem model based on population balance equations". In: Ecological Modelling 349 (Apr. 2017). FO Sust. - Digital Ocean, pp. 11-25.
    6. A. Johanson and W. Hasselbring. "Software Engineering for Computational Science: Past, Present, Future". In: Ecological Computing in Science & Engineering 20.2 (Mar. 2018). FO Sust. - Digital Ocean, pp. 90-109.
    7. N. T. de Sousa et al. "Designing a Generic Research Data Infrastructure Architecture with Continuous Soft- ware Engineering". In: Software Engineering Workshops 2018 . Vol. Vol-2066. CEUR Workshop Proceedings. CEUR-WS.org, Mar. 2018, pp. 85-88.

    1 Generic Research Data Infrastructure https://www.gerdi-project.eu
    2 Docker Inc. https://www.docker.com

    URL
  • Document Deposit Assistant (DDA) Gerrit Hübbers (GESIS - Leibniz-Institut für Sozialwissenschaften, DE) Abstract

    Der Document Deposit Assistant (DDA) ist eine Web-Applikation, mit der Publikationen aus Content-Provider-Quellen automatisiert geharvestet, transformiert und in ein Ziel-Repositorium eingespielt werden können.

    Der DDA arbeitet als Bindeglied zwischen Datenquellen und Repositorien und gestattet auch die Transformation und Harmonisierung von Metadaten an die individuellen Konventionen und Bedürfnisse des Repository-Betreibers.

    DDAs browser-basierte Benutzerschnittstelle erlaubt die komfortable Einrichtung und Statusüberprüfung von Quellsystemen (OAI-PMH, beliebige XML-Formate, Excel-Tabellen, unAPI), den intelligenten Bezug von PDF-Volltexten und die Einspielung in verschiedene Open-Access-Repositories wie beispielsweise DSpace.

    Durch die modulare Software-Architektur können zusätzliche Adapter programmiert werden, um so den DDA mit beliebigen weiteren Content-Provider-Schnittstellen und Repository-Distributionen kompatibel zu machen.

    Die Quelltexte des DDA ( https://git.gesis.org/dda/dda-wizard ) sind Open Source unter der Affero General Public License veröffentlicht und frei zugänglich.

    Der DDA wurde im Rahmen einer DFG-Förderung bei GESIS durch Gerrit Hübbers entwickelt.

    Unter https://dda.ssoar.info/ läuft eine produktive Instanz für das Open-Access-Repository SSOAR, für das der DDA bereits tausende zusätzliche Publikationen automatisiert eingespielt hat.

    URL
  • Spontan Session
  • Raum Inffeldgasse 25/D EG HS i4
  • Spontan Session Open Access Politik auf EU Ebene: state of play, Herausforderungen, Chancen Abstract

    Daniel Spichtinger, ehemaliger Policy Officer zuständig für Open Access in der Generaldirektion Forschung der europäischen Kommission, wird die Open Access Politik der EU kurz umreißen und lädt zur Diskussion über die zukünftige Ausrichtung ein.

  • Referent/in Daniel Spichtinger (Boltzmann Gesellschaft / unabhängiger Experte, AT)
  • ab 18:00
    • Steirischer Abend (begrenzte Teilnehmerzahl - Anmeldepflichtig)
    • ab 18:00 Stadtrundgang mit Highlights aus der Grazer Stadtgeschichte
    • Ort Treffpunkt Hauptplatz Graz vor dem Haupteingang Rathaus. (Dauer ca. 90 min)
    • ab 19:30 „Steirische Jause“
    • Ort Hauptbibliothek der TU Graz, Technikerstraße 4
    • Buffet mit kalten Speisen und Weinen aus der Region untermalt mit steirischer Volksmusik von „Margrets Musi“

    Dienstag 25. September 2018

    reset view
    09:30 - 10:30
    • Keynote 2 Projekt DEAL: Open-Access-Transformation im Publish & Read-Modell
    • Raum Inffeldgasse 16/B KG HS i13
    • Referent/in Hildegard Schäffler (BSB München, DE)
    • Abstract

      Das Projekt DEAL verfolgt das Ziel, deutschlandweite Abschlüsse für das Zeitschriftenportfolio von Wissenschaftsverlagen nach dem Publish&Read-Modell zu erzielen. Initiator und Auftraggeber des Vorhabens ist die Allianz der deutschen Wissenschaftsorganisationen, vertreten durch die Hochschulrektorenkonferenz (HRK). Zielgruppe der Lizenzen sind alle überwiegend öffentlich geförderten wissenschaftlichen Einrichtungen in Deutschland. In der ersten Phase laufen Verhandlungen mit den Großverlagen Elsevier, Springer Nature und Wiley.

      Eine zentrale Zielsetzung des PAR-Modells (Publish&Read), das goldenes und hybrides Open-Access-Publizieren umfasst, besteht darin, alle Publikationen von Erstautorinnen und -autoren aus deutschen wissenschaftlichen Einrichtungen automatisch Open Access zu schalten. Damit verknüpft ist der dauerhafte Volltextzugriff auf das gesamte Titel-Portfolio des jeweiligen Verlags. Die Bepreisung soll dabei einem einfachen und zukunftsorientierten Berechnungsmodell folgen, das sich am Publikationsaufkommen orientiert.

      Der Vertrag skizziert Zielsetzung, Struktur und Status quo des Projekts und stellt DEAL in den größeren Kontext möglicher OA-Transformationsstrategien.

      10.5281/zenodo.1443167
    10:30 - 11:00
    • Kaffeepause mit Begrüßung der Aussteller
    • Raum Inffeldgasse 25/D Foyer EG/1.OG
    11:00 - 11:30
    • Postersession Zenodo Community
    • Raum Inffeldgasse 25/D Foyer EG/1.OG
    • Open Access at IST Austria Petritsch, Barbara (IST Austria, Österreich) 10.5281/zenodo.1410279
    • RSC Advances - the move to Open Access Heidrich, Claudia (Royal Society of Chemistry, Deutschland) Fairweather, Lyndsey (Royal Society of Chemistry, Deutschland) Shore, Andrew (Royal Society of Chemistry, Deutschland) 10.5281/zenodo.1410296
    • OGeSoMo - Förderung von Open-Access-Publikationen in den Geistes- und Sozialwissenschaften mit dem Schwerpunkt Monografien Leinweber, Natalie (Universitätsbibliothek Duisburg-Essen, Deutschland) 10.5281/zenodo.1410300
    • Open Knowledge Maps: A Visual Interface to the World's Scientific Knowledge Kraker, Peter (Open Knowledge Maps, Austria) Schramm, Maxi (Open Knowledge Maps, Austria) 10.5281/zenodo.1410308
    • Blended Learning Plattformen für Mathematik und Physik - die offenen Bildungsressourcen der Fachhochschule Technikum Wien Krizek, Gerd Christian (Fachhochschule Technikum Wien, Österreich) Brezowar, Gabriela (Fachhochschule Technikum Wien, Österreich) Lietze, Stefanie (Fachhochschule Technikum Wien, Österreich) 10.5281/zenodo.1410310
    • Inhalte der Open-Access-Policies deutscher Hochschulen Hübner, Andreas (Open-Access-Büro Berlin, Deutschland) Riesenweber, Christina (Open-Access-Büro Berlin, Deutschland) 10.5281/zenodo.1443286
    • Towards an Open Science Ecosystem. Current and planned Services and Infrastructure at the University of Bern Kneubühl, Nicole (Universitätsbibliothek Bern, Schweiz) Morger, Jennifer (Universitätsbibliothek Bern, Schweiz) 10.5281/zenodo.1410324
    • Open Gender Platform. Aufbau einer Open-Access-Publikationsplattform für die Geschlechterforschung Wrzesinski, Marcel (Margherita-von-Brentano-Zentrum, Freie Universität Berlin, Deutschland) Runge, Anita (Margherita-von-Brentano-Zentrum, Freie Universität Berlin, Deutschland) Ganz, Kathrin (Margherita-von-Brentano-Zentrum, Freie Universität Berlin, Deutschland) 10.5281/zenodo.1410345
    • Webinare zu Open Access und Open Science Schmitz, Jasmin (ZB MED - Informationszentrum Lebenswissenschaften, Deutschland) Fischer, Cora (TH Köln, Deutschland) 10.5281/zenodo.1410352
    • OPEN PEER REVIEW AT DE GRUYTER: TRANSPARENT – LIVELY – FRUITFUL – VALUABLE Hrynkiewicz, Maria (De Gruyter, Deutschland) 10.5281/zenodo.1410356
    • Publikationen, Daten und Software am HZDR Reschke, Edith (Helmholtz-Zentrum Dresden-Rossendorf, Deutschland) Frust, Tobias (Helmholtz-Zentrum Dresden-Rossendorf, Deutschland) Juckeland, Guido (Helmholtz-Zentrum Dresden-Rossendorf, Deutschland) Konrad, Uwe (Helmholtz-Zentrum Dresden-Rossendorf, Deutschland) Rücker, Carsten (Helmholtz-Zentrum Dresden-Rossendorf, Deutschland) 10.5281/zenodo.1410360
    • OPERAS: Forschungsinfrastruktur für eine offene Wissenschaftspraxis in den Sozial- und Geisteswissenschaften in Europa Heinemann, Elisabeth (Max Weber Stiftung - Deutsche Geisteswissenschaftliche Institute im Ausland, Deutschland) 10.5281/zenodo.1410362
    • Rechtliche Aspekte von Open Science: Eine Arbeitsgruppe von OANA - Open Science Network Austria Hannesschläger, Vanessa (ACDH-OEAW, Österreichische Akademie der Wissenschaften) Ofner, Sabine (Bundesministerium für Bildung, Wissenschaft und Forschung, Österreich) Seitz, Peter (Bundesministerium für Bildung, Wissenschaft und Forschung, Österreich) Elmecker, Dietmar (Kunstuniversität Linz) Haslinger, Doris (FWF Der Wissenschaftsfonds, Österreich) Leitner, Edith (Bibliothek, Universität Mozartheum Salzburg, Österreich) Losehand, Joachim (Creative Commons Austria) Scholger, Walter (ZIM-ACDH, Universität Graz, Österreich) Stummvoll, Melanie (Geschäftsstelle der Kooperation E-Medien Österreich) Zellacher, Lydia (Universitätsbibliothek, Alpen-Adria-Universität, Österreich) 10.5281/zenodo.1410366
    • Synergien für Open Access - Das Projekt SynOA-Pub Beringer, Constanze (ZB MED - Informationszentrum Lebenswissenschaften, Deutschland) 10.5281/zenodo.1410368
    • \"Open for Nature\" - Open-Science-Aktivitäten am Museum für Naturkunde Berlin Weißpflug, Maike (Museum für Naturkunde Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Deutschland) Paß, Stefanie (Museum für Naturkunde Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Deutschland) 10.5281/zenodo.1410370
    • Wissenschaftliches Publizieren am Museum für Naturkunde Berlin Paß, Stefanie (Museum für Naturkunde Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Deutschland) Glöckler, Falko (Museum für Naturkunde Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Deutschland) Hoffmann, Jana (Museum für Naturkunde Leibniz-Institut für Evolutions- und Biodiversitätsforschung, Deutschland) 10.5281/zenodo.1410374
    • Repositorium, Publikationsdatenbank und Katalog: Integrierte Lösungen für kleine Bibliotheken Mehl, Rebecca (Deutsches Elektronen-Synchrotron, DESY, Deutschland) Piegler, Maike (Deutsches Elektronen-Synchrotron, DESY, Deutschland) Wagner, Alexander (Deutsches Elektronen-Synchrotron, DESY, Deutschland) Welch, Christian (Deutsches Elektronen-Synchrotron, DESY, Deutschland) 10.5281/zenodo.1410377
    • forschungsdaten.info – Das Informationsportal für Forschungsdatenmanagement Kröger, Jan (Universität Konstanz, Deutschland) Rex, Jessica (Universität Konstanz, Deutschland) Tristram, Frank (Karlsruher Institut für Technologie, Deutschland) Wedlich, Kerstin (Karlsruher Institut für Technologie, Deutschland) 10.5281/zenodo.1410381
    • Zugang zu und Nachnutzung von wissenschaftlicher Software Scheliga, Kaja (Helmholtz-Gemeinschaft, Deutschland) 10.5281/zenodo.1410383
    • Archivum Medii Aevi Digitale (AMAD): Projektposter Bianchi, Maria Aglaia (Akademie der Wissenschaften und der Literatur Mainz, Deutschland) 10.5281/zenodo.1410385
    • Transparenz und Zuverlässigkeit bei der Ermittlung von alternativen Metriken – Aktueller Forschungsstand des *metrics-Projektes Wiemann, Moritz (SUB Göttingen, Deutschland) Orth, Astrid (SUB Göttingen, Deutschland) Giesler, Martin (SUB Göttingen, Deutschland) Beucke, Daniel (SUB Göttingen, Deutschland) 10.5281/zenodo.1410389
    • Komparative Analyse der Einschlusskriterien für Journal Blacklisten und Whitelisten Strinzel, Michaela (Schweizerischer Nationalfonds) Severin, Anna (Schweizerischer Nationalfonds) Egger, Matthias (Schweizerischer Nationalfonds) Milzow, Katrin (Schweizerischer Nationalfonds) 10.5281/zenodo.1410391
    • OceanTEA: Open Data Publication and Exploration of Ocean Observation Data Hasselbring, Wilhelm (Kiel University, Deutschland) Johanson, Arne (Xing, Hamburg, Deutschland) Jung, Reiner (Kiel University, Deutschland) Thomsen, Ingo (Kiel University, Deutschland) 10.5281/zenodo.1410395
    • Open Access Effects Momeni, Fakhri (GESIS, Deutschland) Fraser, Nicholas (ZBW, Deutschland) Mayr, Philipp (GESIS, Deutschland) Peters, Isabella (ZBW, Deutschland) 10.5281/zenodo.1443298
    11:30 - 13:00
    • Session 6 Quo vadis, Publikationsfonds?
    • Raum Inffeldgasse 25/D 1.OG HS i7
    • Vortrag 1 High-Impact oder Grundversorgung? Publikationsfonds und ihr Limit Abstract

      Finanzierbarkeit, Transformationsperspektive, Qualitätssicherung, Kosten- und Fördertransparenz sowie Nachhaltigkeit - diese strategischen Aspekte adressiert ein Open-Access-Publikationsfonds üblicherweise. Doch Kostenobergrenzen, Hybrid-Zeitschriften, diverse Qualitätsnachweise sind und bleiben umstritten. Hinzu kommen Entwicklungen auf dem Publikationsmarkt wie neue Journalstrukturen (Kaskadenjournals, Daten-, Deskriptions-, Forschungsartikel) und Peer-Review-Verfahren, die etablierte Kriterien vor neue Herausforderungen stellen. Der Vortrag gibt einen Überblick, wie Fondsbetreiber bisher praktisch mit diesen Herausforderungen umgehen (z.B. durch Unterstützung bei Rabattverhandlungen oder Quoten für High-Impact-Publikationen) und diskutiert die Vor-und Nachteile verschiedener Beispiele und Ansätze mit Blick auf die Zukunft der Fonds.

      10.5281/zenodo.1441050
    • Referent/in Ulrike Kändler (Technische Informationsbibliothek (TIB), DE)
    • Vortrag 2 Die Förderobergrenze als haushälterische Notwendigkeit: Eine strategische Betrachtung Abstract

      Überlegungen zur Fortführung der Förderungsobergrenze dürfen nicht losgelöst von den Open-Access-Strategien der Hochschulen geführt werden. Am Fallbeispiel der TU Dresden soll plastisch dargestellt werden, mit welchen Mittelbedarf eine Hochschule bei Fortführung bzw. bei Wegfall der derzeitigen in der DFG-Förderrichtlinie festgeschriebenen Förderobergrenze von 2.000 Euro brutto/Artikel konfrontiert wird. Die im Beitrag vorgestellten Szenarien zeigen deutlich, dass ein Erreichen fester OA-Anteile bei gleichbleibender Qualität der Veröffentlichungen nur über eine Kostendeckelung erreicht werden kann. Flankierend dazu müssen jene Serviceangebote gestärkt werden, die Green OA stärken und einen Abfluss von Mitteln in Richtung hybrider sowie unseriöser Journale verhindern.

      10.5281/zenodo.1441052
    • Referent/in Michael Wohlgemuth (Sächsische Landesbibliothek – Staats- und Universitätsbibliothek Dresden, DE)
    • Vortrag 3 Gemeinsame Kriterien für Publikationsfonds: Das Diskussionspapier der TU9-Bibliotheken Abstract

      Förderkriterien und Betrieb der Open-Access-Publikationsfonds stehen in diesem Jahr in mehreren Einrichtungen der TU9 auf dem Prüfstand. Aus Anlass dieser Revision und in Anlehnung an die DFG-Förderrichtlinien haben die TU9-OA-Koordinator/-innen ein Diskussionspapier erarbeitet, das eine Reihe von Kriterien für Publikationsfonds umfasst. Mit dem Papier sollte in erster Linie auf die Notwendigkeit einer einheitlich verbindlichen Kostenobergrenze aufmerksam gemacht und eine Verständigung unter den TU9-Partnern erreicht werden. Darüber hinaus soll diese Vorlage eine möglichst breite Auseinandersetzung zur Zukunft der Publikationsfonds und ihrer strategischen Grundlagen anregen und auf die Bedeutung gemeinsamer, verbindlich akzeptierter Kriterien hinweisen.

      10.5281/zenodo.1441054
    • Referent/in Dagmar Schobert (Universitätsbibliothek der Technischen Universität Berlin, DE)
    • Session 7 The Rise of Preprints – Veränderte Publikationskulturen als Unterstützung von Open Access
    • Raum Inffeldgasse 25/D EG HS i3
    • Vortrag 1 arXiv – „an accident waiting to happen“ Abstract

      Entstanden als „Experiment, um Unzulänglichkeiten der Fachzeitschriften auszugleichen“ (P. Ginsparg) bietet arXiv heute weltweiten, freien Zugang zu nahezu 1.4 Mio. e-Prints aus den Bereichen Physik, Mathematik, Informatik, quantitative Biologie und einige anderen. Mit mehr als 10.000 Einreichungen durch Wissenschaftler pro Monat ist arXiv fest in den entsprechenden Fächern verankert, bildet einen integraler Bestandteil der Publikationskultur und Informationsversorgung und ist aus dem dortigen Wissenschaftsalltag nicht mehr wegzudenken. arXiv kann somit zu Recht als Erfolgsmodell betrachtet werden.

      Ausgehend von einem kurzen historischen Exkurs zur Ausgangslage in den 1980er und 1990er Jahren soll die Entwicklung von arXiv von einem Server für einen kleinen Teilbereich der theoretischen Physik zu seiner heutigen Form betrachtet werden. Eine zentrale Rolle spielt hier die Bedeutung von Preprints in der Wissenschaftskommunikation insbesondere der Teilchenphysik, dem eigentlichen Ursprung von arXiv. Vor diesem Hintergrund soll auf die weitere Entwicklung und die damit einhergehenden Veränderungen eingegangen und aktuelle wie künftige Herausforderungen für arXiv beleuchtet werden, wie sie insbesondere auch aus der größeren fachlichen Breite entstehen, die arXiv heute abbildet.

      10.5281/zenodo.1441056
    • Referent/in Alexander Wagner (Deutsches Elektronen-Synchrotron DESY, DE)
    • Vortrag 2 Von arXiv zu bioRxiv – Preprint-Dynamik in den Biowissenschaften Abstract

      Scientific progress depends on efficient mechanisms to select, quality control and efficiently share rigorous and reproducible research. The editorial and peer review process at scientific journals continues to play an important role in quality assurance by selection for the reliability, reproducibility and integrity of the experimental data, as well as the interest of the claims made. However, this process often takes months or even years due to extensive revision cycle and serial submission to different journals. Furthermore, many valuable research findings, including confirmatory, descriptive, negative or refuting data, are never published in journals and therefore not shared. In a rapidly developing research field such as the biosciences, the delay and selectivity are major impediments to the overall efficacy of research progress.

      Sharing research findings through preprint platforms such as bioRxiv offers a mechanism that is complementary and synergistic with journal publishing. While preprint posting has been fully established in the physical sciences for a quarter of a century, it remains terra nova for the biosciences, the medical sciences and chemical sciences. I will discuss cultural and institutional obstacles in implementing for this delayed adoption, impediments to a broad adoption and how these can be overcome.

      Open Science is about efficient access to all meaningful research outputs; it encompasses “big data” just as much as bench science. I will touch on mechanisms of open science communication beyond preprints and mention cultural and institutional obstacles in implementing an Open Science future that renders scientific research more efficient and effective.

      10.5281/zenodo.1441076
    • Referent/in Bernd Pulverer(EMBO, DE)
    • Vortrag 3 Vom Diskussionspapier zum Zeitschriftenartikel – Open Peer Review am Beispiel von „Economics: The Open-Access, Open-Assessment E-Journal“ Abstract

      Die Zeitschrift „Economics: The Open-Access, Open-Assessment E-Journal“ arbeitet seit 2007 mit einem Open-Peer-Review-Verfahren, das auf Preprints basiert. Während es im naturwissenschaftlichem Bereich bereits zahlreiche Zeitschriften gibt, die ähnliche Gutachterverfahren nutzen, ist das E-Journal „Economics“ im wirtschaftswissenschaftlichen Bereich bisher die einzige so arbeitende Zeitschrift. In ihrem Beitrag wird Korinna Werner-Schwarz das Begutachtungskonzept von „Economics“ vorstellen und über ihre praktischen Erfahrungen in der Redaktionsarbeit berichten. Dabei wird sie insbesondere auf den Zusammenhang von Preprints und Open Peer Review eingehen.

      10.5281/zenodo.1441078
    • Referent/in Korinna Werner-Schwarz (Institut für Weltwirtschaft IfW, DE)
    • Session 8 Open Science Infrastrukturen und Nachhaltigkeit
    • Raum Inffeldgasse 18 EG HS i1
    • Vortrag 1 Transformation des Open Access PUB-LibreCat Repositories zu einem Open Science Werkzeug Abstract

      In der Regel verbindet man mit einem institutionellen Repository eine Open-Access-Publikationsinfrastruktur für die Verzeichnung von Forschungsliteratur der Hochschulangehörigen.

      Das Potential von Repositories reicht jedoch weit darüber hinaus. Sie sind Bausteine einer globalen und verteilten Infrastruktur für die wissenschaftliche Kommunikation und daher kommt der Integration von Repositories in forschungszentrierte Dienste eine besondere Bedeutung zu (vergleiche "Next Generation Repositories: Behaviours and Technical Recommendations of the COAR Next Generation Repositories Working Group", https://dx.doi.org/10.5281/zenodo.1215014 ).

      Das im Jahr 2010 eingeführte Bielefelder Repository "PUB - Publikationen an der Universität Bielefeld" zeichnet sich unter anderem durch folgende Merkmale aus:

      • Erzeugung und Einbettung von persönlichen Publikationslisten
      • Integration in die Informationsarchitektur der Universität
      • Vernetzung mit Zitationsdatenbanken und disziplinären Repositorien
      • Nachweis von Forschungsergebnissen aus EU-geförderten Drittmittelprojekten
      • Erhebung von Nutzungsstatistiken
      • Veröffentlichung von Forschungsdaten

      Insbesondere im Bereich computergestützter Forschung hängt die Nachnutzung von Forschungsdaten sehr stark davon ab, inwieweit auch Algorithmen, Tools und Workflows mit den Daten verlinkt, dokumentiert und bereitgestellt werden. Die Herstellung von Interoperabilität zwischen Repository und Versionskontrollsystemen wie GitLab ist daher ein Desiderat des DFG geförderten Projekts Conquaire (http://conquaire.uni-bielefeld.de/ ). Der Vortrag stellt die Pilot-Implementierung von Gitlab in das PUB-System vor. Insbesondere werden die Aspekte Workflows, Referenzierbarkeit von Versionen und Archivierung beleuchtet. Als besondere Herausforderung im Sinne von Open Science sind hierbei die Reproduzierbarkeit von Forschungsdaten und die Ausführbarkeit (“Executability”) von Forschungssoftware zu sehen.

      10.5281/zenodo.1441080
    • Referent/in Vitali Peil (UB Bielefeld, DE) Jochen Schirrwagen (UB Bielefeld, DE)
    • Vortrag 2 Interaktives Publizieren im Open Access Abstract

      Die Nachvollziehbarkeit von Forschungsergebnissen ist ein Grundpfeiler wissenschaftlichen Arbeitens. Nur durch die Angabe von Quellen und die Beschreibung der eingesetzten Methoden kann ein Forschungsergebnis als valide erachtet werden. Durch den zunehmenden Einsatz von Computern in der Forschung, insbesondere in den Computational und Digital Humanities, eröffnen sich neue Möglichkeiten der Dokumentation und der Interaktion.

      Während des Einsatzes computergestützter Methoden entstehen Daten, die die Genese von Forschungsergebnissen genau dokumentieren können. Dabei lassen sich zwei Typen unterscheiden.

      Erstens entstehen während des gesamten Forschungsprozesses Daten unterschiedlicher Art (beispielsweise Annotationen, Bibliographien oder Datenbanken), die zwar keine eigentliche Publikation darstellen, aber dennoch wichtige Bestandteile des wissenschaftlichen Wertschöpfungsprozesses sind und für nachfolgende Forschungsprojekte wiederverwertbar sein sollten.

      Zweitens lassen sich bei der Verwendung von Computerprogrammen in der Forschung auch die benutzten Parameter dokumentieren, so dass dort eine genaue Nachvollziehbarkeit der genutzten Datasets und Programme gegeben ist. Dies erfordert natürlich eine wissenschaftliche Praxis, in der Daten und Software ebenso zitiert werden wie Literatur.

      Reproduzierbare und transparente Forschung sind eine Ausprägung von Donald Knuths Konzept des Literate Programming. Ermöglicht wird dies durch jüngere Entwicklungen im Bereich browsergestützter Anwendungen. Ein Beispiel dafür ist die Software Jupyter Notebooks, die es erlaubt, formatierten Text und ausführbaren Computercode zu vereinen. Die vorgestellte Entwicklung ist die Integration dieser Notebooks in eine Publikationsplattform.

      Diese Zusammenarbeit von DARIAH-DE und der Edition Open Access bringt doppelten Nutzen. Einerseits werden dadurch Komponenten der Forschungsinfrastruktur (beispielsweise Forschungsdaten-Repositorien oder Benutzerinnenverwaltung) weitergenutzt, andererseits können Open-Access-Publikationen – und damit auch Lehrwerke – mit Code-Elementen angereichert werden, wodurch eine engere Verschränkung von Forschungsdaten und Publikationen, die sie interpretieren, entsteht.

      Bezweckt wird damit die Relevanz von Forschungsdaten im Forschungs- und Begutachtungsprozess zu erhöhen und Wissenschaftlerinnen zu ermutigen, neben Text auch Daten zu publizieren sowie Förderern und anderen Komitees zu zeigen, dass auch Forschungsdaten eine ernstzunehmende wissenschaftliche Leistung sind.

      10.5281/zenodo.1441084
    • Referent/in Klaus Thoden (Max-Planck-Institut für Wissenschaftsgeschichte, DE)
    • Vortrag 3 Ansätze zur Finanzierung von alternativen, nicht-kommerziellen und von der Wissenschaft kontrollierten Open Science-Infrastrukturen und -Services (OSIS) Abstract

      Der Markt für wissenschaftliche Informationen hat in den letzten Jahrzehnten einen enormen Konzentrationsprozess durchlaufen, und zwar nicht nur was Publikationen, sondern Produkte des gesamten akademischen Workflows betrifft. Dies könnte am Ende zu einem „end-to-end lock-in" führen. Sowohl um dieser Entwicklung etwas entgegenzusetzen als auch aufgrund der – insbesondere im Bereich der Geistes-, Sozial- und Kulturwissenschaften stark verbreiteten – Skepsis hinsichtlich bestimmter Finanzierungsmodelle (z.B. author pays-Modell), ist es im Zusammenhang mit der Vision einer offenen wissenschaftlichen Kommunikation notwendig, alternative, nicht-kommerzielle und von der Wissenschaft kontrollierte Open Science-Infrastrukturen und -Services (OSIS) langfristig zu fördern.

      The scholarly information market has undergone a tremendous concentration process in the recent decades, not just in terms of publications, but also concerning products throughout the whole academic research life cycle. In the end, this could lead to an end-to-end lock-in. In order to oppose this development and because of the skepticism regarding certain Open Access funding models (e.g. the author pays-model), in the context of the vision of an open scholarly communication, it is necessary to promote alternative, non-commercial and scholarly controlled Open Science infrastructures and services (OSIS) in the long term.

      10.5281/zenodo.1441087
    • Referent/in Andreas Ferus (Akademie der bildenden Künste Wien, AT)
    • Workshop 2 Open Training Workshop
    • Raum Inffeldgasse 25/D 1.OG HS i5
    • Vortrag 1 Das FOSTER Open Science Training Handbuch Abstract

      Das Open Science Training Handbuch wurde im Februar 2018 während eines Book Sprints entwickelt und geschrieben. Das Handbuch richtet sich an Personen, die selbst Trainings und Workshops zum Thema Open Science organisieren möchten. Die TIB Hannover und das EU-geförderte Projekt FOSTER Plus brachten 14 Open Science ExpertInnen aus zehn Ländern zusammen, um eine OER zu erstellen, die die Open Science Trainer-Community unterstützt. Während des fünftägigen Workshops diskutierten und sammelten die AutorInnen ihre Erfahrungen und verfassten kollaborativ ein praxisnahes Buch mit über 200 Seiten. Die OER ist unter der Creative Commons Public Domain Dedication (CC0 1.0 Universal) lizenziert und ermöglicht damit eine uneingeschränkte Nachnutzung. Das Buch ist unter https://book.fosteropenscience.eu als Gitbook verfügbar, und wird fortlaufend kommentiert, ergänzt und aktualisiert.

      10.5281/zenodo.1443198
    • Referent/in Helene Brinken (SUB Göttingen, DE) Lambert Heller (Open Science Lab, TIB Hannover, DE)
    • Vortrag 2 Open-Science-Training mit Open Educational Resources Abstract

      In diesem Kurzvortrag wird eine Übersicht über Open Educational Resources gegeben und wie sich diese in der Open-Bewegung abbilden. Darüber hinaus soll ein Schwerpunkt darauf liegen, wie man eigene Materialien, z. B. für Open-Science-Trainings, aufbereiten muss, damit sie nachhaltig in der Bildung eingesetzt werden können. Durch die bestehenden Urheberrechtsbestimmungen ist dies durchaus eine sehr herausfordernde Tätigkeit, insbesondere wenn es um die Möglichkeit der Kombination unterschiedlicher Materialien geht. Das Ziel des Vortrags ist neben einem Überblick eine erste Handreichung zu geben, wie man selbst OER erzeugt und verbreiten kann.

      10.5281/zenodo.1464540
    • Referent/in Martin Ebner (TU Graz)
    • Vortrag 3 Netzwerk: Praxis-Community für Open Training Abstract

      Wir möchten eine Praxis-Community zum Interessensfeld “Open Training” im deutschsprachigen Raum aufbauen und Personen zusammenbringen, die sich mit Trainings, Beratung und Advocacy in den Themenfeldern Open Access und Open Science beschäftigen. Die Community soll eine Plattform für den Erfahrungsaustausch untereinander, für ein gemeinsames Lernen und für die Unterstützung bei der praktischen Umsetzung von Trainings sein. Wir laden alle aktiven und zukünftigen Open Science Trainer*innen dazu ein, beizutragen und in dieser Auftaktveranstaltung gemeinsame Pläne und konkrete Ziele zu vereinbaren. Zur Vorbereitung der Veranstaltung laden wir alle Interessierten ein, Ideen, Vorschläge und verwandte Projekte zu notieren (unabhängig von der Teilnahme am Workshop): https://yourpart.eu/p/Open_Training_Workshop_Open-Access-Tage_2018

    • Referent/in Christina Riesenweber (Freie Universität Berlin, DE) Katharina Rieck (FWF Wien, AT) Maxi Kindling (HU Berlin, DE)
    13:00 - 14:30
    • Mittagspause
    • Raum Inffeldgasse 10 / Mensa
    14:30 - 16:00
    • Session 9 Die European Open Science Cloud (EOSC)
    • Raum Inffeldgasse 25/D 1.OG HS i7
    • Vortrag 1 Allgemeine Informationen zur EOSC auf politischer Ebene
    • Referent/in Daniel Weselka (Bundesministerium für Bildung, Wissenschaft und Forschung)
    • Vortrag 2 EOSC - Austria takes initiative Abstract

      Im Zuge der österreichischen Ratspräsidentschaft wird es im Wesentlichen zwei themenbezogene Veranstaltungen geben: Eine europäische Fachkonferenz mit dem Titel “The EOSC-Austria takes initiative“, und in Folge eine hochrangige Veranstaltung bei der gemeinsam mit europäischen Ministern und der Europäischen Kommission die Steuerungsstruktur der EOSC präsentiert werden soll und durch einer „Vienna Declaration on EOSC“ dieser europäische Prozess gemeinschaftlich erarbeitet werden.

      Diese Präsentation zeigt die wesentlichen Aspekte der EOSC, ihre Governance, sowie die österreichischen Initiativen auf, und stellt in weiterer Folge den Launch der EOSC vor.

      Die „European Open Science Cloud”, in kürze EOSC genannt, soll dazu dienen den österreichischen / europäischen Forschenden unter Wahrung der Rechtssicherheit den Zugang zu erstklassigen europäischen Services/Dienstleistungen, Rechen-, Speicher- und Analysekapazitäten zu ermöglichen. Dadurch soll auch der offene und rechtssichere Austausch von Daten und Services erleichtert werden. Demnach soll die EOSC eine zuverlässige und offene Umgebung sein in der die wissenschaftliche Gemeinschaft und ihre Netzwerke wissenschaftliche Daten und Ergebnisse speichern, austauschen und nachnutzen kann.

      EOSC bedingt damit den Aufbau von digitalen Archiv-Infrastrukturen/Landschaften und die Weiterentwicklung von forschungsunterstützenden Services für diverse Forschungsdisziplinen in Naturwissenschaft, Technik, Medizin, Sozial- sowie Geistes- und Kulturwissenschaften.

      Mit der European Open Science Cloud soll eine offene und sichere virtuelle Umgebung geschaffen werden, in der wissenschaftliche Daten gespeichert, verwaltet und ausgewertet werden können. EOSC wird daher auch als „Internet der wissenschaftlichen Datenservices“ genannt. Zu diesem Zweck sollen bestehende e-Infrastrukturen über Länder- und Disziplinengrenzen hinweg zusammengeführt und auf einen erstklassigen Standard gebracht werden.

      Politisches Ziel dieser Initiative ist die weltweite Führung der EU im Bereich der wissenschaftlichen Dateninfrastrukturen damit europäischer Forschender das Potential der datengesteuerten Wissenschaft voll nutzen können und dabei möglichst unabhängig von internationalen (kommerziellen) Anbietern zu bleiben. Das Ziel ist eine virtuelle Umgebung, in der Europas 1,7 Millionen Forscher und 70 Millionen Fachkräfte in Wissenschaft und Technologie ihre Daten über Fachgebiete und Grenzen hinweg speichern, austauschen nachnutzen und wiederverwenden können. Beim Aufbau einer solchen digitalen Europäischen Wissensinfrastruktur sollen bestehende Initiativen im Rahmen eines dezentralen Ansatzes berücksichtigt und integriert werden.

      Wichtige und kritische Themen bei der Umsetzung der EOSC sind beispielsweise klare Regelungen zum Zugang zur European Open Science Cloud und die für die Umsetzung notwendige Expertise. Eine klare Steuerungsstruktur der EOSC soll dabei sicherstellen, dass Forschungsdaten die aus öffentlich finanzierter Forschung hervorgehen, nach den sog. FAIR-Grundsätzen, in einer sicheren und vertrauenswürdigen Umgebung auffindbar, zugänglich interoperabel und weiterverwendbar sind und bleiben, es sei denn, dies ist nicht möglich oder mit der weiteren Nutzung der Forschungsergebnisse nicht vereinbar („so offen wie möglich so eingeschränkt wie nötig“). Die Umsetzung des FAIR Data Action Plan wird dabei unterstützend wirken.

      10.5281/zenodo.1441093
    • Referent/in Paolo Budroni (Universitätsbibliothek Wien, AT)
    • Vortrag 3 EOSC und die Social Sciences Abstract

      Die European Open Science Cloud wird als große Infrastruktur für Forschungsdaten in Europa entwickelt. Durch die Umsetzung des Konzepts Open Science sollen Forschungsdaten breit nutzbar gemacht werden. Mit AUSSDA - The Austrian Social Science Data Archive existiert eine Infrastruktureinrichtung in Österreich, die sozialwissenschaftliche Daten zugänglich und nachnutzbar macht, für Wissenschaft und Gesellschaft. Der Vortrag erläutert am Beispiel von AUSSDA welche praktischen Implikationen Open Science für Forschende in der Archivierung, Bereitstellung und Nutzung von Forschungsdaten hat. Eine besondere Frage, die sich hierbei stellt ist welche Rolle nationale disziplinäre Infrastrukturen in der EOSC einnehmen. Im Vortrag wird Open Science unter den drei Gesichtspunkten Open Access, Open Data und Open Educational Resources betrachtet. Hierzu stehen verschiedene rechtliche Instrumente zur Verfügung, die passende Lizenzmodelle unter Abwägung von Nachnutzungsszenarien und Datenschutz erlauben. Angesprochen werden Creative Commons Lizenzen und Lizenzen, die eine Nutzung auf wissenschaftliche Zwecke beschränken. Unabhängig von der konkreten Nutzung von Forschungsdaten sollen diese üblicherweise weltweit gesucht und leicht gefunden werden können. Daher sollten die zugehörigen Metadaten unter gemeinfreie Lizenzen (CC0) zur Verfügung gestellt werden. Dies ermöglicht beispielsweise die Entwicklung eines europaweiten Datenkatalogs. In Europa wird solch ein Datenkatalog von CESSDA ERIC, dem Konsortium der europäischen sozialwissenschaftlichen Datenarchive entwickelt. CESSDA ERIC koordiniert auch weitere Unternehmungen der teilnehmenden Organisationen an der European Open Science Cloud. AUSSDA repräsentiert Österreich in CESSDA ERIC und beteiligt sich damit an mehreren Arbeitspaketen im Rahmen der EOSC.

      10.5281/zenodo.1441107
    • Referent/in Lars Kaczmirek (AUSSDA – The Austrian Social Science Data Archive, AT)
    • Session 10 OA-Grün (Tools)
    • Raum Inffeldgasse 25/D EG HS i3
    • Vortrag 1 Zweitveröffentlichungsrechte auf einen Blick: Schaffung einer zentralen Datenquelle für OA-Rechte in der Elektronischen Zeitschriftenbibliothek (EZB) Abstract

      Open-Access-Policies der Verlage und spezielle Open-Access-Regelungen in Allianz- und Nationallizenzen sind in Deutschland, zusammen mit dem Zweitveröffentlichungsrecht gemäß dem Urheberrechtsgesetz, entscheidend dafür, dass Forschungsergebnisse parallel zu Verlagspublikationen frei herausgegeben werden können.

      Doch gerade die in Allianz- und Nationallizenzverträgen ausgehandelten Zweitveröffentlichungsrechte (OA-Rechte) werden von Forschenden fast nie und von Bibliotheken nur selten angewendet. Ein Grund dafür ist, dass die verhandelten OA-Rechte den Autoren i.d.R. nicht bekannt sind. Diese weitreichende Unkenntnis über die rechtlich eingeräumten Möglichkeiten ist ein entscheidender Grund für die geringe Nutzung des grünen Weges.

      Vor diesem Hintergrund fördert die Deutsche Forschungsgemeinschaft (DFG) das Projekt OA-EZB: Open-Access-Services der Elektronischen Zeitschriftenbibliothek (EZB)“ an der Universitätsbibliothek Regensburg. Ein Ziel des Projektes ist es, Informationen über Verwertungsrechte, die bei der Zweitveröffentlichung von Zeitschriftenartikeln gelten, für eine erleichterte und möglichst breite Nachnutzung zentral bereitzustellen. Damit sollen Autoren sowie Institutionen unterstützt werden, ihre Forschungsergebnisse in Open Access verfügbar zu machen.

      Hierzu wurde die EZB für OA-Rechte aus Allianz- und Nationallizenzen erweitert. Verhandlungsführende Einrichtungen können diese nun strukturiert und unkompliziert eintragen. Da in der EZB die Teilnehmerinstitutionen von Allianz- und Nationallizenzen samt zugehöriger Zeitschriftentitel bereits gepflegt werden, werden die erfassten OA-Rechte nun unmittelbar und ohne Zutun der Lizenzteilnehmer zeitschriften- und institutionsspezifisch über Schnittstellen zur freien Nachnutzung, z.B. in Repositorien, bereitgestellt. Dies ist eine erhebliche Erleichterung, da die jeweiligen Informationen zu OA-Rechten den Endnutzer unverzüglich, d.h. ohne Verwaltungs- und Rechercheaufwand, erreichen.

      Darüber hinaus werden die in der EZB erfassten OA-Rechte für die Nachnutzung mit den Informationen über verlagsseitige Open-Access-Policies in SHERPA/RoMEO und einem Hinweis auf das deutsche Zweitveröffentlichungsrecht gemäß dem Urheberrechtsgesetz zusammengeführt. Eine mögliche Verwendung der nun zentral hinterlegten OA-Rechte wird anhand des Publikationsservers der Universität Regensburg gezeigt. Die Integration erfolgt dabei über ein Eprints-Plug-in, das unter der GPL-Lizenz auf GitHub bereitgestellt wird. Neben Repositorien-Betreibern sind ebenfalls Projekte wie DeepGreen und LAS:eR zukünftige Nutzer dieser Datenquelle.

      10.5281/zenodo.1441118
    • Referent/in Colin Sippl (Universitätsbibliothek Regensburg, DE) Gernot Deinzer (Universitätsbibliothek Regensburg, DE) Silke Weisheit (Universitätsbibliothek Regensburg, DE)
    • Vortrag 2 Einfach Automatisiert: die DeepGreen-Datendrehscheibe Abstract

      Das von der DFG seit 2016 geförderte Projekt DeepGreen will die Open-Access-Transformation der deutschen Wissenschaft unterstützen, indem Artikel, sofern lizenzrechtlich erlaubt, automatisiert in den Open Access überführt werden.

      Fokussiert hat sich DeepGreen zunächst auf die sogenannten Allianz-Lizenzen, die seit 2011 zwischen Verlagen und Bibliotheken verhandelt wurden. Sie beinhalten spezifische Regelungen zum grünen Open Access, die einen enormen Mehrwert gegenüber den üblichen „self-archiving policies“ der Verlage darstellen: Autorisierte Autorinnen und Autoren und deren Einrichtungen dürfen ihre Publikationen in der Regel in der publizierten pdf-Version nach verkürzten Embargofristen bzw. teils unmittelbar in ein Repositorium ihrer Wahl einstellen und öffentlich zugänglich machen. Praktisch wurde von dieser Möglichkeit bisher nur sehr eingeschränkt Gebrauch gemacht, DeepGreen soll dies ändern.

      Dazu haben die Projektpartner (UB FAU Erlangen-Nürnberg, UB TU Berlin, Helmholtz Open Science Koordinationsbüro am Deutschen GeoForschungsZentrum GFZ, die Bayerische Staatsbibliothek sowie die Verbünde KOBV und BVB) in den Jahren 2016/2017 prototypisch eine Datendrehscheibe auf Grundlage existierender Softwarebausteine entwickelt: Beteiligte Verlage können Metadaten und Volltexte zyklisch über definierte Schnittstellen abliefern, die Daten werden rechtskonform an dazu berechtigte institutionelle Repositorien weitergeleitet. Als Pilotpartner konnten die Verlage Karger und SAGE Publications gewonnen werden, darüber hinaus haben sich im Zuge der ersten Projektphase die Verlage BMJ, DeGruyter und MDPI für eine enge Zusammenarbeit in einer zweiten Projektphase ausgesprochen.

      Diese zweite Projektphase, Start Sommer 2018, will den bisher aufgebauten Prototypen als bundesweiter Dienst zunächst für Allianz-Lizenzen etablieren und darüber hinaus die Übertragbarkeit des Systems auf weitere Lizenzmodelle analysieren und einen möglichen Workflow zur Datenabgabe in Fachrepositorien und FIDs konzipieren.

      Der Vortrag ordnet ein, wo das Projekt steht, welche Fragen es zu beantworten gilt und wie die zweite Projektphase inhaltlich gestaltet werden soll.

      10.5281/zenodo.1441122
    • Referent/in Kaja Scheliga (Helmholtz Open Science Koordinationsbüro, DE) Michael Kassube (BSB München, DE)
    • Vortrag 3 Green OA und Publikationsdatenmanagement an der ZHAW: Welcome to the jungle!? Abstract

      Die ZHAW Zürcher Hochschule für Angewandte Wissenschaften ist eine Hochschule mit 12'000 Studierenden und 2’000 wissenschaftlichen Mitarbeitenden. Seit 2015 betreibt die Hochschulbibliothek das institutionelle Repositorium «ZHAW digitalcollection». Ende 2016 beschloss die Hochschulleitung die Ablösung der veralteten Publikationsdatenbank. Das Projekt beinhaltete den Aufbau einer Hochschulbibliografie und die Migration von ca. 15’000 Einträgen von über 1’000 Forschenden in die ZHAW digitalcollection. Da die Einträge keinen bibliographischen Standards entsprachen, war eine automatisierte Migration nicht möglich. Alle Einträge mussten teilautomatisch neu erfasst werden.

      Zusätzlich wurde ein Importworkflow für Daten aus einem fachspezifischen Forschungsinformationssystem implementiert. Darüber hinaus musste gewährleistet werden, dass der Forschungsoutput auf Institutswebseiten sowie den persönlichen Webseiten der Forschenden automatisiert ausgegeben wird.

      Das neu gegründete Team Publikationsdienste stand ab Mitte 2017 vor der Herausforderung, für das neu zu etablierende Repositorium einen Regelbetrieb aufzubauen, Workflows für die Migration zu erarbeiten sowie eine Kommunikationsstrategie und Unterstützungsangebote für die Autorinnen und Autoren zu schaffen. Unter Maßgabe der nationalen Open-Access-Strategie sowie der Open-Access-Policy der Hochschule wurde der Fokus auf die Ergänzung der Einträge mit Volltexten gelegt, unter Berücksichtigung der jeweils geltenden Zweitveröffentlichungsrechte sowie der durch Nationallizenzen erworbenen Rechte.

      Da von der Migration alle Autorinnen und Autoren der ZHAW betroffen waren, bot sich die einmalige Chance, diese durch konzertierte Aktionen, gezielte Informationen und umfassende Hilfestellungen für Open Access zu sensibilisieren und für die Zukunft mit dem nötigen Rüstzeug auszustatten.

      Inwieweit diese Chance wahrgenommen werden konnte, welche inhaltlichen und organisatorischen Herausforderungen zu bewältigen waren und welche Bedeutung die Forschenden im Umfeld der «Angewandten Wissenschaften» dem Thema Green Open Access beimessen, soll dieser Vortrag zeigen.

      10.5281/zenodo.1441131
    • Referent/in Friederike Gerland (ZHAW Zürcher Hochschule für Angewandte Wissenschaften, CH)
    • Session 11 OA im Ingenieurwesen
    • Raum Inffeldgasse 18 EG HS i1
    • Vortrag 1 How to proceed – Konferenzberichte im Open Access Abstract

      Während in vielen Fächern Zeitschriftenartikel den Hauptteil der wissenschaftlichen Publikationen ausmachen, spielen in einigen Fachgebieten Proceedings eine mindestens ebenso wichtige Rolle. Insbesondere in der Informatik und den Ingenieurwissenschaften stehen die Konferenzberichte im Zentrum der wissenschaftlichen Kommunikation. Dennoch erfahren sie bisher vergleichsweise wenig Beachtung im Rahmen der Open-Access-Transformation – und das, obwohl der Imperativ barrierefreier und rascher Verfügbarkeit für diese Publikationen eigentlich im Besonderen gilt.

      Konferenzen und Proceedings weisen jedoch auch formateigene Charakteristika auf, die häufig wenig zu den etablierten Angeboten und Kriterien passen. Die Konferenzen erfüllen kommunikative (unmittelbarer Austausch), soziale (Networking, Ausdefinition von Forschungsgebieten) und wissenschaftspolitische Funktionen (Agenda ausrichtender Einrichtungen) und stehen im Spannungsfeld verschiedener Interessen. Was davon publiziert wird und wie publiziert wird, differiert stark und reicht von renommierten Proceedings-Journals bis zur freien Veröffentlichung heterogener Materialien auf den Seiten der Konferenzveranstalter.

      Der Vortrag richtet die Aufmerksamkeit auf Konferenzen und Proceedings als einen bislang wenig beachteten Bereich der wissenschaftlichen Kommunikation und greift dazu Ergebnisse einer Projektvorstudie auf, die 2018 an der TIB durchgeführt wurde. Er beleuchtet die speziellen Bedingungen und Anforderungen, die Konferenzen und Konferenzberichte bieten und präsentiert eine differenzierende Bestandsaufnahme zu den existierenden Open-Access-Optionen für Proceedings. Auf dieser Basis wird diskutiert, welche Herausforderungen und welche Chancen Proceedings für eine erfolgreiche, nachhaltige Open-Access-Transformation bieten.

      10.5281/zenodo.1441134
    • Referent/in Ulrike Kändler (Technische Informationsbibliothek (TIB), DE) Stefan Schmeja (Technische Informationsbibliothek (TIB), DE)
    • Vortrag 2 OpenIng – Open Access und Open Educational Resources in den Ingenieurwissenschaften Abstract

      Wie nutzen Ingenieurwissenschaftler_innen Open Access und Open Educational Resources und warum tun Sie es unter Umständen noch nicht? Diese Frage steht im Fokus des vom deutschen Bundesministerium für Bildung und Forschung geförderten Projekts „OpenIng“.

      Die TU Darmstadt, TU Braunschweig und Universität Stuttgart untersuchen rechtliche, organisatorische, reputationsbezogene und finanzielle Barrieren und werfen hierbei einen besonderen Blick auf die möglichen Synergien von OA und OER. Hierfür werden zwei bundesweite Befragungen durchgeführt. In einem ersten Schritt werden zentrale Ansprechpartner_innen an Hochschulen und Forschungseinrichtungen mit ingenieurwissenschaftlichen Bereichen gebeten den aktuellen Stand von OA und OER an ihrer Institution einzuschätzen und die (Nicht-)Nutzung durch Ingenieurwissenschaftler_innen zu erläutern. Hierauf folgt in einem zweiten Schritt eine Befragung der Ingenieurwissenschaftler_innen an sich.

      Die durch die beiden Einschätzungen gewonnenen Erkenntnisse werden genutzt, um neue technische und organisatorische Services, Unterstützungs- und Workshopangebote, Infomaterialien und Kommunikationskonzepte für die Ingenieurwissenschaften zu entwickeln, zu erproben und zu evaluieren – und wo sinnvoll unter der Perspektive von gemeinsamen Schnittmengen von OA und OER. Die Bereitschaft zur Veröffentlichung von Publikationen und Lehrmaterialien als OA bzw. OER soll bei den Lehrenden in den Ingenieurwissenschaften deutlich intensiviert werden.

      Im Rahmen des Vortrags werden neben einer Vorstellung des Projekts erste Befragungsergebnisse zur (Nicht-)Nutzung und Verknüpfung von Open Access und Open Educational Resources sowie erste Ansätze zu entsprechenden Workshopkonzepten für die Zielgruppe der Ingenieur_innen präsentiert.

      Die Ergebnisse der Umfrage werden zur Nachnutzung auf der Projektwebseite veröffentlicht. Die auf Basis der Befragung entwickelten Infomaterialien, Workshopkonzepte sowie Kommunikations- und Servicekonzepte werden ebenfalls unter einer CC BY Lizenz bereitgestellt.

      10.5281/zenodo.1441136
    • Referent/in Markus Weber (TU - Darmstadt, DE)
    • Vortrag 3 Open Access in the Engineering Sciences: the CESAER Task Force for Open Science (TFOS) Abstract

      The Conference of European Schools for Advanced Engineering, Education and Research (CESAER) is an association of over fifty European Technical Universities from 26 countries, mainly in Europe. Among a number of task forces, CESAER runs the Task Force for Open Science (TFOS). The Open Access Working Group within the CESAER TFOS includes representatives from TUs in ten European countries: the Netherlands, Germany, Sweden, the UK, Poland, the Czech Republic, Italy, Finland, Spain and Austria. Jointly coordinated by TIB Hannover and the University of Strathclyde, the group aims to apply a subject-based approach towards Open Access implementation that bridges the gaps across national- or institutional-level Open Access implementation policies. The presentation will describe the current work being carried out within this group and examine the specifics of Open Access in the Engineering Sciences.

      10.5281/zenodo.1441142
    • Referent/in Pablo de Castro (University of Strathclyde in Glasgow, GB)
    • Workshop 3 Erfahrungsaustausch OA-Week
    • Raum Inffeldgasse 25/D 1.OG HS i5
    • Abstract

      Viele Einrichtungen haben bereits Erfahrungen mit Aktivitäten im Rahmen der OA-Week gesammelt oder wollen hier zukünftig aktiv werden. Im Rahmen dieses interaktiven Workshops können alle Teilnehmer/innen die Interesse haben von Ihren Erfahrungen und Aktivitäten im Rahmen der OA-Week berichten, ggfs. auch Ansichtsmateterial mitrbingen und sich mit anderen austauschen, welche Angebote besonders erfolgreich sind und welche vielleicht auch nicht so gut funktionieren.

    • Spontan Session
    • Raum Inffeldgasse 25/D 1.OG HS i6
    • Spontan Session Plan S und die Open Access Policy des FWF Abstract

      Anfang September veröffentlichte die cOAlition S, eine Kerngruppe von Forschungsförderungsorganisationen, Science Europe und der Sonderbeauftragte der EU Kommission, eine gemeinsame Verpflichtungserklärung, wonach nach dem 1. Jänner 2020 Forschungsergebnisse aus öffentlichen Fördermitteln der beteiligten Forschungsförderungsorganisationen in konformen Open-Access-Zeitschriften oder auf konformen Open-Access-Plattformen veröffentlicht werden müssen. Die Initiative baut auf dem Plan S auf, der sich aus 10 Prinzipien zusammensetzt: https://www.scienceeurope.org/coalition-s/ . In dieser spontanen Session wird berichtet, inwieweit sich Plan S bereits jetzt in der Open Access Policy des österreichischen Wissenschaftsfonds FWF widerspiegelt und welche weiteren Schritte in Zukunft gesetzt werden müssen.

      10.5281/zenodo.1443185
    • Referent/in Katharina Rieck (FWF Wien, AT)
    16:00 - 16:30
    • Pause (Netzwerk-Kaffee)
    • Raum Inffeldgasse 25/D Foyer EG/1.OG
    16:30 - 18:20
    • Session 12 Monitoring (Grün)
    • Raum Inffeldgasse 25/D 1.OG HS i7
    • Vortrag 1 Wie Grün ist Berlin? Abstract

      Der Grüne Weg des Open Access ist wichtig in Berlin: viele Berliner Einrichtungen betreiben Repositorien und beraten ihre Angehörigen intensiv zur Nutzung des Grünen Wegs. Dabei geht es vor allem um Verlagsverträge, die Anwendbarkeit des gesetzlichen Zweitveröffentlichungsrechts sowie um freie Lizenzen. Eine Studie zeigt, dass ca. 10% der Zeitschriftenartikel von den publikationsstärksten Berliner Hochschulen 2016 über den Grünen Weg verfügbar waren.

      Das Open-Access-Büro Berlin stellt eine Auswahl der institutionellen Beratungs- und Unterstützungsangebote für den Grünen Weg an Universitäten und Fachhochschulen in Berlin vor. Außerdem geht es um Fördermaßnahmen, die durch das Open-Access-Büro selbst angeboten werden, u.a. die Ergebnisse eines Workshops zur Qualitätssteigerung der Berliner OPUS-Repositorien.

      10.5281/zenodo.1441174
    • Referent/in Andreas Hübner (Open-Access-Büro Berlin, DE) Christina Riesenweber (Open-Access-Büro Berlin, DE)
    • Vortrag 2 Das Open-Access-Potenzial Abstract

      Wie viel Open Access ist in einer Welt möglich, in der weder die klassischen Verlage noch die Autorinnen ihr Verhalten ändern? Wie viel Prozent der Publikationen einer wissenschaftlichen Einrichtung könnten so maximal Open Access sein? Dieser Wert wird Open-Access-Potenzial genannt. Das Open-Access-Potenzial kann durch Kombination einer Publikationsanalyse mit Informationen zum Open-Access-Status von Zeitschriften (goldener Weg) und den Embargo-Fristen für Subskriptionszeitschriften (grüner Weg) ermittelt werden. Das Open-Access-Potenzial für die eigene wissenschaftliche Einrichtung zu kennen, ermöglicht neue Ansätze zur transparenten Kommunikation mit Autorinnen und anderen Stakeholdern. Die Präsentation der Ergebnisse, insbesondere für grünen Open Access auf Zeitschriftenebene, führt Autorinnen ihr eigenes Publikationsverhalten und ihr eigenes Open-Access-Potenzial vor Augen. Zudem werden sie dadurch in die Lage versetzt, Problemstellen und Änderungspotenzial selbst zu erkennen, eine eigene Open-Access-Strategie zu entwickeln und anzugehen. Der Vortrag stellt zum einen die Erhebung des Open-Access-Potenzials vor und präsentiert zum anderen dessen Integration in die Kommunikation mit Autorinnen und anderen Stakeholdern.

      10.5281/zenodo.1441176
    • Referent/in Claudia Frick (Forschungszentrum Jülich, DE) Thomas Arndt (Forschungszentrum Jülich, DE)
    • Vortrag 3 Open Access Monitoring Östereich- Erfolge meßbar machen Abstract

      Welchen Einfluß haben Open Access Abkommen auf die Entwicklung von Open Access in Österreich? Wie stark nutzen Österreichische Wissenschaftler die Zweitpublikationen in Repositories? Diese und ähnliche Fragen lassen sich mit Hilfe eines nationalen Open Access Monitorings beantworten.

      Im Projekt "Austrian Transition to Open Access (AT2OA"" beschäftigt sich daher eine Arbeitsgruppe mit dem Them, in der sowohl Bibliotheken als auch Forschungsservices vertreten sind. In einem Workshop im April 2018 wurde mit internationalen Experten die Themen Prozesse, Metadaten sowie Open Access Definitionen diskutiert.

      In dem Projekt wurde die Classification of Open Access Tupples(COAT) entwickelt um das Problem der unterschiedlichen Definitionen der Open Access Farben angehen zu können.

      Die Möglichkeit entsprechende Daten zu liefern wurde mittels einer Umfrage unter Betreibern universitärer CRISS Systeme erhoben, wie sowohl technische als auch Inhalte Aspekte abdeckte.

      Mit Hilfe dieser Informationen wurde ein Konzept für ein österreichisches Monitoring zu Open Access entwickelt werden, das sowohl transparent nachvollziehbar und vergleichbare Daten liefert.

      10.5281/zenodo.1441180
    • Referent/in Patrick Danowski (IST Austria, AT)
    • Session 13 Aufbau einer nationalen OER-Infrastruktur am Beispiel des Open-Education-Austria-Projektes
    • Raum Inffeldgasse 25/D EG HS i3
    • Vortrag 1 OER in Österreich – ein Überblick über die nationale Strategie Abstract

      Der Verein Forum Neue Medien Austria leitet die nationale Arbeitsgruppe zu Open Educational Resources in Österreich. Diese Arbeitsgruppe setzt sich zusammen aus VertreterInnen des Bundesministeriums, von Hochschulen, Bibliotheken und weiteren Bildungseinrichtungen und hat das Ziel eine nationale Strategie zur Verwendung und Verbreitung von OER an Hochschulen auszuarbeiten. Dazu gab es in den letzten Jahre zwei wesentliche Empfehlungsschreiben die der Inhalt des Vortrages sein sollen:

      1. Empfehlungen für die Integration von Open Educational Resources an Hochschulen in Österreich: Dieses Empfehlungsschreiben dient dazu, einerseits einen kurzen Überblick über freie Bildungsressourcen (Open Educational Resources, kurz: OER) generell und speziell in Österreich zu geben, sowie andererseits Empfehlungen für die österreichische Hochschullandschaft in Bezug auf eine nachhaltige Verankerung von OER in der Bildungslandschaft auszusprechen. Es werden abschließend 6 Forderungen ausgesprochen, die notwendig sind um OER in Österreich zu etablieren.
      2. Konzept zur OER-Zertifizierung an österreichischen Hochschulen: Das Ergebnis der Arbeitsgruppe „Open Educational Resources“ ist ein Konzept zur OER-Zertifizierung an österreichischen Hochschulen. Dazu wird unterschieden in eine zweistufige Zertifizierung für Hochschullehrende und eine dreistufige Zertifizierung für Hochschulen. Der Umsetzungsvorschlag sieht dafür digitale Open Badges vor, die von einer zentralen Stelle bereits in der nächsten Leistungsvereinbarungsperiode (2019–2021) vergeben werden sollen.

      Beide Schriftstücke sind auf der Homepage des Vereins unter einer offener Lizenz veröffentlicht (http://www.fnm-austria.at). In dem Vortrag werden beide Ergebnisse vorgestellt und diskutiert, sowie die vorgeschlagene Roadmap für die Umsetzung der nationalen OER-Strategie vorgestellt.

      10.5281/zenodo.1441182
    • Referent/in Martin Ebner (TU Graz, AT)
    • Vortrag 2 Die Schnittstelle zur Übergabe von Open Educational Resources an das Bibliothekssystem und einer möglichst automatisierten Erfassung von Metadaten Abstract

      Im Rahmen des HRSM-Projekts Open Education Austria wurde eine Moodle Plugin implementiert, welches eine Schnittstelle sowie eine grafische Oberfläche bereitstellt. Dieses Plugin ermöglicht es Inhalte die mit einer Creative-Commons-Lizenz veröffentlicht wurden, aus dem Learning-Management-System der TU Graz, welches auf Moodle basiert, in das Bibliothekssystem zu übertragen. Vortragende haben so die Möglichkeit ihre Kursinhalte der breiten Öffentlichkeit zur Verfügung zu stellen. Einmal im Semester werden die OER-Inhalte in das Repositorium der Bibliothek weitergeleitet wo diese gespeichert werden und so über das Fachportal gesucht werden können.

      Über die grafische Oberfläche werden die im Kurs verfügbaren Dateien aufgelistet. Hier haben Vortragende die Möglichkeit die Metadaten der einzelnen Dateien einzusehen, sowie diese zu editieren. Ein Teil der kursspezifischen Metadaten werden aus dem Campus-Online-System der TU Graz geladen. Über die Oberflächen können die Vortragenden entscheiden welche Dateien sie unter einer Creative-Commons-Lizenz freigeben möchten beziehungsweise welche Dateien in das Repositorium hochgeladen werden.

      10.5281/zenodo.1441186
    • Referent/in Maria Haas (TU Graz, AT)
    • Vortrag 3 Die automatische Einbettung der OER in das Bibliothekssystem basierend auf dem LOM-Standard Abstract

      Im Zuge des HRSM Projektes "Open Education Austria" wird ein Prototyp entwickelt, der zum Ziel hat Open Educational Resources längerfristig in einem Bibliotheksarchiv zur Verfügung zu stellen. Der Prototyp besteht aus drei Komponenten.

      Die erste Komponente beschäftig sich mit der Aggregation der Metadaten. Dies geschieht durch Schnittstellen zum Campus-Management-System sowie persönliche Eingabe der AutorInnen. Die nächste Komponente stellt die Metadaten und die Objekte der/dem BenutzerIn zur Verfügung. Dafür werden die Metadaten in eine Metadaten-Standard konvertiert und eine Homepage erstellt, von der die Objekte heruntergeladen werden können. Die dritte und letzte Komponente ermöglicht eine Suche über die gesammelten Metadaten. Dafür überträgt das Repositorium die Metadaten an das Fachportal, das sie in einem Index zusammenführt. Um dies zu ermöglichen sind entsprechende Schnittstellen zwischen den einzelnen Komponenten notwendig.

      Der Vortrag wird darauf eingehen, welcher Standard (LOM Learning Objects Metadata) ausgewählt und warum welche Schnittstellen definiert wurden. Das Hauptaugenmerk des Vortrages liegt auf der konkreten Umsetzung dieser Entscheidungen.

      10.5281/zenodo.1441194
    • Referent/in Christoph Ladurner (TU Graz, AT)
    • Vortrag 4 Die Meta-Suchmaschine die über das e-Infrastrutcture Austria Projekt zur Verfügung gestellt wird zur Suche nach OER Abstract

      Im Zuge des HRSM Projektes 'Open Education Austria' wird ein Fachportal (Discovery Tool) entwickelt, welches Metadaten von freien Lern- und Lehrmaterialien (Open Educational Resources, OER) aus unterschiedlichen Repositorien sammelt und aufbereitet.

      Die Metadaten werden zur Volltextsuche verarbeitet und über Facettenklassifikation fachspezifisch zur Suche angeboten. Ziel ist es, digitale OER zu finden, aufzurufen, zu benutzen, sowie potentiell zu bearbeiten und in Folge in den Systemkreislauf zurückzuspielen.

      Die dem Fachportal zugrundeliegende Technologie benutzt die 'Apache Lucene' Programmbibliothek zur Volltextsuche. Der erstellte Index wird über 'Elasticsearch' zugänglich gemacht. Eine Webapplikation bildet die der Öffentlichkeit zugängliche Suchoberfläche. Ebenso sind Programmierschnittstellen vorhanden, die eine automatisierte Anbindung Dritter ermöglichen.

      Um eine möglichst große Anzahl auch technisch unterschiedlich realisierter Repositorien einbinden zu können, werden individuelle Schnittstellen entwickelt, bzw. bereits vorhandene adaptiert. Grundsätzlich soll der Aufwand zur Übertragung der Metadaten an das OEA Discovery Tool für die BetreiberInnen eines Repositoriums gering sein.

      Das Rahmenwerk des OEA Discovery Tools wurde nach Prinzipien der horizontalen Skalierung und Hochverfügbarkeit entwickelt, wodurch ein reibungsloser und dauerhafter Betrieb ermöglicht wird.

      10.5281/zenodo.1441196
    • Referent/in Raman Ganguly (Uni Wien, AT)
    • Session 14 Geschäftsmodelle für OA-Bücher in den Geisteswissenschaften
    • Raum Inffeldgasse 18 EG HS i1
    • Vortrag 1 Chancen und Herausforderungen unterschiedlicher Geschäftsmodelle beim Publizieren von Open Access Büchern Abstract

      Zusammen mit Wissenschaftlern bringen Förderer, Infrastruktureinrichtungen und die Europäische Kommission Open Access und Open Science voran und verändern damit die Wissenschaftslandschaft grundlegend. In diesem Wandlungsprozess treten unterschiedliche Herausforderungen auf, seien es im Journalbereich aggressive Vermarktungstaktiken und neue Verlierer oder zunehmende Fragmentierung der Arbeitsabläufe bei Verlagen und in Bibliotheken. Für die Geistes- und Sozialwissenschaften zeigt sich, dass der langsamere Übergang zu Open Access auch daran liegt, dass die Akteure des Publizierens in einem Koordinationsproblem stecken. Geringere Verbreitung standardisierter Prozessen im digitalen Publizieren, heterogenere Zielgruppen aufgrund kleinerer Fachcommunities, institutionelle und kommerzielle Verlage unterschiedlicher Größe und Innovationsvermögen, Monographien und Sammelbände als weiterhin zentrale Kommunikationsformen – diese Herausforderungen erschweren das reibungslose Ineinandergreifen der Akteure in der Wertschöpfungskette, die weiterhin am Printparadigma und seinen bewährten Abläufen orientiert ist. Gleichzeitig sind in den letzten Jahren diverse Verlage beim Publizieren von Open Access Büchern erfolgreich, deren Geschäfts- und Erlösmodelle unterschiedlich sind.

      Das Netzwerk OPERAS (Open Access in the European Research Area through Scholarly communication) mit 36 Partnern des elektronischen Publizierens hat zum Ziel, die Kooperation zwischen den Akteuren im wissenschaftlichen Publizieren der Geistes- und Sozialwissenschaften zu verbessern und damit den Publikationen des Bereichs zu höherem Impact zu verhelfen. Besonderer Augenmerk liegt auf Open Access Büchern und deren Produktion, Anreicherung sowie Verbreitung. 2017 haben sich OPERAS-Arbeitsgruppen[1] formiert, die für spezifische Bereiche Lösungsansätze erarbeiten.

      Wir wollen erste Ergebnisse der OPERAS Arbeitsgruppe „business models“ vorstellen, die von den Gruppenmitgliedern (darunter UCL Press, AEUP, KU und OLH) erarbeitet wurden. Dabei sind wir von den Geschäftsmodellen der OPERAS Netzwerkpartner ausgegangen und haben diese mit dem SWOT-Analysemodell (strength, weakness, opportunities, risks) untersucht. Es zeichnet sich ab, dass es etwa zehn unterschiedliche Erlösmodelle für Open Access Bücher gibt, die in der Regel bei den Akteuren (Verlagen, verlegerische Initiativen) zu einer Kombination führen, die dem Geschäftsmodell und der Mission des jeweiligen Akteurs entspricht.

      10.5281/zenodo.1441199
    • Referent/in Margo Bargheer (Niedersächsische Staats- und Universitätsbibliothek Göttingen, DE) Andrea Bertino (EU-Projekt HIRMEOS (High Integration of Research Monographs in the European Open Science infrastructure))
    • Vortrag 2 Besser als DEAL: Wie eine institutionelle Förderstruktur zu einem offenen Publikationsmarkt für OA Bücher führen kann. Drei Beispiele Abstract

      Bibliotheken, die den Titel auf dem Überweisungträger von „Abonnement“ zu „APC“ ändern? Die Open Access Transformation sollte mehr leisten als das bestehende Gefüge unter anderem Namen zu festigen. Im Bereich Open Access Buch sind die Wege noch nicht ausgetreten. Jetzt gilt es Strukturen zu schaffen, die Wettbewerb und Vielfalt zulassen.

      In dem Vortrag berichtet der Verlag Peter Lang von erfolgreichen institutionellen Finanzierungsbeispiele für Open Access Bücher:

      • Go for Gold: Erste Ergebnisse aus dem BMBF geförderten Projekt OGeSoMo der Universitätsallianz Ruhr. Hier werden Gold Open Access Publikationen von drei Verlagen institutionell finanziert, verglichen und analysiert.
      • Print goes OA: Eine Zusammenarbeit mit der ZBW zeigt, wie Titel, die bisher im Regal standen, durch eine angemessene Finanzierung den Sprung ins Netz schaffen.
      • OA framework: Welche Kriterien müssen Open Access Bücher erfüllen, damit sie ihre Finanzierung wert sind? Einblicke aus Gesprächen mit der DFG, dem Kompetenzzentrum Lizensierung Göttingen und dem nationalen Open Access Kontaktpunkt.

      Besonders in den Geisteswissenschaften sind wissenschaftliche Monographien eine viel genutzte Publikationsform, die sich zurzeit noch auf einen diversen Verlagsmarkt stützt. Diese Diversität kommt Autoren zu Gute und fördert Preiswettbewerb. Der Vortrag bietet eine Perspektive, wie Diversität in einer Open Access Welt erhalten werden kann.

      10.5281/zenodo.1441211
    • Referent/in Anne Kempen (Peter Lang GmbH, DE) Sven Fund (Knowledge Unlatched, DE)
    • Vortrag 3 Open Access aus Verlagssicht – Ergebnisse einer Umfrage Abstract

      Im Rahmen einer Umfrage zum Thema „Verlage und Open Access“ kontaktierte das Open-Access-Büro der Universität Graz im Frühjahr 2018 zahlreiche wissenschaftliche Verlage in der DACH-Region, um einen Überblick über deren Einschätzungen bezüglich Open Access, über Erfahrungen, Angebote und Überlegungen zu erhalten. Ziel war es, die Positionen wissenschaftlicher Verlage besser kennen zu lernen und damit einen Beitrag zu einem besseren Austausch zwischen Verlagen, Bibliotheken und anderen Stakeholdern zu leisten.

      Dazu wurden die Nachfrage von AutorInnen bezüglich Open-Access-Angeboten, Herausforderungen und Chancen durch Open Access aus Verlagssicht und der Investitionsbedarf für eine Umstellung auf Open Access ebenso erhoben wie die Einstellung der Verlage zur Zweitveröffentlichung wissenschaftlicher Publikationen, Einschätzungen zu Entwicklungen im Bereich des wissenschaftlichen Publizierens und die mögliche zukünftige Rolle von Verlagen.

      Der Vortrag beleuchtet die Ergebnisse dieser Umfrage und damit die Perspektive von rund 30 Verlagen im deutschsprachigen Raum, die gleichermaßen von zunehmender Marktkonzentration wie von neuen Anforderungen ihrer Stakeholder betroffen sind und darauf durchaus unterschiedlich reagieren.

      10.5281/zenodo.1441228
    • Referent/in Karin Lackner (Universität Graz, AT) Christian Kaier (Universität Graz, AT)
    • Vortrag 4 Vorstellung der Ergebnisse von OAPEN-CH Abstract

      Der Schweizerische Nationalfonds (SNF) lancierte 2014 zusammen mit der OAPEN Foundation, Wissenschaftsverlagen, Bibliotheken und Autorinnen und Autoren das Pilotprojekt OAPEN-CH. Ziel war es, Erfahrungen mit dem Publikationsprozess für wissenschaftliche Open-Access-Bücher in der Schweiz zu sammeln. Der SNF untersuchte, welchen Effekt Open Access auf die Nutzung, die Sichtbarkeit, die Reichweite und die Verkaufszahlen hat und wie die Autorinnen und Autoren Open-Access-Monographien wahrnehmen.

      Open Access hat aus Sicht einer Forschungsförderungsorganisation im Vergleich zu reinen Printpublikationen eine Reihe von positiven Effekten: Open-Access-Monographien weisen eine höhere Sichtbarkeit auf, ihre internationale Reichweite ist grösser und sie werden häufiger genutzt. Gleichzeitig lässt sich statistisch gesehen weder ein negativer noch ein positiver Effekt auf die Verkaufszahlen feststellen. Die Kosten für wissenschaftliche Open-Access-Bücher variieren zudem stark. Sie widerspiegeln die unterschiedlichen Geschäftsmodelle, Arbeitsprozesse und Budgetierungspraxen der Verlage. Die Autorinnen und Autoren bewerten Open Access auch bei Monographien positiv, wenn die Qualität mittels Peer-Review-Verfahren gesichert wird. Die Bibliotheken werden schließlich gezwungen sein, ihre Prozesse vermehrt auf Open Access auszurichten.

      10.5281/zenodo.1441238
    • Referent/in Eva Moser (Schweizerischer Nationalfonds, CH) Daniel Krämer (Schweizerischer Nationalfonds, CH)
    • Workshop 4 Set Science free - wie kann ich Open Science mit OpenAIRE Services umsetzen
    • Raum Inffeldgasse 25/D 1.OG HS i5
    • Abstract

      In diesem interaktiven Workshop lernen Open Access-Beauftragte, Repository ManagerInnen und ForschungsadministratorInnen wie sie Forschende an ihren Einrichtungen bestmöglich dabei unterstützen können, das Open Access-Mandat und den Open Data-Pilot der Europäischen Kommission umzusetzen.

      OpenAIRE bietet hierfür neben Beratung verschiedene Tools und Services für die tägliche Arbeit, die die TeilnehmerInnen im Rahmen einer interaktiven, digitalen Schnitzeljagd durch das neue OpenAIRE-Portal mit all seinen Features kennenlernen. Hierbei lösen die Teilnehmenden Aufgaben, die durch das Navigieren auf dem Portal und das Nutzen der Tools zu lösen sind. Ziel des Formats ist es, praktisches Wissen durch aktives Handeln zu erwerben und so direkt zu erfahren welche Vorteile und Funktionen das Portal bietet.

      Zudem bietet der Workshop einen kurzen aktuellen Überblick über das EU-Projekt OpenAIRE, das im Januar 2018 mit OpenAIRE Advance bereits in die 4. Förderphase gegangen ist.

      Die Infrastruktur von OpenAIRE ermöglicht als pan-europäisches Forschungsinformationssystem die Darstellung und Verknüpfung von Forschungsergebnissen und aggregiert dazu Metadaten aus Repositorien, Archiven, Journalen und anderen Infrastrukturen. Dies schafft eine erhöhte Sichtbarkeit der Forschungsergebnisse. Für Informationen und Hilfestellung rund um die Umsetzung der Kompatibilität mit dem OpenAIRE-Portal sowie zum Thema technische Neuerungen bietet sich die Gelegenheit, direkt mit dem technischen Team von OpenAIRE ins Gespräch zu kommen.

      Dem Gedanken “think global, act local” folgend, verfügt das EU-Projekt OpenAIRE über ein europaweites Netzwerk von National Open Access Desks (NOAD). Diese fungieren als lokale AnsprechpartnerInnen für die Stakeholder im Open Science-Forschungsprozess.

      Der Workshop von den NOADs der D-A-CH-Länder geleitet.

      10.5281/zenodo.1443201
    • Referent/in Olivia Kaiser (Universitätsbibliothek Wien, AT) Jessica Rex (Universität Konstanz, DE) André Hoffmann (Universitätsbibliothek Zürich, CH) Jochen Schirrwagen (Universitätsbibliothek Bielefeld, DE)
    • Tool Marktplatz
    • Raum Inffeldgasse 10 / Bibliothek
    • iMooX – Es ist Zeit, etwas Neues zu lernen Ebner, Markus (Technische Universität Graz, AT) Grandl, Maria (Technische Universität Graz, AT) Ebner, Martin (Technische Universität Graz, AT) Abstract

      iMooX wurde im Dezember 2013 von der Karl-Franzens-Universität Graz und der Technischen Universität Graz gegründet und ist Österreichs erste und bisher einzige MOOC-Plattform auf der freie und offen lizenzierte Online-Kurse als OER zu unterschiedlichen Themen angeboten werden, die allen Interessentinnen und Interessenten kostenlos, zeit- und ortsunabhängig zur Verfügung stehen. Einzig eine stabile Internetverbindung ist Voraussetzung für die Nutzung der Plattform.

      Ein MOOC (Massive Open Online Course) ist eine spezielle Form an Online-Kursen, bei der traditionelle Formen der Wissensvermittlung wie Videos, Lesematerial und Problemstellungen mit Diskussionsforen, in denen Lehrende und Lernende miteinander kommunizieren können, und Quizzes, anhand derer die Lernenden ihren Wissenserwerb überprüfen können, kombiniert werden. MOOCs eignen sich optimal, um Lerninhalte einer großen Zahl von Interessierten zeit- und ortsunabhängig näher zu bringen.

      Unser Ziel ist, universitäre und allgemeine Inhalte einer breiten Bevölkerungsschicht zugänglich zu machen und möglichst vielen die Möglichkeit zu geben, sich weiterzubilden. Dabei setzten wir ausschließlich auf offene Bildungsressourcen mit expliziter Creative-Commons-Lizenzierung. Somit sind alle Lernangebote von iMooX nicht nur kostenlos zugänglich, sondern auch frei weiter- und wiederverwendbar. Grundsätzlich kommen dabei die sogenannten Creative-Commons-Lizenzen zum Einsatz, was bedeutet, dass alle auf iMooX angebotenen Inhalte zu eigenen (Lehr-) Zwecken verwendet werden können und auch (entgeltfrei) wiederverwendet werden dürfen. Diese führte auch dazu, dass die österreichische UNESCO die Schirmherrschaft über das Projekt übernahm, da es mit deren Bildungszielen, der gezielten Verbreitung von Bildungsinhalten), übereinstimmt.

      Jedes Semester wird das Angebot der Plattform um weitere spannende Kurse ergänzt. Derzeit offerieren wir über 35 Kurse auf universitärem Niveau mit unseren 30+ Partnern (darunter 13 Hochschulen und 3 Ministerien) und zählen über 20000 Lernende auf unserer Plattform.

      Beim Markstand können Sie sich selbst von https://imoox.at/ überzeugen und in unserem kostenlosen Kursangebot stöben, sowie über die Ziele, Strategien und Erfahrungen mit MOOCs mit uns diskutieren.

      URL
    • VIPER: A visual interface to research projects for the European Open Science Cloud Kraker, Peter (Open Knowledge Maps, AT) Schramm, Maxi (Open Knowledge Maps, AT) Kittel, Christopher (Open Knowledge Maps, AT) Chamberlain, Scott (Open Knowledge Maps, AT) Arrow, Thomas (Open Knowledge Maps, AT) Abstract

      To maximise the impact of research projects, discoverability of their results is key. But with 2.4 million research projects already indexed in the EOSC via OpenAIRE, getting an overview of project outputs is a challenging task. This may lead to a situation, where it becomes almost impossible to get a complete and clear picture of what has been produced in some of the most important projects, even though the majority of their outputs are open access.

      VIPER, the Visual Project Explorer, addresses this problem. It enables funders, institutions, researchers, and other societal stakeholders to systematically explore a project’s output, and to understand its reception in different areas. In VIPER, each project is represented as a knowledge map: a visualization showing a topical clustering of a project’s publications and datasets. Users can interact with the visualization by zooming into a particular cluster and inspect the underlying outputs in detail. If a publication is open access, it can be viewed within the same interface.

      VIPER was developed by Open Knowledge Maps with funding received in the OpenAIRE Tender Calls. It is built on top of OpenAIRE’s massive open access database of research projects, publications, and datasets. We exploit a unique property of OpenAIRE data: the link between projects, publications and datasets. This enables us to realize an innovative open science application.

      While VIPER can be used on its own, project representations can also be embedded on other websites using a simple JavaScript snippet. On a project website, the visual representation can be used as an automatically updated dissemination page.

      To try out VIPER, please visit https://openknowledgemaps.org/viper

      Software license: MIT

      The sumission was created by the VIPER project team. Peter Kraker is the project lead and will be presenting the tool.

      URL
    • Publizieren mit dem Content-Management-System Drupal Arning, Ursula (ZB MED - Information Centre for Life Sciences, DE) Abstract

      Das Content-Management-System Drupal bringt die technischen Bausteine mit, die für eine wissenschaftliche Publikation unumgänglich sind: Über das Rechtesystem kann der Review-Prozess im System gesteuert und dokumentiert werden. Automatische Erinnerungen erleichtern die Kommunikation mit den Autorinnen und Autoren sowie mit den Gutachterinnen und Gutachtern. Danach können die Artikel mit einem Klick freigeschaltet werden, sind sofort weltweit sichtbar und stehen der Wissenschaftscommunity zur Verfügung. Durch die inhärente Versionierungsfunktion können einzelne Kapitel eines Buches jederzeit ohne großen Aufwand aktualisiert werden. ZB MED bereitet daher auf dem Content Management System Drupal die Publikationsplattform PUBLISSO (http://books.publisso.de) auf: Für Kongresse, Zeitschriften und Bücher. Dadurch wird eine Vernetzung zwischen den verschiedenen Publikationsarten ermöglicht, die deren Sichtbarkeit zusätzlich verstärkt. Zudem ist auch eine Crossreferenzierung durch embedded Links von der Plattform Gold auf das Fachrepositorium Lebenswissenschaften möglich. Durch die Einbindung von Videos und Audiovisuellen Materialien wird es zu einer echten „enhanced publication“.

      Nach dem erfolgreichen Aufbau wird das Publikationssystem auf einem Git zur Verfügung gestellt, so dass andere Bibliotheken, die selbst entsprechende Publikationsangebote aufbauen möchten, dies nachnutzen können.

      URL
    • DeepGreen auf dem "Tool-Marktplatz" der OA-Tage 2018, Graz (Österreich) Dierkes, Thomas (Kooperativer Bibliotheksverbund Berlin-Brandenburg (KOBV) / Zuse Institut Berlin (ZIB), DE) Abstract

      Das DFG-geförderte Projekt DeepGreen hat das Ziel, wissenschaftliche Veröffentlichungen, die lizenzrechtlich nach Embargofristen frei zugänglich gemacht werden dürfen, rechtssicher und automatisiert in den Open Access zu überführen. Der Fokus des Projektes lag in der ersten Projektphase zunächst auf den sogenannten Allianz-Lizenzen mit umfassenden Open-Access- Komponenten, welche durch die DFG gefördert und überregional verhandelt wurden.

      Im Rahmen der zweiten Förderphase von 2018-2020 strebt das Projekt DeepGreen an, einen bundesweiten, automatisierten und rechtssicheren Artikellieferdienst für wissenschaftliche Publikationen, die Open Access gestellt werden können, zu etablieren.

    • OA-EZB, ein EPrints-Plug-in zur Einbindung von OA-Rechten aus Allianz- und Nationallizenzen in institutionelle Repositorien Colin Sippl (Universität Regensburg, DE) Silke Weisheit (Universität Regensburg, DE) Gernot Deinzer (Universität Regensburg, DE) Abstract

      Open-Access-Rechte (OA-Rechte) aus Allianz-und Nationallizenzen, die in der Elektronischen Zeitschriftenbibliothek (EZB) erfasst sind, lassen sich nun in institutionelle Repositorien einbinden. Dies gelingt nun mit OA-EZB, einem eigens für die Repositoriensoftware EPrints entwickelten Plug-in, das auf die neuen OA-Schnittstellendienste der EZB zugreift.

      Dieses Plugin wurde im Rahmen des DFG-Projektes „OA-EZB: Open-Access-Services der Elektronischen Zeitschriftenbibliothek (EZB)“ an der Universitätsbibliothek Regensburg entwickelt. Es besteht aus drei Modulen, die sich getrennt voneinander konfigurieren lassen. Das erste Modul greift auf die OA-Schnittstellen der EZB zu und gibt die Informationen über hinterlegte Zweitveröffentlichungsrechte, z. B. für Allianz-Lizenzen, in einer Übersicht aus. Das zweite Modul ruft verlagsseitige OA-Policies in SHERPA/RoMEO ab. Im dritten Modul wird ein Hinweis auf das deutsche Zweitveröffentlichungsrecht gemäß Urheberrechtsgesetz ausgegeben. Im Frontend des EPrints-Repositoriums erscheinen die abgerufenen Daten aller Module an einer zuvor definierten Stelle, beispielsweise vor dem Hochladen eines Artikels.

      Somit erhalten Autoren bereits vor dem Hochladen ihrer Forschungsergebnisse alle erforderlichen Informationen in einer Übersicht, die unkompliziert über die Möglichkeiten zur Veröffentlichung in Open Access aufklärt. Damit soll die Nutzung des grünen Weges gefördert werden.

      Auf technischer Seite wurde das existierende EPrints-Plug-in für SHERPA/RoMEO (http://files.eprints.org/799/) aktualisiert und der Zugriff auf die neuen EZB-Schnittstellendienste implementiert. Die Entwicklung von OA-EZB erfolgt für EPrints der Version 3.3.16 und wird bei Abschluss unter der GPL-Lizenz auf GitHub zur freien Nutzung bereitgestellt. Für seinen Betrieb ist eine Registrierung für die API-Zugänge bei SHERPA/RoMEO und bei der EZB notwendig.

      Zur Veranschaulichung wurde eine öffentlich zugängliche Testumgebung eingerichtet, die unter https://oa-ezb.uni-regensburg.de abgerufen werden kann. Eine Anleitung befindet sich auf der Startseite. Durch den in der Testumgebung möglichen Wechsel der EZB- Institutions-ID (EZB-BIBID), zeigt sich der große Vorteil, den der Zugriff auf die in der EZB hinterlegten OA-Rechte bietet, da die Informationen sofort institutionsspezifisch für die Nutzer ausgegeben werden. Nach seiner Fertigstellung wird OA-EZB ein fester Bestandteil des Publikationsservers der Universität Regensburg.

      Link: https://oa-ezb.uni-regensburg.de
      Lizenz: GNU General Public License 3.0
      Verhältnis zur vorgestellten Software:
      Die EZB sowie die Erweiterung zur Verwaltung von National- und Allianzlizenzen wurden an der Universitätsbibliothek Regensburg entwickelt. Die Software EPrints 3.3.16, entwickelt an der University of Southampton, ist unter der GPL 3.0 frei verfügbar. Das Plug-in OA-EZB wurde an der Universitätsbibliothek Regensburg programmiert.

      URL
    • Der Altmetrics Generator “Metrician” Julius Stropel (VZG, DE) Daniel Beucke (SUB Göttingen, DE) Abstract

      Soziale Medien werden von Forschenden für Zusammenarbeit und Austausch mit Kolleginnen und Kollegen verwendet, aber auch um die breite Öffentlichkeit und Förderorganisationen auf ihre Ergebnisse aufmerksam zu machen. Darüber hinaus erhalten Forschende und Institutionen schnelles und direktes Feedback auf ihren Forschungsoutput. Für die Messung des Einflusses von wissenschaftlichen Erkenntnissen auf die Gesellschaft einerseits und die zukünftige Forschung andererseits stehen damit neben zitationsbasierten Methoden zusätzliche Wege offen. Diese alternativen Metriken - oder auch Altmetrics - werden im Rahmen des DFG-geförderten Projekt *metrics untersucht und es wird zudem exemplarisch ein Tool konzipiert und entwickelt, das Metriken für digitale Objekte (z.B. Dokumente) sammelt und aggregiert. Dabei liegt der Schwerpunkt auf alternativen Metriken aus Social-Media-Anwendungen wie Twitter, YouTube und Facebook.

      Anhand einer DOI kann “Metrician” Altmetrics anzeigen und so einen Eindruck von der Nutzung der Ressource geben. Der Vorteil von dem Tool ist die Offenheit und Transparenz im Vergleich zu ähnlichen kommerziellen Tools, bei denen nicht ersichtlich ist, was sie wie zählen. Bestehende kommerzielle Anbieter alternativer Metriken sind (teilweise) inkonsistent bzgl. der Offenheit über die Algorithmen, die sie bei der Erfassung und Verrechnung der Metriken verwenden. Oft ist nicht klar, welche konkreten Informationen aus den Abfragen bei den Anbietern verwendet und wie diese gewichtet wurden. Ein Indiz für unterschiedliche Verrechnungs-Algorithmen bzw. Abfragemethoden stellen die sich zum Teil gravierend divergierenden Metriken verschiedener Anbieter alternativen Metriken dar. Da ein Wissen über die verwendeten Algorithmen jedoch notwendig für eine sinnvolle Interpretation der Metriken ist, strahlt das Problem auch auf diese Ebene aus.

      Das Tool verwendet eine MySQL-Datenbank, in der die von den APIs der Social-Media-Anbietern erhaltenen Daten zum Teil roh und zum Teil prozessiert gespeichert werden. Jedes erfasste wissenschaftliche Werk stellt einen eindeutigen Datenbankeintrag dar, dem Informationen wie DOI, Landingpage-URL und konkrete Metriken wie z.B. die Anzahl der referierenden Tweets seit einem bestimmten Zeitpunkt zugeordnet werden.

      Beim Toolmarktplatz möchten wir unser Tool dem interessierten Publikum vorstellen und im Gespräch Verbesserungs- und Erweiterungsmöglichkeiten besprechen. Zudem wollen wir der interessierten OA-Community die Nutzung von alternativen Metriken in ihren eigenen Systemen - wie beispielsweise dem institutionellen Repositorium - nahelegen und über Vor- und auch die Nachteile sprechen.

      Link: explore.metrics.gbv.de
      Softwarelizenz: Licensed under GNU Affero General Public License (AGPL v3.0) (https://www.gnu.org/licenses/agpl-3.0.de.html)

      URL
    • Open Access Monitor Deutschland Ecker, Dirk (Forschungszentrum Jülich GmbH, DE) Abstract

      Das Projekt zu Einrichtung und Betrieb des Open Access Monitor Deutschland, gefördert durch die Allianz der Wissenschaftsorganisationen (OA2020-DE) und das BMBF (SynOA), wird zur Verbesserung der Datenlage zu Open Access in Deutschland beitragen.

      Mit dem Aufbau eines Monitorings für den Transformationsprozess von Closed Access (meist Subskriptionsausgaben) hin zu Open Access (meist Publikationsausgaben) sollen die Daten bestehender Projekte zusammengefasst, deren Datenbasis ausgeweitet und in einer abgestuften Anwenderoberfläche nutzbar gemacht werden.

      Der Monitor dient als Informationsquelle für Forschungsförderer und Bibliotheken und wird Autoren eine Grundlage für ihre Publikationsstrategie liefern. Das Tool soll Verhandlungsführer, Bibliothekare und Wissenschaftler bei der Analyse der Lizenzierungs- und Publikationssituation einzelner Einrichtungen, Konsortien oder auch auf nationaler Ebene, unterstützen. Informationswissenschaftlern werden Forschungsdaten für Studien zum wissenschaftlichen Publikationswesen verfügbar gemacht.

      Er integriert verschiedene Systeme und Datenquellen, die sich teilweise selbst noch im Aufbau befinden. Datenquellen wie Web of Science, Unpaywall, OpenCitations, Dimensions, OpenAPC, Crossref, LAS:eR, Nationaler Statistikserver und GOKb werden mittels deren API abgefragt und die Daten regelmäßig aktualisiert.

      Das Backend der Anwendung ist in C# geschrieben, ebenso der Importer, der die Quellen verarbeitet. Das Frontend ist eine Single-Page-Application (SPA) geschrieben in JavaScript, HTML und CSS unter Verwendung des SPA-Frameworks VueJS und Vuetify (Material Design Component Framework). Die Kommunikation zum Backend erfolgt via REST-Schnittstelle OData.

      In Abhängigkeit eines abgestuften Rechtemanagements, welches die Sicht auf die Datenbasis festlegt, werden zur Nutzung des Tools unterschiedliche Zugriffsschichten realisiert. D.h. nicht jeder Nutzer kann alle Daten des Open Access Monitors sehen und auswerten ? das hat inhaltliche wie auch lizenzrechtliche Gründe. Beispielsweise unterliegen Daten zu Subskriptionszahlungen oft einer vertraglichen Geheimhaltungspflicht, daher werden diese nur für die jeweilige Einrichtung sichtbar gemacht. Daten, bei denen solche Beschränkungen nicht vorliegen, werden für alle Nutzer sichtbar gemacht.

      Darüber hinaus werden Filtermöglichkeiten und Exportfunktionen bereitgestellt. Der Zugriff kann sowohl über die Webseite als auch über die zur Verfügung gestellte REST-Schnittstelle erfolgen.

      Der Open Access Monitor ist frei zugänglich und verfügbar, schränkt die Sicht auf die Daten und die REST-Schnittstelle aber anhand der Authentifizierung ein.

      Für die OA-Tage ist im Rahmen des Tool-Marktplatzes die erste öffentliche Präsentation des bis dahin entwickelten Stands der Anwendung geplant.

      Ein Link zur lauffähigen Version kann zum jetzigen Zeitpunkt aus technischen Gründen noch nicht freigegeben werden.

      Projekt-Link: http://www.fz-juelich.de/zb/DE/Leistungen/Open_Access/syn_oa_monitoring/syn_oa_monitoring_node.htm
      Zukünftiger Tool-Link: https://open-access-monitor.de

      Der OA-Monitor wird vorgestellt von Dirk Ecker, Projektmitarbeiter und Entwickler des Frontends.

      URL
    • Das Giles Ecosystem Damerow, Julia (Arizona State University, USA) Abstract

      In den Digital Humanities werden zunehmend computergestützte Methoden, wie zum Beispiel Topic Modeling oder Named Entity Recognition, auf Textkorpora angewendet, um neue Wege zur Sammlung und Analyse von Dokumenten anzubieten. Die Wissenschaftler stehen dabei häufig vor dem Problem, dass sie PDF Dokumente in reinen Text umwandeln müssen, da auch wenn Dokumente mit einer Open-Access-Lizenz verfügbar sind, meist PDF Dateien, aber keine reinen Textdateien bereitgestellt werden. Die meisten Tools benötigen diesen jedoch als Input. Zwar gibt es Programme, die PDFs in Text umwandeln können (entweder durch Extrahieren von eingebettetem Text oder mittels OCR), allerdings sind diese meist entweder proprietär oder verlangen zumindest minimale Programmier- oder Terminalkenntnisse vom einzelnen Wissenschaftler.

      Um dieses Problem zu lösen, hat die Digital Innovation Group der Arizona State University das Giles Ecosystem (kurz Giles) entwickelt. Das Giles Ecosystem ist ein verteiltes System zur Extraktion von in PDF eingebettetem Text und OCR von PDF-Dokumenten und Bildern. Es wird unter einer Open-Source-Lizenz entwickelt. Auf der einen Seite erlaubt Giles Nutzern, Dateien direkt hochzuladen. Von diesen wird dann Text extrahiert, der heruntergeladen werden kann. Auf der anderen Seite stellt das System eine API zur Verfügung, mit der andere Applikationen Dateien zur Verarbeitung an Giles schicken können. Giles eignet sich damit als Backendsystem von Dokumentenrepositorien und anderen Dateimanagementsysteme.

      Das Giles Ecosystem hat eine modulare und erweiterbare Struktur. Durch den Einsatz von Apache Kafka (einer Plattform zur Verarbeitung von Datenströmen) können zusätzliche Komponenten dem System hinzugefügt werden, ohne dass Änderungen an den Kernkomponenten notwendig sind. So gibt es beispielsweise Komponenten zur Extraktion von biologischen Artennamen aus Textdokumenten und zur Indexierung von Dokumenten in Solr. Solche zusätzlichen Komponenten können dem System optional hinzugefügt werden.

      Projekt Link: https://github.com/diging/giles-eco-giles-web

      Lizenz: MPL 2.0

      Die Einreichende (Julia Damerow) ist die leitende Entwicklerin der Software.

      URL
    • OA-Anteil bestimmen mit Python Eva Bunge (Deutsches Museum, DE) Abstract

      Das Python-Skript analysiert Artikeldaten, die aus verschiedenen Datenbanken gewonnen wurden, und identifiziert den jeweiligen Anteil an goldenem, grünem und hybriden Open Access. In der Session wird das Skript erläutert sowie exemplarisch eine Analyse durchgeführt. Interessierte werden vor Ort beim Ausprobieren unterstützt.

    • MyCoRe-Repositorien Frank Lützenkirchen (Universitätsbibliothek Duisburg-Essen, DE) Kathleen Neumann (Verbundzentrale des GBV (VZG), DE) Wiebke Oeltjen (Universität Hamburg, RRZ, MyCoRe, DE) Abstract

      MyCoRe ist ein Open-Source-Framework für Repositorien. Die Softwarebibliothek stellt ein breites Spektrum an Funktionalität zum Erschließen, Recherchieren, Veröffentlichen und Präsentieren von Metadaten und digitalen Inhalten bereit. Auf Basis des Frameworks können institutionelle oder fachliche Repositorien, Online-Archive, Bibliographien oder andere Anwendungen realisiert werden. MyCoRe-Web-Anwendungen sind individuell anpassbar, vielseitig einsetzbar und nachhaltig nutzbar.

      Im Rahmen des Tool-Marktplatzes werden besondere Funktionalitäten rund um Open-Access-Publikationen vorgestellt:

      RSS-Feeds, Datenbankabfragen nach Affiliation oder Benachrichtigungen aus ORCID können neue Publikationen der eigenen Einrichtung in externen Quellen finden und die Publikationsdaten automatisiert in das eigene Repositorium oder die Online-Bibliographie einspielen. MyCoRe verfügt weiterhin über SWORD- und REST-Schnittstellen, über die Anbieter direkt Publikationen einstellen können.

      Über die Enrichment-Resolver-Komponente werden diese Daten aus externen Quellen weiter angereichert, beispielsweise aus dem DOAJ oder dem OADOI Dienst. Sofern eine freie Lizenz ermittelt wird, kann so auch der Volltext der Publikation in das Repositorium übernommen werden.

      Die ORCID-Integration in MyCoRe ermöglicht es, Publikationsdaten zwischen dem Repositorium und den ORCID-Profilen der Wissenschaftlerinnen und Wissenschaftler zu synchronisieren (ORCID-Claiming).

      Diese Erweiterungen sollen im Rahmen von Plug-Ins für das „MyCoRe MODS Institutional Repository“ (MIR) bereitgestellt werden. MIR basiert auf dem MODS-Datenmodell und stellt alle typischen Funktionen eines institutionellen Repositoriums bereit. Die Standard-Installation eines MIR-Repositoriums ist als Demo-Anwendung unter http://www.mycore.de/mir/ verfügbar.

      Weitere MyCoRe-Anwendungen: http://www.mycore.de/applications/list.html

      MyCoRe ist als Open Source unter der GNU General Public License 3 ("GPL3") verfügbar.

      URL
    • Nachvollziehbarkeit und Reproduzierbarkeit von softwaregestützter und softwarebezogener Forschung Matthias Fratz (Universität Konstanz, DE) Stefan Kombrink (Universität Ulm, DE) Franziska Rapp (Universität Ulm, DE) Volodymyr Kushnarenko (Universität Ulm, DE) Daniel Scharon (Universität Konstanz, DE) Pia Schmücker (Universität Ulm, DE) Marcel Waldvogel (Universität Konstanz, DE) Stefan Wesner (Universität Ulm, DE) Abstract

      Das im Projekt SARA (Software Archiving of Research Artefacts) entwickelte webbasierte Tool ermöglicht eine komfortable Archivierung und Veröffentlichung von Softwareartefakten (Quellcode, Skripte etc.) aus Git Repositories (derzeit GitLab und GitHub) heraus. Forschende können ihre Projekte - ganz oder teilweise – mithilfe einer Instanz des SARA-Services in ein Git-Archiv überführen und über institutionelle Repositorien (IRs) veröffentlichen. Neben der Möglichkeit der geschlossenen Archivierung ist die Option der Veröffentlichung hervorzuheben: Mithilfe des Tools können Wissenschaftler auswählen, welche Branches eines Projekts veröffentlicht werden sollen und den Umfang selbst festlegen: es kann beispielsweise nur eine bestimmte Version eines Softwareartefakts veröffentlicht werden oder aber die gesamte Entwicklungshistorie (einschließlich aller Versionen). Auch eine Kürzung der Entwicklungshistorie auf vom Nutzer als wichtig markierte Punkte ist möglich. Das Tool stellt die Daten entsprechend der Wahl des Nutzers zusammen und archiviert sie.

      Wünscht der Nutzer eine Veröffentlichung, übermittelt das Tool Metadaten an das institutionelle Repositorium, welches der Nutzer ausgewählt hat und wofür er einen Zugang besitzen muss. Derzeit liegt der Fokus auf DSpace-basierten Repositorien, von denen mehrere Instanzen an das Tool angebunden werden können. Über individuelle Mappings können Eingabefelder im IR vorausgefüllt werden, was die weitere Bearbeitung im IR erleichtert. Erfolgreiche Veröffentlichungen sind dann über die bei IR typischen Mechanismen in anderen Nachweissystemen auffindbar, z.B. OpenAIRE, BASE, Data Cite Search, GoogleScholar, um einige Beispiele zu nennen.

      Das webbasierte Tool kann von mehreren Einrichtungen gemeinsam genutzt werden. Es trägt zu Open Science bei, indem es bereits während des Forschungsprozesses eingesetzt werden kann und über die Archivierung und Veröffentlichung von Softwareartefakten die Nachvollziehbarkeit von softwaregestützter oder softwarebezogener Forschung erleichtert.

      Link zum Projekt: https://www.forschungsdaten.info/praxis-kompakt/aktuelle-infrastrukturprojekte/fdm/sara/
      Link zur Demoversion: https://demo.sara-service.org/
      Softwarelizenz: Open Source

      URL
    • OceanTEA: Open Data Publication and Exploration of Ocean Observation Data Wilhelm Hasselbring (Kiel University, DE) Arne Johanson (Xing, Hamburg, DE) Reiner Jung (Kiel University, DE) Ingo Thomsen (Kiel University, DE) Abstract

      Observation-based marine sciences gather large amounts of time series data. For example, autonomous ocean observation systems, such as the Modular Ocean Laboratory (MoLab) [1], collect measurements on temperature, salinity, current and more which can be invaluable for answering ocean related research questions. This kind of data is usually collected and retrieved from observation instruments and subsequently stored and analyzed on local computers, which limits access and reuse of the data. Publications based on these analyses are often static, i.e. provided as PDF, and cannot be checked and repeated.

      OceanTEA addresses these limitations. It allows to curate and interactively explore observations. With this software, a researcher can explore high-dimensional time series datasets. This can be done offsite - on a ship for instance - and collected data can be integrated subsequently though upload and be made available publicly.

      We built OceanTEA using modern web technologies and a microservice architecture to alleviate scientific work and provide an extensible platform for scientists: New services tailored for additional analyses, simulations or access to external data repositories can be integrated in one joint front-end [2]. This architectural approach is not primarily intended for a centralized service but to be set up at different locations integrating different sets of tools. Our current exemplary setup (see link below) provides public access to real ocean observation time series (second tab) and interactive models on cold water corals movement (last tab) [4].

      OceanTEA is actively used at the Helmholtz Centre for Ocean Research Kiel (GEOMAR). Also, the metadata of OceanTEA data is harvested - as part of the Generic Research Data Infrastructure (GeRDI) project [3, 7]1 - to be searchable and accessible. In the future, we will extend OceanTEA in two directions: First, we aim to integrate additional interactive modeling tools and simulations [5, 6] Second, we intend to support interactive publications with an increasing set of supported services, e.g., ocean simulation services.

      Tool Details

      Demo Site: http://oceantea.uni-kiel.de
      License: Apache License 2.0
      Presenter: Support and Future Development

      Code Repositories: The OceanTEA microservices are provided in form of docker2 images, so the source code is available through multiple archives at https://github.com/a-johanson?tab=repositories - which in detail these are:

      References

      1. S. Flögel et al. "A new stand-alone modular ocean laboratory - MoLab: 100 days in an arctic cold-water coral reef". In: EMSO Meeting . 2013.
      2. A. Johanson et al. "OceanTEA: Exploring Ocean-Derived Climate Data Using Microservices". In: Proceedings of the Sixth International Workshop on Climate Informatics (CI 2016) . NCAR Technical Note NCAR/TN. Sept. 2016, pp. 25-28.
      3. R. Grunzke et al. "Challenges in Creating a Sustainable Generic Research Data Infrastructure". In: Software- technik-Trends: Vol. 37, No. 2 . Berlin: Gesellschaft für Informatik e.V., Fachgruppe PARS, 2017, pp. 74-77.
      4. A. Johanson et al. "Modeling Polyp Activity of Paragorgia arborea using Supervised Learning". In: Informatics 39 (Mai 2017). FO Sust. - Digital Ocean, pp. 109-118.
      5. A. Johanson et al. "SPRAT: A spatially-explicit marine ecosystem model based on population balance equations". In: Ecological Modelling 349 (Apr. 2017). FO Sust. - Digital Ocean, pp. 11-25.
      6. A. Johanson and W. Hasselbring. "Software Engineering for Computational Science: Past, Present, Future". In: Ecological Computing in Science & Engineering 20.2 (Mar. 2018). FO Sust. - Digital Ocean, pp. 90-109.
      7. N. T. de Sousa et al. "Designing a Generic Research Data Infrastructure Architecture with Continuous Soft- ware Engineering". In: Software Engineering Workshops 2018 . Vol. Vol-2066. CEUR Workshop Proceedings. CEUR-WS.org, Mar. 2018, pp. 85-88.

      1 Generic Research Data Infrastructure https://www.gerdi-project.eu
      2 Docker Inc. https://www.docker.com

      URL
    • Document Deposit Assistant (DDA) Gerrit Hübbers (GESIS - Leibniz-Institut für Sozialwissenschaften, DE) Abstract

      Der Document Deposit Assistant (DDA) ist eine Web-Applikation, mit der Publikationen aus Content-Provider-Quellen automatisiert geharvestet, transformiert und in ein Ziel-Repositorium eingespielt werden können.

      Der DDA arbeitet als Bindeglied zwischen Datenquellen und Repositorien und gestattet auch die Transformation und Harmonisierung von Metadaten an die individuellen Konventionen und Bedürfnisse des Repository-Betreibers.

      DDAs browser-basierte Benutzerschnittstelle erlaubt die komfortable Einrichtung und Statusüberprüfung von Quellsystemen (OAI-PMH, beliebige XML-Formate, Excel-Tabellen, unAPI), den intelligenten Bezug von PDF-Volltexten und die Einspielung in verschiedene Open-Access-Repositories wie beispielsweise DSpace.

      Durch die modulare Software-Architektur können zusätzliche Adapter programmiert werden, um so den DDA mit beliebigen weiteren Content-Provider-Schnittstellen und Repository-Distributionen kompatibel zu machen.

      Die Quelltexte des DDA ( https://git.gesis.org/dda/dda-wizard ) sind Open Source unter der Affero General Public License veröffentlicht und frei zugänglich.

      Der DDA wurde im Rahmen einer DFG-Förderung bei GESIS durch Gerrit Hübbers entwickelt.

      Unter https://dda.ssoar.info/ läuft eine produktive Instanz für das Open-Access-Repository SSOAR, für das der DDA bereits tausende zusätzliche Publikationen automatisiert eingespielt hat.

      URL
  • Spontan Session
  • Raum Inffeldgasse 25/D 1.OG HS i4
  • Spontan Session Lehrvideos als OERs Abstract

    Die Rahmenbedingungen in der Konzeptionierung, Umsetzung und Implementierung von Lehrvideos sowohl in die eigene Lehre als auch als OERs werden besprochen. Rechtliche und mediendidaktische Aspekte werden beleuchtet. Ein konkretes Good-Practice-Beispiel zeigt, wie die Produktion in einer Hochschule implementiert werden kann. Diskussionen sind sehr erwünscht!

  • Referent/in Stefanie Lietze (Fachhochschule Technikum Wien, AT)
  • ab 19:00
    • Konferenzdinner (Anmeldepflichtig - Kostenpflichtig)
    • Raum Inffeldgasse 10 / Mensa
    • Posterprämierung im Rahmen des Konferenzdinners
    • Raum Inffeldgasse 10 / Mensa

    Mittwoch 26. September 2018

    reset view
    9:30 - 11:00
    • Session 15 Transformation & Finanzierung
    • Raum Inffeldgasse 25/D 1.OG HS i7
    • Vortrag 1 Offsetting in der Praxis – ein Beispiel aus der Leibniz-Gemeinschaft Abstract

      Die Open-Access-Publikation in hybriden Zeitschriften wird zu Recht kritisiert, weil Verlage sowohl durch Publikationsgebühren, als auch durch in der Regel weiter steigende Subskriptionspreise für die Zeitschriften mehrfach verdienen. In den Sozial- und Wirtschaftswissenschaften bieten fast alle der renommierten und von den Wissenschaftler/-innen bevorzugten Fachjournale die Option, gegen die Zahlung einer Article Processing Charge einzelne Beiträge im Open Access veröffentlichen. Offsetting-Modelle für Zeitschriftenpakete stellen hier eine Möglichkeit dar, die Publikationsgebühren mit den Subskriptionskosten zu verrechnen und bieten die Chance, über Verhandlungen zu einer im Vergleich zum Status quo kostengünstigeren oder für die beteiligten Einrichtungen und Wissenschaftler-/innen vorteilhafteren Lösung zu gelangen. Sie schließen zugleich eine Lücke in der Förderung von Open Access, da die hybriden Zeitschriften bisher meist von der Finanzierung durch Publikationsfonds ausgeschlossen sind. Ziel der Offsetting-Verträge ist eine langfristige Umstellung der Geschäftsmodelle der Zeitschriften im Sinne der Open Access-Transformation.

      Nach Pilotvereinbarungen in Deutschland, Österreich, Großbritannien und den Niederlanden existiert seit 2018 auch in der Leibniz-Gemeinschaft eine erste Offsetting-Vereinbarung. Es handelt sich um einen Konsortialvertrag mit dem britischen Wissenschaftsverlag Taylor & Francis, an dem 12 Leibniz-Institute mit wirtschafts- und sozialwissenschaftlichen Forschungsbereichen teilnehmen. Die Entscheidung für die Aufnahme von Verhandlungen mit dem genannten Verlag basiert auf einer umfassenden Analyse des Publikationsaufkommens der wirtschafts- und sozialwissenschaftlichen Leibniz-Institute. Die ZBW-Leibniz-Informationszentrum Wirtschaft ist Verhandlungsführerin in dem Konsortium und koordiniert die Umsetzung der Offsetting-Vereinbarung.

      Der Vortrag behandelt den Offsetting-Vertrag im Rahmen der Open-Access-Strategie der Leibniz-Gemeinschaft. Er stellt die Konditionen des Vertrags, das Finanzierungsmodell und die praktische Abwicklung in dem Konsortium von Leibniz-Einrichtungen dar. Die Vereinbarung wird auch vor dem Hintergrund der Kritik an Offsetting-Vereinbarungen und den ersten praktischen Erfahrungen mit dem Verlag analysiert und bewertet. Ein Ausblick auf weitere Verhandlungen im Rahmen der Open-Access-Transformation in der ZBW wird den Vortrag abschließen.

      10.5281/zenodo.1441244
    • Referent/in Ralf Flohr (ZBW - Leibniz-Informationszentrum Wirtschaft, DE) Jens Lazarus (ZBW - Leibniz-Informationszentrum Wirtschaft, DE)
    • Vortrag 2 AT2OA Transition-Studie: Kalkulationsmethoden für den Ausbau von Open Access in Österreich in den nächsten Jahren Abstract

      Im Rahmen des österreichischen HRSM Projekts „Austrian Transition to Open Access“ (AT2OA) wurde ein Teilprojekt gestartet, welches sich mit Budget- und Kostenfragen eines weiteren Ausbaus von Open Access beschäftigt. In einer ersten Studie wurde der Frage nachgegangen, ob ein weiterer Ausbau von Open Access in den nächsten Jahren budgetäre Konsequenzen hat. Im Rahmen dieser Transition-Studie zu diesem Themenkomplex wurden 1) der Publikationsoutput Österreichs aufbereitet und für die Zwecke des Projekts analysiert. Diese Daten wurden in mehreren Bereichen des Projekts für Berechnungen herangezogen. Anhand der Publikationsoutput-Analyse wurden 2) Methoden entwickelt, verschiedene Ausbaustufen für einen institutionellen Publikationsfonds zu berechnen. Des weiteren wurden 3) mit der Szenario-Technik verschiedene mögliche Entwicklungen der Konsortialverträge mit Open Access-Komponenten prognostiziert. Kostenübernahmen durch Fördergeber wurden 4) exemplarisch anhand aktueller Daten des FWF in die Analysen mit einbezogen. Diese Daten wurden auch für repräsentative Berechnung von Durchschnitts-APCs herangezogen. Und 5) wurden die verschiedenen AT2OA-Förderungen zum Ausbau von Open Access in Österreich zusammenfassend dargestellt. In dem Beitrag werden die verschiedenen entwickelten Methoden und Ergebnisse dargestellt und kritisch diskutiert.

      10.5281/zenodo.1441248
    • Referent/in Georg Fessler (WU Wirtschaftsuniversität Wien, AT)
    • Vortrag 3 Forschungsförderung während der Open-Access-Transformation Abstract

      Die Deutsche Forschungsgemeinschaft unterstützt Open Access seit 2003. Open Access als Publikationsmodell wird durch die DFG gefördert mit Bezug auf seine Funktion für die Wissenschaftskommunikation. Die Position von Open Access im Wissenschaftssystem hat sich seit 2003 jedoch deutlich gewandelt. Die DFG ist zudem nur ein Akteur unter vielen, welche koordiniert an einer wissenschaftsfreundlichen Umsetzung von Open Access arbeiten müssen. Dies gilt sowohl im nationalen als auch im internationalen Kontext.

      Der geplante Beitrag beschreibt die aktuelle Situation des Open Access aus Sicht der DFG. Dazu erläutert er die förderpolitischen Erwägungen der letzten Jahre, welche die Positionierung der DFG bei der „Open-Access-Transformation“ begründen. Zudem stellt er zukünftige strategische Herausforderungen aus Sicht der DFG dar. Letztlich diskutiert er die neuen Anforderungen, die sich im Rahmen der Open-Access-Transformation an Forschungsförderer ergeben und legt den direkten und indirekten Aktionsradius im Rahmen der Transformation dar.

      10.5281/zenodo.1441252
    • Referent/in Angela Holzer (Deutsche Forschungsgemeinschaft e.V. (DFG), DE)
    • Session 16 Kritik/Reflexion
    • Raum Inffeldgasse 25/D EG HS i3
    • Vortrag 1 Der Journal Impact Factor auf dem Prüfstand: Grenzen und Potentiale in der Qualitätsbewertung von OA-Zeitschriften Abstract

      Seit vielen Jahren steht der Journal Impact Factor (JIF) sowohl methodisch als auch in Bezug auf seine Aussagekraft als Gradmesser für Qualität unter starker Kritik. Dem hohen Bekanntheitsgrad, seiner einfachen Verfügbarkeit und leichten Verständlichkeit verdankt der JIF ungeachtet aller kritischen Stimmen seine Stellung als Leitindikator in der Bewertung der (Forschungs-)Qualität von Arbeitsgruppen, einzelnen Wissenschaftler/-innen sowie Zeitschriften. Kaum ein Berufungsverfahren, das nicht auf den JIF Bezug nimmt. Aber auch viele Vorbehalte gegen das Publizieren in OA-Zeitschriften sind auf den „schlechten“ JIF dieser Zeitschriften zurückzuführen.

      Aber ist der JIF von OA-Zeitschriften tatsächlich „schlechter“ als der JIF von hybriden und subskriptionsbasierten Zeitschriften? Eignet sich der JIF, um seriöse Journale von unseriösen Journalen abgrenzen zu können? Und wie stark korrelieren der JIF und die Artikelbearbeitungsgebühren von OA-Zeitschriften miteinander: Bedeutet High-Impact zwangsweise teuer?

      Das Vortragsziel ist es, diese für die individuelle OA-Publikationsberatung und strategische OA-Ausrichtung höchst relevanten Fragen aufzugreifen, um den Diskurs über geeignete Qualitätsindikatoren von OA-Zeitschriften voranzutreiben. Auf Basis einer systematischen bibliometrischen Untersuchung werden entsprechende Antworten abgeleitet. Für diese Untersuchung wurden die Daten aus den von Thomsen Reuters/Clarivate herausgegebenen Journal Citation Reports von 2014-2016 mit aktuellen Daten aus dem DOAJ und dem Open-APC-Datensatz sowie den 2017er Daten aus Beall’s List gematcht. Abgerundet wird die 15 minütige Präsentation von einer für die OA-Beratung relevanten Gegenüberstellung der Stärken und Schwächen dieses Indikators.

      10.5281/zenodo.1441258
    • Referent/in Michael Wohlgemuth (SLUB Dresden, DE) Michaele Adam (SLUB Dresden, DE) Jutta Musiat (SLUB Dresden, DE)
    • Vortrag 2 The Matthew Effect in Open Science Abstract

      The existence of a “Matthew Effect” (a feedback loop where (dis)advantage tends to beget further (dis)advantage) in science has long been recognised. In 1968, Merton[1] proposed that already successful scientists receive disproportionately high rewards in comparison to less-famous counterparts. Subsequent studies have identified the Matthew Effect at work based on criteria like institutions, departments, geographical proximity and countries, as well as the individual attributes of researchers (e.g., race, gender). It is at work across scientific endeavours, including peer review, public engagement, article citations, funding acquisition and prestige as measured via awards/prizes.

      Open Science promises to fundamentally transform scholarship to bring greater transparency, inclusivity and participation to research processes, and increase the academic, economic and societal impact of research outputs. Yet access is not made uniform simply because resources are made available via the Internet. Re-use and participation must also be accompanied by the capacity (in terms of knowledge, skills, technological readiness and motivation) to take up these resources. Absorptive capacity varies considerably. This is true of institutions, businesses and people. Such differences are exacerbated by factors like geographic location, language abilities, technological skills, educational levels and access to basic equipment (including, e.g., Internet access). Those in possession of such capacities will remain at an advantage, with the effect that Open Science’s laudable agenda of inclusivity is put at risk by conditions of “cumulative advantage” (“Matthew Effect”).

      This presentation outlines our first findings on the extent to which Open Science practices (OA, FAIR data, open peer review, etc.) are subject to the Matthew Effect and opens up to critical discussion the extent to which current strategies for achieving Open Science may actually exacerbate or introduce inequalities.

      [1] Merton, R.K., 1968. The Matthew Effect in Science: The reward and communication systems of science are considered. Science 159, 56–63. https://doi.org/10.1126/science.159.3810.56

      10.5281/zenodo.1441267
    • Referent/in Tony Ross-Hellauer (Know-Center GmbH, AT) Bernhard Wieser (TU Graz, AT)
    • Session 17 Communities & Community-Tools
    • Raum Inffeldgasse 18 EG HS i1
    • Vortrag 1 Das Zentrale Repositorium für Open Educational Resources der Hochschulen in Baden-Württemberg (ZOERR) Abstract

      Offene Bildungsmaterialien (OER) sind im Zusammenhang mit der Entwicklung digitaler Lehrformate international seit 2002 im Gespräch. An deutschen Hochschulen gewinnen OER seit etwa 2015 an Bedeutung und geraten zunehmend auch in den Fokus der Hochschulpolitik. Die 2017 veröffentlichte „Digitalisierungsstrategie Baden-Württemberg“ (https://www.digital-bw.de/downloads/DigitalisierungsstrategieBaWue2017.pdf) enthält ein klares Bekenntnis zu OER an Schulen und Hochschulen. Im Rahmen des Förderprogramms „Digital Innovations for Smart Teaching - Better Learning“ des Ministeriums für Wissenschaft, Forschung und Kunst Baden-Württemberg wird mit dem Zentralen Repositorium für Open Educational Resources der Hochschulen in Baden-Württemberg (ZOERR) ein Dienst aufgebaut, der allen an Universitäten und Hochschulen Lehrenden zur Verfügung steht. Ziel des ZOERR ist es, offene Lehr- und Lernmaterialien von und für Hochschulen zu publizieren und zu präsentieren. Die auf dem ZOERR publizierten Materialien können heruntergeladen und weiterverwendet werden. Darüber hinaus dient das ZOERR als Kommunikationsplattform zur gemeinsamen Entwicklung von offen zugänglichen Lehr-/Lernmaterialien.

      Die Projektleitung hat die Universität Tübingen inne. Projektpartner sind die Hochschule Reutlingen, die Universität Stuttgart und die Universität Freiburg. Im Projekt werden diese Aufgabenpakete bearbeitet:

      1. Technischer Aufbau des ZOER-Repositoriums mit Hilfe der Software edu-sharing
      2. Erarbeitung eines Workflows zur Publikation von OER-Objekten inklusive der Erstellung von Metadaten und dem Nachweis in überregionalen Katalogen und Suchmaschinen
      3. Befragung zu, Aufklärung über und Werbung für OER, um die OER-Produktion zu befördern
      10.5281/zenodo.1441281
    • Referent/in Katharina Ebrecht (Hochschule Reutlingen, DE)
    • Vortrag 2 Open Educational Resources in Bibliotheken Abstract

      Lehr- und Lernmaterial frei im Netz herunterladen und unkompliziert wiederverwenden - Open Educational Resources (OER) machen das möglich. Mit der vom BMBF gestarteten Förderrichtlinie im Jahr 2016 erlangte das Thema Bekanntheit und Gehör in der deutschen Bildungslandschaft. Bibliothekare können auf vielfältige Weise zur Nutzung und Verbreitung von OER beitragen. International gehören sie zu den wichtigsten Stakeholdern. In Deutschland steht dieses Potenzial allerdings noch am Anfang seiner Entfaltung.

      Warum lohnt sich die Beschäftigung mit OER für Bibliotheken? Einerseits könnte mit der Verfügbarkeit offener Lehr-/Lernmaterialien ein neues Service-Feld entstehen, da die Nutzer*innen bei der Suche nach Literatur und anderen Informationen schon immer von Bibliotheken unterstützt wurden. Andererseits können OER aber auch für eigene Zwecke eine zentrale Stellung einnehmen: Als Bildungseinrichtungen benötigen Bibliotheken selbst Material für Schulungen und Kurse. In den meisten Fällen erstellen Bibliotheken jeweils für sich ihre Unterlagen, obwohl sich die Inhalte unabhängig vom Bibliothekstyp ähneln. Folgen Bibliothekar*innen dem Openness-Gedanken, stellen sie Ihre Ressourcen einer Community zur Verfügung und profitieren letztendlich selbst von der Möglichkeit zur Nachnutzung und Weiterentwicklung.

      Im Vortrag werden mögliche Service-Felder und Mehrwerte für die eigene Institution aufgezeigt. Best-Practice-Beispiele aus der deutschen Projektlandschaft sollen zum Nachmachen anregen. Außerdem stellt die Referentin das „OER Librarian Network: Chapter Germany“ vor, in dem sich interessierte Bibliothekare vernetzt haben und untereinander austauschen.

      10.5281/zenodo.1442562
    • Referent/in Daniela Dobeleit (SLUB Dresden, DE)
    • Vortrag 3 iMooX – eine MOOC-Plattform mit OER? Abstract

      Die TU Graz betreibt zusammen mit der Universität Graz seit 2014 die nachwievor einzige MOOC-Plattform in Österreich mit dem Namen iMooX (https://imoox.at). Hier werden freie Online-Kurse vorwiegend in deutscher Sprache frei zur Verfügung gestellt und damit dem öffentlichen Bildungsauftrag der Universität nachgekommen („Third Mission“). Darüber hinaus haben sich die beiden Universitäten dazu verpflichtet, dass sämtliche Lehr- und Lerninhalte unter einer Creative-Commons-Lizenz anzubieten sind, um eine möglichste weite Verbreitung und auch Anwendung dieser in andern Bildungskontexten zu ermöglichen. Dies unterscheidet die Plattform deutlich von ihren internationalen Konkurrenten (Udacitx, edX, ...).

      In dem Vortrag sollen mehrere Fragen angesprochen werden:

      1. Warum ist es notwendig, die Bildungsinhalte offen zu lizenzieren bzw. als OER anzubieten?
      2. Welche Effekte der Verbreitung und Anwendung der offenen Online-Kurse konnten bisher beobachtet werden?
      3. Welche Änderungen im Geschäftsmodell ergeben sich dadurch, da z. B. ein direkter Verkauf der Inhalte nicht möglich ist?

      Es sollen die bisherigen Erfahrungen und die positiven Effekte die durch OER erzielt werden übersichtlich dargestellt werden. Insbesondere zeigt sich, dass durch die offene Lizenzierung anderen Bildungsträger möglich ist, die Inhalte nicht nur zu verwenden, sondern auch mit neuen didaktischen Konzepten (z. B. Inverse Blended Learning) einzusetzen. Neben der Rechtssicherheit bilden also neue Geschäftsmodelle, neue didaktische Konzepte und neue Möglichkeiten der Verbreitung von Bildungsangeboten den Schwerpunkt des Vortrages.

      10.5281/zenodo.1464532
    • Referent/in Martin Ebner (TU Graz, AT)
    • Workshop 5 Wie kann ich an meiner Institution ein erfolgreiches OJS-Angebot umsetzen? – Strategien, Services, Aufwand, Umsetzung
    • Raum Inffeldgasse 25/D 1.OG HS i5
    • Abstract
      Abstract Bernhard Schubert (Universität Wien)

      Die Universität Wien hostet derzeit neun Zeitschriften, weitere kommen hinzu. Bernhard Schubert spricht über die in diesem Zusammenhang angebotenen Dienstleistungen und die Problematik der Migration der vorhandenen Zeitschriften von OJS 2 auf OJS 3.

      Abstract Andrea Hacker (Universität Bern)

      Die Plattform BOP Serials der UB Bern hostet derzeit neun Zeitschriften. Andrea Hacker skizziert die Dienstleistungen des Berner Open-Science-Teams im Bereich Zeitschriftenhosting und die Herausforderungen, die mit dem Update aller Journals auf OJS 3.1.1 einhergehen.

      Abstract Katrin Neumann (Max Weber Stiftung, Bonn)

      Die im Oktober 2017 bei der Universitätsbibliothek Heidelberg veröffentlichte Ausgabe des digitalen Rezensionsjournals „Francia-Recensio“, herausgegeben vom Deutschen Historischen Institut Paris, markiert das erste sichtbare Ergebnis einer fast zweijährigen Diskussions-, Konzeptions- und Umbauphase bei der Redaktion perspectiva.net. Die Redaktion hatte entschieden, ihren Zeitschriften einen individualisierten Internetauftritt zu ermöglichen, dabei eine etablierte Software wie OJS zu nutzen und für die Umsetzung eine Partnerschaft mit einer kompetenten Einrichtung zu suchen. Die Schlüssel für die Veränderungsprozesse lagen in der Modularisierung der Architektur, in der Kooperation und der Kommunikation mit der Wissenschaft.

      Abstract Anja Hühnlein et al. (Julius Kühn-Institut, Quedlinburg)

      Das Journal für Kulturpflanzen, herausgegeben vom Julius Kühn-Institut, dem Bundesforschungsinstitut für Kulturpflanzen, und publiziert vom Ulmer-Verlag, soll ab Mitte 2018 in eine reine Open-Access-Zeitschrift nach dem sog. Platin-Modell transformiert werden. Hilfreich auf diesem Weg sind die direkte finanzielle Unterstützung der Zeitschrift durch das Bundesministerium für Ernährung und Landwirtschaft und die Nutzung des Open Journal Systems (OJS, Version 3.1.1) für das Zeitschriften-Management. Die Zeitschrift soll zunächst weiterhin in gedruckter Version für Abonnenten erscheinen. Da die Auflage der Druckexemplare trotz der Open-Access-Transformation als etwa gleich bleibend erwartet wird, kann damit ein großer Teil der Kosten (Druck, Layout und Versand) gedeckt werden.

      Abstract Erich Weichselgartner (ZPID Trier)

      In den letzten Jahren hat das ZPID aus dem Stand mit OJS eine erfolgreiche Publikationsplattform für die europäische Psychologie aufgebaut (PsychOpen). Von 2012 bis 2017 gab es drei Neugründungen und vier Transfers von internationalen Fachzeitschriften mit strengem Begutachtungsverfahren (Peer Review), deren Nutzung von knapp 50.000 Volltext-Downloads im ersten Jahr auf über eine Millionen in 2017 gestiegen ist. Da sich zwischen den Zeitschriften das optische Erscheinungsbild, der Produktionsworkflow und – sachgebietsabhängig – die Datenbasis für Autoren, Gutachter und Herausgeber unterscheiden, müssen sieben OJS-Instanzen betrieben werden. Im Zuge des stetig wachsenden Erfolgs von PsychOpen erweist sich dies als nachteilig: Mit den ursprünglich für PsychOpen vorgesehenen Ressourcen lässt sich die Nachfrage nach weiteren PsychOpen-Zeitschriften nicht befriedigen, weil die Aktualisierung, Wartung und Anpassung einer zunehmenden Zahl von OJS-Instanzen sehr aufwendig ist. Deshalb ist das ZPID dabei, für neue PsychOpen-Zeitschriften eine sog. White-Label-Lösung zu testen: Ein externer Plattform-Dienstleister übernimmt den technischen Betrieb einzelner Zeitschriften nach den Spezifikationen des ZPID, das sich so auf die inhaltliche Ausgestaltung und Qualitätssicherung konzentrieren kann. Als Nebenprodukt fallen Mehrwerte wie die Versionierung mit CrossMark an.

    • Referent/in Jan Kröger (Universität Konstanz, DE)10.5281/zenodo.1443232 Andrea Hacker (Universität Bern, CH)10.5281/zenodo.1443225 Anja Hühnlein (Julius Kühn-Institut, Quedlinburg, DE)10.5281/zenodo.1443227 Kathrin Neumann (Max Weber Stiftung, Bonn, DE) Bernhard Schubert (Universität Wien, AT) Erich Weichselgartner (ZPID Trier, DE)10.5281/zenodo.1443235 Nadine Dräger-Sandowski (FU Berlin, DE)
    11:00 - 11:30
    • Pause Netzwerk-Jause
    • Raum Inffeldgasse 25/D Foyer EG/1.OG
    11:30 - 12:30
    • Keynote 3 Open Science: Where do we go from here?
    • Raum Inffeldgasse 25/D 1.OG HS i7
    • Referent/in Katja Mayer (Center for Social Innovation, Vienna, Austria)
    • Abstract

      When looking at the calendar of events under the 2018 Austrian presidency of the European Union, we get the impression Open Science is dominating the STI agenda and research policy discussions. However, when we look around us here in Austria (and in many other European countries), we see a lot of wonderful initiatives and bottom-up activities, there is commitment of policy makers and research funding and performing organisations, but the topic of Open Science is still highly distributed across institutions without a national strategy let alone a coherent legislation. Whereas there is a strong push from the EU to foster a multi-dimensional transition to Open Science, there is no common baseline for how to implement Open Science nationally.

      In my talk I will report on the outcomes of mutual learning exercise (MLE) that was set up by the Commission and 13 countries to address this. In this Open Science MLE we embraced a hands-on, ‘learning by doing’ approach supported by external expertise. Concrete examples, models, best practices and knowledge exchanges fostered broader understanding of the implications and benefits of Open Science strategies, covering key elements of the European Open Science Agenda and thus the needs for

      1. Assessing the potential of non-traditional metrics or ‘altmetrics’ while considering matters of transparency and responsibility
      2. Creating the right incentives and rewards for a range of actors to engage in Open Science activities
      3. Developing guidelines for designing and implementing national policies and cross-national cooperation for Open Science.

      Based on the outcomes of the MLE, I will then address several pressing issues and challenges of campaigning for Open Science and take up some of the topics that were discussed over the last days at this very conference, most importantly the questions, how we can ensure to measure what matters, and what is needed in terms of best practices and role models to foster a transition to Open Science that rests on close cooperation of all relevant actors in the STI ecosystem.

      10.5281/zenodo.1443171
    12:30 - 13:00
    • Verabschiedung Vorstellung Veranstaltungsort OAT 2019
    • Raum Inffeldgasse 25/D 1.OG HS i7
    13:15 - 17:00
    • KEMOE – OA Verträge (geschlossene Veranstaltung)
    • Raum Inffeldgasse 25/D 1.OG HS i5
    13:30 - 15:00
    • EPrints User Group Meeting
    • Raum Inffeldgasse 25/D 1.OG HS i6