Hochschule & Forschung Differenzieren über Zugriff und Verfügbarkeit

Autor / Redakteur: Dirk M. Moeller* / Susanne Ehneß

Der digitale Wandel verändert die Universitätslandschaft, denn Universitäten in Deutschland gehen ihn in unterschiedlichem Tempo an. So wird der Wettbewerb um Forschungsgelder, Prestige und Studenten noch härter. Der Weg zur digitalen Spitze in diesem Wettbewerb führt über eine IT-Infrastruktur, die Services und Daten hochverfügbar in Lehre, Verwaltung und Forschung bereitstellt. Ein Gastbeitrag von Dirk M. Moeller von NetApp.

Firmen zum Thema

In der Lehre bleibt das volle Potenzial digitaler Medien oft noch ungenutzt
In der Lehre bleibt das volle Potenzial digitaler Medien oft noch ungenutzt
(© kasto - stock.adobe.com)

Treiben Hochschulen in Deutschland den digitalen Wandel an, oder verharren sie in der Lehre und Forschung in „Old-School-Mustern“? Für den Personaldienstleister Univativ, der 900 Studenten zur Lehre befragt hat, fällt die Antwort eindeutig aus: 91 Prozent der Studenten sehen akuten Nachholbedarf. Die vorhandenen Basics wie eMails, Campus-WLAN, Universitäts-Webseite, Downloads von Vorlesungsskripten und Präsentationen, Zugang zu Online-Bibliotheken ergänzen vielerorts zwar Lernplattformen wie Moodle. Wünsche nach Streaming von Vorlesungen oder Vorlesungen per Videotelefonie verhallen meistens noch.

Dieser Einschätzung widerspricht teilweise der „Monitor digitale Bildung“ der Bertelsmann-Stiftung. Danach sind die meisten Hochschulen in Deutschland technisch gut ausgerüstet. Die Erhebung moniert jedoch, dass in der Lehre das volle Potenzial digitaler Medien oft ungenutzt bleibt.

Vernetzen und eine Diskussion anstoßen will seit September 2017 das „Hochschulforum Digitalisierung“. Die unabhängige nationale Plattform hat dazu 20 Thesen verfasst. Der Tenor: Digitalisierung differenziert das Hochschulsystem, wofür jedoch die strukturellen und strategischen Voraussetzungen zu schaffen sind. Nehmen Universitäten diese Hürden, erhalten sie die Chance, sich über neue Geschäftsmodelle eigene Finanzierungsquellen zu erschließen.

Performance an ­Hochschulen

Soweit die digitale Theorie, die in unterschiedlichem Maße im Universitäts-Alltag von Lehre, Verwaltung und Forschung angekommen ist. Es fällt zumindest auf, dass sich insbesondere die Zusammenarbeit verändert. Das Anpassen an die Gewohnheiten verschiedener Nutzergruppen, vor allem Professoren und Studenten, gelingt nur über das Modernisieren der IT-Infrastruktur – wie der Blick nach Bayern verrät. Dort hat eine Universität im Sommer 2017 Microsoft ­Exchange eingeführt. Damit Studenten und Universitätsmitarbeiter das Messaging-System auch nutzen können, war es jedoch nötig, ein leistungsstarkes Storage-System zu installieren. „All Flash FAS (AFF) A200“ bietet an zwei Standorten die gewünschte Performance für das digitale Kommunizieren und Zusammenarbeiten.

Der Bedarf, den die IT an einer Hochschule allein für Verwaltung decken muss, steigt ständig. Genauso wie Unternehmen kämpfen Universitäten damit, dass sich bei ihnen über die Jahre eine heterogene IT-Landschaft entwickelt hat. Stößt nun die Hochschul-IT an ­Kapazitätsgrenzen, besteht die Chance, die IT-Services für die Hochschulverwaltung zu konsolidieren und so vorhandene Kapazitäten effizienter auszulasten. In der Praxis bewährt hat sich beispielsweise eine FlexPod-Datacenter-Lösung von NetApp. Diese Plattform hilft, dass ein Universitätsrechenzentrum die nötige ­Performance und Skalierbarkeit – unter anderem für SAP HANA – liefert. Die in dieser Lösung verbauten Komponenten vom Server über Switche und Speicher bis hin zur Virtualisierungstechnik der Hersteller Cisco, NetApp und VMware sind aufeinander abgestimmt. So profitiert eine Universität in Nordrhein-Westfalen nun von seiner flexiblen IT-Architektur, weil diese stärker skalierbar ist. Effizienz sowie Leistungsfähigkeit der IT steigt daneben genauso wie die Ausfallsicherheit der Systeme.

Praxistaugliche ­Fileservices

Zur gängigen Praxis zählt, dass Universitäten einen zentralen Fileservice aufgebaut haben, auf den Mitarbeiter, Studenten und Gäste zugreifen können. So stellt eine Universität in Sachsen seit einigen Jahren den Fileservice über Netzwerkfestplattenspeicher bereit, wobei das Sichern der Daten an einem Primär- und Sekundärstandort erfolgt. Parallel betreiben die Fakultäten noch eigene Fileserver. Diese heterogene Speicherlandschaft liefert zwar einen sehr guten native Network File Service (NFS), bescherte allerdings für den Datenzugriff über Netzwerkverbindungen mehr Administrationsaufwand, um das Netzwerkprotokoll CIFS (Common Internet File System) mit SAMBA umzusetzen.

Nachdem zwei hochverfügbare ­NetApp FAS6280 Cluster mit zwei Köpfen für den Primär- und Sekundärstandort die alten Speicher abgelöst hatten, stand in jedem Rechenzentrum netto ein Petabyte Speicherkapazität bereit. Der Abgleich der neuen performanten und skalierbaren Systeme erfolgt mit SnapMirrow, sodass beide Systeme stets auf dem gleichen Stand sind. Die Snapshot-Funktionalität gestattet Anwendern, versehentlich gelöschte Daten selbst wiederherzustellen.

Generell lässt sich mit Fileservern bis zu einem bestimmten Grad das Datenmanagement in der Forschung übernehmen, indem man Gruppenlaufwerke einrichtet und Zugangsberechtigungen vergibt. Verlässt ein Mitarbeiter die Hochschule, können vielleicht Kollegen noch auf die Forschungsergebnisse zugreifen. Aber irgendwann weiß niemand mehr, wofür bestimmte Datensätze stehen. Eine Metadatensuche würde dem entgegenwirken, doch die fehlt in der Regel. Das Implementieren von Such-Tools stößt schnell an Grenzen.

Auf der nächsten Seite: Content-Speicher, automatisierte Metadatenerstellung & Fazit.

Alternative: Content-Speicher

Die Alternative zum Fileserver stellen Content-Speicher dar, die Forschungsdaten speichern. Das funktioniert unabhängig von Berechtigungen. Der Anspruch muss sein, zu einem Forschungsthema über eine semantische Suche à la Google auch nach fünf Jahren sofort die relevanten Datensätze zu finden. Dieses schnelle Wiederfinden setzt Metadaten voraus. Außerdem sollten IT-Verantwortliche an Universitäten bedenken: Mit Fileservern ist es nicht möglich, Milliarden von Files und hunderte von Terabytes langfristig zu archivieren. Außerdem kommt ein File künftig auf einen Lebenszyklus von 10, 20 oder 30 Jahren, den die darunterliegende Technik, also der Fileserver, nicht mehr gewährleisten kann.

Automatisierte ­Metadatenerstellung

Jede Fakultät, jedes Institut forscht, erhebt Daten und formuliert Anforderungen an das Verwalten der Information. Die Vorstellungen zu Schlagwörtern und Themengruppierungen gehen oft schon innerhalb von Forschungsgruppen weit auseinander. In der Konsequenz bräuchte man mehr und frei definierbare Felder sowie längere Texte. Allerdings herrscht oft Mangel an Personal, das die Schlagwörter einpflegt.

Erschwerend kommt gerade für das Management von Forschungsdaten ein Aspekt hinzu. der zu lösen ist: Eine Universität lebt von ihren Studenten, die zu Forschern werden und promovieren. Doch nach der Doktorarbeit ist in der Regel an dieser Erst-Hochschule Schluss. Der Promovierte zieht zur nächsten Forschungsstätte weiter, die er dann verlässt, wenn seine Post-Doc-Stelle ausläuft. Die Daten seiner Forschung bleiben ­hingegen. Diese Fluktuation im Forschungsbetrieb macht es nicht einfach, ein Forschungsdaten­management aufzusetzen, das die Datenverfügbarkeit garantiert und das Finden bestimmter Ergebnisse vereinfacht. Erste Lösungsansätze­ gibt es bereits.

Im Fokus steht die Metadatenanreicherung aus Datensätzen, wofür ein Automatismus bereits bei der Datenerhebung anhand der Datenquelle Metadaten erzeugt. In der Astrophysik gibt es Beispiele, dass es funktioniert. Auch Genomforscher haben das „Metadaten-Rätsel“ zum Teil sehr gut automatisiert gelöst.

Im Gesundheitswesen – im Bereich von sogenannten bildgebenden Verfahren – gewinnt der Einsatz selbstlernender Algorithmen immer mehr an Bedeutung. Diese werten Datensätze aus und suchen nach Krankheitsmustern, geben Handlungsempfehlungen oder schlagen im Verdachtsfall früh­zeitig Alarm.

Etablierte Player wie IBM oder ­Toshiba nutzen hier Cloud-basierte Software-Lösungen, um zwei- oder dreidimensionale Bilder von Organen oder Strukturen der Patienten auszuwerten. Aufgrund der großen Menge an Vergleichsdaten können die Systeme so Krankheitsmuster erkennen, die dem menschlichen Auge verborgen bleiben.

Alle Branchen haben dabei eines gemein: Das Speichern der Daten fällt leicht. Herausfordernd gestaltet sich jedoch, eine sinnvolle Nachnutzung zu gewährleisten – über nachhaltiges Speichern. Selbst wenn eine Staatsbibliothek theologisches Wissen der vergangenen zwei Jahrtausende scannt, bewährt sich der Einsatz eines Algorithmus, um den digitalen Inhalt effizient zu verschlagworten.

In bestimmten Forschungsgebieten ergeben sich heute sehr hohe Anforderungen, welche die IT-­Infrastruktur erfüllen muss. Das gilt speziell für die Genomsequenzierung, in der tausende Wissenschaftler in Forschungsverbünden kooperieren. In dem Fall benötigen die Forscher rund um die Uhr den Zugriff auf eine gemeinsame Softwareplattform. Für das Bearbeiten der riesigen Datensätze muss die Plattform Analyse-Tools und benutzerfreundliche Visualisierungsinstrumente bieten. Der erste Lösungsansatz kann darin bestehen, die IT-Architektur zu ­virtualisieren, was sich mit OpenStack- und VMware-Plattformen sowie Docker-Software-Container realisieren lässt.

Damit alle laufenden Projekte nun mit einem 24/7-Zugriff gehostet sind, die steigende Nachfrage und zu erwartenden Lastspitzen gedeckt werden, muss die Speicherlandschaft die Virtualisierung absichern. Eine „Scale-Out All Flash“-Lösung eignet sich in so einer Umgebung am besten, um eine hochverfügbare wie skalierbare Softwareplattform zu betreiben und die dazu nötigen sehr guten I/O-Werten zu liefern.

Digital differenzieren

Universitäten müssen eine solide wie stabile IT-Umgebung aufbauen, die ihnen IT-Services agil, hochverfügbar und skalierbar bereitstellt. So lassen sich die Aufgaben in der Hochschulverwaltung, Lehre und Forschung erfüllen. Performante Speichersysteme legen die Basis, um vor allem ein effizientes Datenmanagement in der Forschung zu etablieren. Gefragt ist ein nachhaltiges Speichern, das ­archiviert und darüber hinaus die Datenverfügbarkeit in den Fokus rückt.

Dirk M. Moeller
Dirk M. Moeller
(© JR 2017)

Die automatisierte Metadaten­anreicherung in Content-Speichersystemen versetzt Universitäten in die Lage, sich von anderen Lehr- und Forschungseinrichtungen ­abzuheben.

Diesen Differenzierungswett­bewerb forciert die Digitalisierung in der deutschen Hochschullandschaft, die sich in die moderne ­Gesellschaft einmischen muss. In dieser entscheiden der Zugriff und die Verfügbarkeit der Information über den Erfolg.

*Der Autor: Dirk M. Moeller, Director Sales Public Sector Germany bei NetApp

(ID:45215757)