Big-Data-Hochleistungsrechner

IBM verzehnfacht die Computerleistung beim US-Energieministerium

| Redakteur: Ulrike Ostler

Die Forschungsinstitute bieten Wissenschaftlern aus verschiedenen Fachgebieten sowie Behörden und Unternehmen die Möglichkeit, die Systeme zur Beantwortung unterschiedlichster wissenschaftlicher und technischer Fragestellungen zu nutzen. Durch den neuen Ansatz können die Installationen nicht mehr nur klassisch wissenschaftliche Daten modellieren und simulieren, sondern ihre Rechenleistung auch für hochkomplexe Datensätze beispielsweise aus dem Gesundheitswesen oder der Betriebs- und Finanzwirtschaft zur Verfügung stellen.

Offene Architektur mit Open Power

Die wachsende Notwendigkeit, große Datenmengen und verschiedenartige Daten zu erfassen, zu managen und zu analysieren, macht es zunehmend erforderlich, die traditionelle Computerarchitektur durch offene Plattformen zu ergänzen oder zu ersetzen. Organisationen müssen die Herausforderungen, die diese Datenflut an sie stellen, ganzheitlich betrachten: angefangen vom Design eines Computersystems bis hin dazu, wie Daten genutzt werden sollen. Dies bedeutet, dass alle Schritte des Analyseprozesses von der Datengenerierung, über die Aufbereitung bis hin zur Auswertung betrachtet werden.

Durch den Einsatz der Open-Power-Technik in einem modular integrierten System werden beide Forschungszentren in der Lage sein, die Supercomputer entsprechend den spezifischen zukünftigen Anforderungen anzupassen. Nvidia, Gründungsmitglied der Open-Power-Initiative, hat in Zusammenarbeit mit IBM die so genannte „NV-Link“-Technik entwickelt, die es CPUs und GPUs ermöglicht, die Daten fünf- bis zwölfmal schneller zwischen den entsprechenden Prozessoren zu bewegen.

Nvidia NV-Link im Bund mit IBM-Power-CPUs

Nvidia NV-Link werden in IBM-Power-CPUs integriert werden, und die nächste Generation der Nvidia-GPUs wird auf der „Volta“-Architektur basieren – und so Sierra und Summit eine bisher unerreichte Leistungskapazität ermöglichen. Gemeinsam mit Mellanox wird IBM außerdem einen so genannten intelligenten Interconnect implementieren, um die Datenverarbeitung innerhalb der Systeme weiter zu optimieren.

Tom Rosamilia, Senior Vice President, IBM Systems and Technology Group, bewertet die Bekanntgaben des Auftragseingangs wie folgt: „Die heutige Ankündigung markiert eine Abkehr vom traditionellen Supercomputing, das mit der wachsenden Datenflut nur noch unzureichend Schritt halten kann. Der datenzentrische Ansatz von IBM ist aus unserer Sicht das neue Paradigma in diesem Bereich: offene Computerplattformen, die in der Lage sind, mit den wachsenden Datenmengen umzugehen.“

Die datenzentrische Technik für jedermann

Er setzt für das Otto-Normal-Enterprise hinzu: „Was die beiden Systeme zudem besonders macht: Die Kerntechnologien sind bereits heute für Unternehmen und Organisationen unterschiedlichster Größen und aus unterschiedlichsten Industriezweigen verfügbar.“ IBM biete heute schon datenzentrische Technologien für seine Kunden an: „IBM Power 8“, „IBM Elastic Storage Server“, „IBM Elastic Storage Software“ basierend auf der „General Parallel File System“-Technologie sowie „IBM Platform Computing Software“.

Teile des Systems für das Energieministerium der USA gibt es bereits.
Teile des Systems für das Energieministerium der USA gibt es bereits. (Bild: IBM)

IBM Research wird zukünftig mit Lawrence Livermore und Oak Ridge zusammenarbeiten, um die bestmöglichen Tools und Technologien für die beiden Computersysteme zu entwickeln, um so die Leistung der Systeme zu optimieren. An der Entwicklung von Applikationen für datenzentrische Systeme werden auch Wissenschaftler des deutschen IBM Forschungs- und Entwicklungszentrum in Böblingen sowie von IBM Research Zürich in Rüschlikon beteiligt sein.

Die Inbetriebnahme beider Rechner ist für 2017 beziehungsweise 2018 geplant.

Big Data: Ein Milliarden-Dollar-Markt kann kein Fehler sein

Analystenmeinungen zu Big Data

Big Data: Ein Milliarden-Dollar-Markt kann kein Fehler sein

20.08.14 - Selbst die großen Analystenhäuser tun sich mit dem Thema Big Data/Analytics schwer. Das eine kämpft sich durch multidimensionale Funktionalitäten, das andere fragt sich, ob in den großen Datenmengen noch unbekanntes Wissen der Menschheit begraben liegt. Eine langsame Annäherung an ein polarisierendes Thema. lesen

Inhalt des Artikels:

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
Kommentar abschicken
copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de/ (ID: 43075118 / Commerce & Procurement)