Suchen

Trends und Konzepte Platz da für neue Speichertechnologien

Autor / Redakteur: Dr. Stefan Riedl / Susanne Ehneß

Der weltweite Speicherbedarf wächst massiv. Abhilfe können nur größere und schnellere Massenspeicher bringen. Auch in der Cloud ist jede Menge Platz für Daten, wobei die Skepsis hier mitunter groß ist.

Firmen zum Thema

(Bild: Cake78_Fotolia.com)

Lange Zeit war es still an der Speicherfront: SSDs wurden zwar immer wieder etwas größer und günstiger, aber große Technologiesprünge fanden nicht statt. Ähnlich bei den mechanischen Festplatten, deren Kapazitätswachstum seit dem Durchbrechen der Terabyte-Grenze immer langsamer vonstatten ging. Dann brachte HGST mit der Helium-Technik etwas Bewegung in die Sache.

10-TB-Platten dank SMR

Mit der 10-Terabyte-HDD – einer 3,5-Zoll-Platte – beschritt HGST neue Wege. Die Platte verwendet mit Shingled Magnetic Recording (SMR) ein neues Aufzeichnungsverfahren, um diese enorme Kapazität zu erreichen. Bei SMR wird der Abstand zwischen den auf den Platten konzentrisch angeordneten Datenspuren so weit verkleinert, dass sie sich wie Dachschindeln – englisch „shingle“ – teilweise überdecken. So bekommt man mehr Spuren auf der Magnetscheibe unter. Das erhöht die Kapazität.

Da das Leseelement bei heute üblichen Schreib-Lese-Köpfen kleiner als das Schreibelement ist, können die sich überlappenden Spuren trotzdem noch gelesen werden. Denn interessant ist nur der schmale­ Teil der Spur, auf dem die Daten liegen.

Problematisch wird es aber beim Schreiben. Denn hier wird durch das größere Schreibelement auch ein Teil der nebenliegenden Spur überschrieben. Die auf ihr liegenden Daten würden zerstört.

Um das zu verhindern, werden bei SMR-Platten die Daten in sogenannten Bändern organisiert. Ein Band besteht aus mehreren, sich überlappenden Spuren. Die Bänder selbst überlappen sich nicht. Beim Schreiben von Daten werden immer komplette Bänder überschrieben. Die Schreibperformance sinkt dadurch natürlich drastisch.

Daher sollen ähnliche Verfahren wie bei SSDs, wo ja auch blockweise geschrieben wird, den Effekt mindern. Die kommende 10-Tera­byte-SMR-Platte von HGST ist zusätzlich noch mit Helium gefüllt. Das erlaubt mehr Magnetplatten im Gehäuse als bei herkömmlichen HDDs mit Luft im Gehäuse.

Was kommt danach?

Der nächste Schritt nach SMR ist Heat Assisted Magnetic Recording (HAMR) mit einem Laser im Schreibkopf der Festplatte. Mit HAMR soll auch bei HDDs mit ­hoher Kapazität eine hohe Schreibperformance möglich sein. Allerdings kann es bis zur Serienreife noch dauern. Denn die HAMR-Technik hat noch Probleme.

Eines davon ist das Abführen der Wärme des Lasers, ein anderes das ­Verdampfen des notwendigen Schmiermittels auf der Platten­oberfläche. Seagate will das mittels Nanokohlenstoffröhrchen lösen, die als Schmiermittelreservoir dienen.

Einen noch größeren Schub in der Plattenkapazität verspricht Bit Patterned Media (BPM) mit extrem kleinen magnetischen Inseln aus Nanopartikeln für das Speichern von Daten. Laut Brendan Collins, Vice President für Produktmarketing bei HGST, hat man dort den 10-Nanometer-Meilenstein erreicht, der die Datendichte heutiger Festplatten verdoppeln wird. Vor 2020 dürften aber keine BPM-Platten serienreif sein.

Bitte lesen Sie auf der nächsten Seite weiter.

3D-NAND

Für SSDs mit höherer Kapazität wächst Flash-Speicher in die dritte Dimension, wie bei der Samsung SSD 850 Pro. Bei der hier verwendeten 3D-V-NAND-Technologie werden statt planarer Flash-Zellen solche mit 3D-Charge-Trap-Flash-Technologie eingesetzt. Diese zylindrischen Strukturen werden gestapelt. Bei der 850 Pro bestehen die Flash-Speicher aus 32 Lagen. So können trotz 40-Nanometer-Fertigung Chips mit hoher Kapazität und langer Haltbarkeit hergestellt werden. Für höhere Kapazitäten werden zusätzliche Lagen eingesetzt.

Zudem ist bei den Strukturbreiten wieder Luft nach unten. Bei herkömmlichen planaren Flash-Speichern ist man dagegen jetzt bereits bei 16 Nanometern angekommen. Eine höhere Kapazität ist hier nur durch noch feinere Strukturen möglich. Die treiben aber die Fertigungskosten in die Höhe, und auch die Lebensdauer der Flash-Zellen leidet.

Allerdings ist die Umstellung auf 3D-NAND zunächst ebenfalls sehr teuer, da viele neue Maschinen für die Fertigung angeschafft werden müssen und die Fertigung komplex ist.

Samsung hat zwar einen deutlichen Vorsprung bei 3D-Flash, aber auch andere Hersteller arbeiten an eigenen Lösungen. So hat Toshiba gerade mit dem Bau einer Fabrik für 3D-NAND-Chips begonnen, die ab Anfang 2016 produzieren soll. Diese Fabrik ersetzt die bisherige Fab 2 für herkömmlichen Flash-Speicher und entsteht in Kooperation mit Sandisk. Micron will früher mit 3D-NAND an den Start gehen, schweigt sich aber über die technischen Details aus.

SK Hynix verspricht eine Massenfertigung seiner 3D-Technologie für das zweite Halbjahr 2015. Die Ablösung für NAND kann mit dem Schritt zu 3D-Flash-Speichern zwar noch auf sich warten lassen, einige Firmen arbeiten aber trotzdem schon an neuen Technologien für nichtflüchtigen Speicher. ­Einer der Kandidaten ist Resistive Random Access Memory (RRAM oder ReRAM). Die kalifornische Firma Crossbar verspricht für die Zukunft 3D-ReRAM-Chips, die 20-fach schneller als NAND-Flash-Chips sein sollen.

„Herkömmliche“ SSD

Insgesamt lässt sich feststellen, dass sich insbesondere auf Servern SSDs bereits 2014 durchsetzen konnten. „Vielen Kunden blieb auch keine andere Wahl, denn als Bootmedien geeignete HDDs unter 500 GByte waren schon im vergangenen Jahr kaum noch erhältlich“, so Florian Hettenbach, der für das Business Development bei der Thomas-Krenn AG zuständig ist. Zumindest die Systemadministratoren wird es freuen, so Hettenbach, „ist doch bei Verwaltungsaufgaben die Zeitersparnis beträchtlich, wenn das Betriebssystem auf SSD liegt“.

Bei externen Storage-Arrays seien hingegen hybride Systeme die Regel. Laut Hettenbach gelang den Herstellern nicht immer, gute Argumente für deren offensichtlich höheren Preise oder sogar für All-Flash-Arrays zu finden. Denn nicht jeder Anwender ist unbedingt auf die höhere Geschwindigkeit angewiesen. Dank der Entwicklung der Triple-Level-Cell-Technologie (TLC) sowie 3D-NAND werde die Preisuntergrenze weiter sinken und damit Flash endgültig zum Mainstream werden lassen.

Der Business-Development-Spezialist sieht für das laufende Jahr darüber hinaus, dass Virtualisierung der große Motor im Storage-Bereich ist und bleibt (siehe „Ergänzendes zum Thema“).

Cloud Computing bleibt ein Mega-Trend, und Speicher-Dienste vom Backup-Service bis hin zur gemeinsamen, cloudbasierten Collaboration-Lösung sind aus der IT-Branche nicht mehr wegzudenken.

Bitte lesen Sie auf der nächsten Seite weiter.

Cloud-Hemmnisse

Aber die erhöhte Sensibilisierung auf Datensicherheit seit Snowden hat auch Auswirkungen. Die Experton Group sieht vor diesem Hintergrund wesentliche Hemmnisse für Cloud-Services. Sie liegen ursächlich vor allem in den Befürchtungen, die Kontrolle über Daten zu verlieren, wenn diese in eine Cloud ausgelagert werden.

Viele fühlen sich den hohen Datenschutz-Anforderungen nicht gewachsen: Die Verantwortung für den Schutz personenbezogener Daten verbleibt beim Auftraggeber und wird nicht etwa vom Cloud-Provider übernommen. So will es das Bundesdatenschutzgesetz.

Die Nationale Initiative für Informations- und Internet-Sicherheit e.V. (NIFIS) ist in der Studie „IT-Sicherheitstrends 2015“ zu folgenden Ergebnissen gekommen: Die deutsche Wirtschaft habe der Wirtschaftsspionage demnach den Kampf angesagt. 81 Prozent der Unternehmen in Deutschland verstärken die Maßnahmen, um sich vor Ausspähung zu schützen. Prism und dessen Nachfolge-Skandale hätten demnach 88 Prozent der deutschen Wirtschaft in puncto Datenschutz sensibilisiert.

Laut NIFIS-Studie gehen mit dem erhöhten Sicherheitsbedürfnis ­Forderungen von mehr als zwei Dritteln der deutschen Wirtschaft (69 Prozent) nach mehr Sicherheit beim Nutzen von Cloud Computing einher.

Damit verbunden machen 77 Prozent der Unternehmen die Auswahl der Cloud-Anbieter davon abhängig, welchen Datenschutzgesetzen sie unterliegen.

(ID:43760384)