Bereits Kunde? Jetzt einloggen.
Lesezeit ca. 9 Min.

Speicherprotokolle für Block-, File-und Object-Storage: Evolutionslehre


IT Administrator - epaper ⋅ Ausgabe 11/2020 vom 30.10.2020

Aktuelle Entwicklungen wie Computational Storage oder Storage Class Memory als künftige Hochleistungsspeicher erhalten gerade viel Aufmerksamkeit. Trotzdem ist es noch immer wichtig zu verstehen, ob und inwieweit Block- und Dateispeicher, SAN, NAS, Objektspeicher oder globale, geclusterte Filesysteme auch weiterhin eine Basis zur Entwicklung neuer Technologien darstellen - gerade um mögliche Implikationen für die eigene IT-Umgebung korrekt abschätzen zu können.


Besonders im Speicherbereich werfen Experten und Hersteller mit Abkürzungen und technischen Begrifflichkeiten um sich, und auch die ...

Artikelbild für den Artikel "Speicherprotokolle für Block-, File-und Object-Storage: Evolutionslehre" aus der Ausgabe 11/2020 von IT Administrator. Dieses epaper sofort kaufen oder online lesen mit der Zeitschriften-Flatrate United Kiosk NEWS.

Bildquelle: IT Administrator, Ausgabe 11/2020

Weiterlesen
epaper-Einzelheft 8,99€
NEWS 14 Tage gratis testen
Bereits gekauft?Anmelden & Lesen
Leseprobe: Abdruck mit freundlicher Genehmigung von IT Administrator. Alle Rechte vorbehalten.

Mehr aus dieser Ausgabe

Titelbild der Ausgabe 11/2020 von News: Preisgünstiger Vielfunker. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
News: Preisgünstiger Vielfunker
Titelbild der Ausgabe 11/2020 von Farbenfroh. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Farbenfroh
Titelbild der Ausgabe 11/2020 von Interview: »Wird Virtualisierung richtig gemacht, steigert sie die Komplexität«. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Interview: »Wird Virtualisierung richtig gemacht, steigert sie die Komplexität«
Titelbild der Ausgabe 11/2020 von IONOS Private Cloud: Trautes Heim, Cloud allein. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
IONOS Private Cloud: Trautes Heim, Cloud allein
Titelbild der Ausgabe 11/2020 von Scale Computing HC3: Quadratisch, praktisch, hochverfügbar. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
Scale Computing HC3: Quadratisch, praktisch, hochverfügbar
Titelbild der Ausgabe 11/2020 von DataCore vFilO: Gut strukturiert. Zeitschriften als Abo oder epaper bei United Kiosk online kaufen.
DataCore vFilO: Gut strukturiert
Vorheriger Artikel
Tipps, Tricks & Tools: Tipps, Tricks und Tools
aus dieser Ausgabe
Nächster Artikel Microsoft PolyBase: Datenvereinigung
aus dieser Ausgabe

... Entwicklungsdynamik scheint ungebrochen. Vor allem die Geschwindigkeit, mit der Neuerungen auf den Markt kommen, überrascht. Auf der anderen Seite sind die Storage-Protokolle, die den Datenzugriff über Block- oder File-Level garantieren, äußerst betagt. Sie stellen aber bis heute die technologischen Grundlagen bereit, um Datenspeicher überhaupt sinnvoll einsetzen zu können. Gleichzeitig taucht eine Reihe neuer Fragen auf, etwa: Kommt es irgendwann zu einem radikalen Bruch beim Transport- Layer oder existieren immer mehr Technologie- Optionen parallel, mit denen wir uns zu beschäftigen haben? Um hier eine Antwort zu finden, ist eine Einschätzung zur weiteren Entwicklung von Speicherprotokollen hilfreich.

Blockspeicher als SAN-Fundament Block Level Storage (Block Storage) ist eines der klassischen Protokolle und findet zur Datenspeicherung in Speichernetzwerken (typisch: FC-SAN) oder cloudbasierten Speicherumgebungen (typisch: iSCSI) Verwendung. Ohne Block Storage läuft in Rechenzentren nichts. Zur Funktionsweise: Die Speicherdaten werden in Blöcke aufgeteilt und diese als separate Teile mit einer spezifischen Kennung versehen. Das Speichernetzwerk platziert die Daten- blöcke dann dort, wo es für die jeweilige An wendung am effizientesten ist. Fordert ein Nutzer seine Daten anschließend von einem Blockspeichersystem an, setzt das zugrundeliegende Speichersystem die Blöcke wieder zusammen und präsentiert diese dem Benutzer und der Anwendung.

Die Blöcke sind auf verschiedenen Systemen speicherbar und jeder Block lässt sich so konfigurieren, dass er mit verschiedenen Betriebssystemen wie etwa Linux und Windows funktioniert. Auch lässt sich ein Block für NFS und einer für SMP formatieren. Die Blockspeicherung entkoppelt somit die Daten von Benutzerumgebungen, fügt also eine Abstraktionsebene ein. Weil sich die Informationen bei diesem Verfahren über mehrere Umgebungen flexibel verteilen lassen, existieren mehrere Datenzugriffs- Pfade; das erlaubt es Benutzern, sie schneller abzurufen. Prinzipiell ist dieses Verfahren aber aufwendiger als ein relativ einfach zu konfigurierendes NAS-System.

Direkt angeschlossener Speicher (DAS, Direct Attached Storage) verfügt über einige Vorteile, aber dem stehen je nach Anwendungsprofil auch Einschränkungen gegenüber. Die Vorteile betreffen je nach Implementierung über Blocklevel- Zugriff reduzierte Latenzzeiten, unkomplizierten Betrieb sowie relativ niedrige Kosten aufgrund eines begrenzten Verwaltungsaufwands. Nachteile betreffen neben der begrenzten Skalierung von Kapazität und Leistung vor allem die eingeschränkte Applikationsverfügbarkei

Um diese zu erhöhen, muss ein zweiter Host angeschlossen werden. Die Datenverfügbarkeit auf JBOD- oder Array-Ebene lässt sich durch RAID verbessern. Als gängige Protokolle finden sich im DASUmfeld neben SCSI meist SATA oder SAS. Bei DAS kontrolliert immer der Server den Zugriff auf den Speicher. Serverbased Storage ist ein wachsender Trend, den es im Zusammenhang mit NVMe- Flash, Big Data Apps, NoSQL-Datenbanken, In-Memory-Computing, KI-Anwendungen oder auch Software-defined Storage zu beobachten gilt.

Das Speichernetzwerk (SAN, Storage Area Network) ist im Gegensatz zu DAS ein spezialisiertes Hochgeschwindigkeits- Netzwerk, das den Zugriff auf die angeschlossenen Speichergeräte und deren Daten über Block Level Storage ermöglicht. Bisherige SAN-Implementierungen bestehen aus Servern/Hosts, intelligenten Switches und Speicherelementen, die über spezialisierte Protokolle wie Fibre Channel (FC) oder SCSI miteinander verbunden sind. SANs können zur Erhöhung der Business Continuity für kritische Anwendungsumgebungen mehrere Standorte umfassen.

Ein SAN präsentiert den angeschlossenen Serversystemen mithilfe von Virtualisierung den Speicher so, als wäre dieser lokal angeschlossen. Ein SANArray stellt dazu einen konsolidierten Storage-Ressourcenpool bereit, typischerweise auf Basis virtueller LUNs, die in Cluster-Umgebungen von mehreren Hosts gemeinsam als Shared Storage genutzt werden

SANs basieren meist noch auf dem Fibre- Channel-Protokoll. Aber auch Fibre- Channel-over-Ethernet (FCoE) und die Konvergenz von Speicher- und IPProtokollen über eine Verbindung sind Optionen. Es ist bei SANs möglich, Gateways zu verwenden, um bei Bedarf die Anwendungsdaten zwischen verschiedenen Speichernetzwerk-Technologien zu verschieben.

Evergreen iSCSI, Newcomer NVMe iSCSI führt das SCSI-Speicherprotokoll über eine Ethernet-Netzwerkverbindung mit TCP aus. Meist kommt iSCSI lokal oder im Private-Cloud-Umfeld für sogenannte sekundäre Blockspeicher- Anwendungen zum Einsatz, die nicht sehr geschäftskritisch sind. Wirklich kritische Applikationen benutzen in der Regel robuste und latenzarme, vom Applikationsnetz konsequent getrennte SANs auf Basis von Fibre Channel - oder bereits NVMe (Non-Volatile Memory Express) für besonders leistungsintensive I/O-Workload-Profile, doch dazu später mehr.

Hohe Datenintegrität, latenzarme Übertragungsleistung und Funktionen wie Buffer Flow Control ermöglichen es FC, kritische Unternehmensziele zu definieren und QoS-Level konsistent zu erfüllen. Das Protokoll eignet sich zudem als NVMe-Transport-Layer, da es gleichzeitig sowohl SCSI- als auch NVMe-Datenverkehr auf einer Fabric unterstützt. Bestehende Gen5- (16 GBit/s) und Gen6-FC-SANs (32 GBit/s) können FCNVMe über bestehende SAN-Fabrics mit nur geringen Änderungen betreiben, da NVMe laut FCIA alle Spezifikationen erfüllt.

Anders ist die Situation bei den Hyperscale- Rechenzentren großer Cloudanbieter, die alleine aus Kostengründen (Standardisierung, Kapazitäten et cetera) derzeit (noch) auf iSCSI-Block-Storage und Ethernet-Protokolle mit 25, 50 oder 100 GBit/s setzen, wenngleich auch hier NVMe für mehr Leistung und neue Serviceangebote attraktiver wird. Im Zusammenhang mit softwaredefinierten Infrastrukturen bleibt Ethernet aus Standardisierungs- und Kostengründen in der Breite aller Installationen auf absehbare Zeit erste Wahl.

Im hochspezialisierten HPC-Umfeld hingegen kommt on-premises häufig InfiniBand zum Einsatz, das zwar deutlich leistungsfähiger in Bezug auf Latenzzeiten und skalierbaren Durchsatz ist, aber auch mehr kostet. Zudem sind der Support von Hypervisoren und Betriebssystemen sowie Treiber und Firmware eingeschränkt. iSCSI als Block Level Storage läuft zwar am häufigsten über Ethernet mit TCP, lässt sich aber ebenso über InfiniBand aufsetzen.

iSCSI kommt auf Standardnetzwerkkarten oder speziellen Host-Bus-Adaptern zur Ausführung, entweder über iSER (iSCSI Extensions for RDMA) oder mithilfe einer TCP-Offload-Engine, die zum Beschleunigen der Datenübertragung nicht nur das IP-Protokoll, sondern auch Teile des SCSI-Protokollstacks implementiert hat. Durch den Einsatz von Netzwerkadaptern für I/O-Performance- Zwecke mit iSCSI-Hardware-Offload und/oder TCP-Offload-Engine beschleunigt, wurde die Workload-Unterstützung von iSCSI erweitert. Im ersten Fall lagert der Host-Bus-Adapter alle iSCSI-Initiatorfunktionen von der Host-CPU aus. Im zweiten Fall lagert der Adapter die TCP-Verarbeitung vom Server-Kernel und der CPU aus. Der wichtigste Vorteil von iSCSI in der Praxis ist, dass alle gängigen Betriebssysteme beziehungsweise Hypervisor-Implementierungen und Storage- Systeme es unterstützen. Dies trifft derzeit noch nicht für NVMeOF zu.

NVMeOF setzt auf Block Level Storage NVMe sowie NVMeOF (NVMe Over Fabrics) sind als I/O-Protokolle beim Overhead deutlich schlanker als SCSI beziehungsweise iSCSI und damit auch schneller. Kommt es auf deutlich mehr Leistung in Form von geringsten Latenzen beim I/O an, ist NVMe das optimierte Protokoll für die Serververbindung mit nativem PCIe-Flash-Storage über Direct Attached Storage.

NVMeOF als skalierbare Netzwerkvariante ermöglicht es, Daten über ein Speichernetz auf Basis von Ethernet (die entsprechenden Protokolle heißen RoCE oder iWARP), Fibre Channel oder Infini Band zwischen Hosts und Flash-Storage zu übertragen. Derzeit gilt: Wie bei iSER (iSCSI Extensions for RDMA) können NVMeOF-Ethernet-RDMA-Endknoten derzeit nur mit anderen NVMeOF-Ethernet- Endknoten zusammenarbeiten, die denselben Ethernet-RDMA-Transport unterstützen. NVMeOF-Endknoten sind nicht in der Lage, mit iSCSI- oder iSEREndknoten zusammenzuarbeiten

NVMe(OF) eliminiert SCSI als Protokoll und verfügt über geringere Latenzen als iSCSI. Während Festplatten- und SSD-Arrays oft noch das gängige SCSI-Protokoll verwenden, ist ohne SCSI-Overhead die Leistung drastisch verbessert. Beispiel: Command Queuing bei SCSI unterstützt nur eine Warteschlange für I/O-Befehle, während NVMe bis zu 64.000 erlaubt. Jede Warteschlange ihrerseits kann bis zu 64.000 Befehle gleichzeitig bedienen. Zusätzlich vereinfacht NVMe die Befehle auf der Grundlage von 13 spezifischen NVMe- Command-Sets, die auf die besonderen Anforderungen von NVM-Devices hin entwickelt wurden. Die Latenzzeiten für NVMe lagen bereits bei Einführung der Technologie rund 200 Mikrosekunden unter denen von 12-GBit-SAS. Zudem war es möglich, durch den effizienteren Befehlssatz die CPU-Belastung um mehr als 50 Prozent gegenüber SCSI zu reduzieren. Ähnlich verhält es sich bei sequenziellen Reads und Writes: Durch die hohe Bandbreite lassen sich in der Regel bei sequenziellen Lese- und Schreibvorgängen sechsbis achtmal höhere I/O-Performancewerte im Vergleich zu SATA-SSDs erzielen.

Auf NVMeOF basierender Block Storage lässt sich über Ethernet-TCP/IP, Fibre Channel, Ethernet RDMA oder Infini- Band-Fabrics implementieren. Die RDMAOption stellt die höchste Leistung bereit, aber alle Versionen von NVMeOF sind bereits schneller als iSCSI. Ein Grund, weshalb die Anbieter von Flash-Storage beginnen, verstärkt auf NVMeOF umzustellen. Es wird sich letztlich zeigen, welche Technologie-Optionen sich über die Zeit auf breiter Front durchsetzen. In weiterer Arbeit befindliche NVMeOF/ RDMA-Varianten sind iWARP, IB, NVMe TCP sowie RoCEv2 ("Rocky").

Zukunft von Block Level Storage Auf den ersten Blick mag die Frage nach der Zukunft von Blockspeicher im Kontext der bisherigen Ausführungen vielleicht merkwürdig klingen, doch ist sie auf längere Sicht hin im Sinne der eingangs erwähnten Innovationsdynamik berechtigt. Der Grund ist simpel: Wenn wir das extrem schnelle Wachstum von semi- und unstrukturierten Daten analysieren, stellen wir fest, dass IoT- und KI/ML-Daten, Videodateien, Bild- und Audiofiles et cetera überproportional zunehmen.

Und diese Entwicklung ist erst der Anfang einer fast explosionsartigen Entwicklung. Laut IDC könnten bis zum Jahr 2024 über 80 Prozent aller weltweit gespeicherten Daten in Archiven vorliegen. Wenn damit also die Nutzung von File- und Objektspeicher- Systemen weiterhin deutlich schneller anwächst als bei iSCSI-, FC- und NVMe-basiertem Block-Level-Storage, würde das nicht ohne Konsequenzen für die Weiterentwicklung und das potenzielle Marktwachstum solcher Systeme bleiben

Anderseits zeigt die bisherige Erfahrung, dass komplementäre Technologien von wenigen Ausnahmen abgesehen über eine längere oder gar sehr lange Zeit am Markt koexistieren, nicht zuletzt um radikale Brüche in der kritischen IT-Infrastruktur zu vermeiden. In der Zwischenzeit besteht natürlich eine relativ hohe Wahrscheinlichkeit, dass NVMeOF das iSCSI-Protokoll für den Hochleistungs-Blockspeicherzugriff auf Flashmedien verdrängen wird, während gleichzeitig die zunehmende Bedeutung von File- und Object-Storage sowohl Block-Storage-basierte FC-SANs als auch iSCSI-Speichernetze negativ berührt. Dieser Trend ist heute bereits sichtbar.

Vor- und Nachteile von NAS und Objektspeichern File-basierte Systeme, als DAS-Lösung oder als Speichernetzwerk (NAS) konfiguriert, sind einfach zu implementieren und zu betreiben; das erklärt ihre große Beliebtheit seit Jahrzehnten. Allerdings lassen sich Dateispeicher (Filer) nur durch Hinzufügen weiterer Systeme und nicht etwa durch einfaches Hinzufügen von mehr Kapazität beliebig skalieren. Der inhärente Nachteil von NAS-Ansätzen besteht in der fast linearen Zunahme von Komplexität & Kosten bei stark steigenden unstrukturierten Daten.

Ein Grund dafür ist, dass mit gängigen NAS-Systemen die Daten innerhalb einer festen Ordnerhierarchie organisiert sind, deren Pfade schnell komplex und lang ausfallen. Die Architektur ist deshalb für rapide wachsende unstrukturierte Datenmengen im zweistelligen Multi-Peta - byte- oder Exabyte-Bereich kaum geeignet. Deshalb geht seit einiger Zeit bereits eine Entwicklung in Richtung geclusterter Scale-out-Dateisysteme. Generell stellen hochleistungsfähige Filesysteme die Plattform für skalierbare Speicherinfrastrukturen dar, egal ob als Software-defined Storage wie etwa Ceph auf Open-Source- Basis oder als herstellerspezifische Implementierung, von denen sich heute zahlreiche am Markt befinden.

Objektbasierte Speicher verfügen im Gegensatz zu NAS über eine flache Struktur zur Datenverwaltung. Dateien werden dazu in einzelne Bereiche aufgeteilt und über Serversysteme (Nodes) verteilt. Diese Objekte liegen nicht als Dateien in Ordnern oder gar Blöcken auf Servern, sondern in einem Repository und sind mit den dazugehörigen Metadaten verknüpft (Global Namespace Architecture). Dies ermöglicht die Skalierung auf sehr große Datenmengen und ist ideal zur Ablage von unstrukturierten Datenformaten. Allerdings ist Object Storage nicht für klassische Datenbankumgebungen geeignet, denn das Schreiben dauert im Vergleich zu Block-Storage viel zu lange. Auch die native Programmierung einer cloudbasierten Anwendung im Zusammenspiel mit S3 als Object-Storage- API ist mitunter wesentlich komplexer als die Verwendung von File Storage.

Der Speicher wird "unified" Globale Dateisystem-Implementierungen gehen einen Schritt weiter und sind per se als hybrider Cloud-Storage konzipiert. Während die Cloud als zentrales Daten- Repository zum Einsatz kommt, stellt sich das System logisch so dar, als handele es sich um ein NAS-System vor Ort. Dieser Ansatz bietet Kostenvorteile gegenüber herkömmlichen On-Premises-Lösungen, ebenso wie im Vergleich zu gängigen Public- Cloud-Speichern. Leistungsfähige globale Dateisysteme sind heute bereits in der Lage, Filedaten in der Cloud als Objekte zu speichern. Dieser Ansatz ermöglicht es Anwendern, auf Files so zuzugreifen, wie sie es mit einem Standard-NAS tun würden, während gleichzeitig der Großteil der Daten auf einem kostenoptimierten, hochskalierbaren Objekt-Backend liegt.

Die Einschränkungen traditioneller NASund SAN-Systeme für die genannten Workloads veranlassen Unternehmen heute zunehmend, nach objektbasierten Speicherlösungen zu suchen, die (globale) Dateisystemfunktionen unterstützen. Eine objektbasierte Speicherlösung mit integrierten nativen File-Management- Funktionen macht den Übergang vom NAS zum Objektspeicher daher interessant und eröffnet eine Fülle neuer Anwendungsmöglichkeiten, vom Backup und Disaster Recovery über Compliance-konforme Archivierung bis hin zu hochsicheren, zentral konsolidierten Clouddiensten für den weltweiten Filezugriff und Dateisynchronisation. Im Vergleich zu den Dateidiensten großer Cloudanbieter sind diese dann eine echte wirtschaftliche Alternative und führen im Idealfall zu einer höheren Akzeptanz der IT im Unternehmen.

Fazit Entwickler und Anwender fordern von der IT-Infrastruktur heute mehr Flexibilität, Leistung und Verfügbarkeit. Grund ist die zunehmende Dynamik im Bereich von neuen Applikationen, Datenformaten, Benutzern und sich verändernden Work-load- Profilen, wie sie im Zuge der Digitalisierung von IoT- oder KI-Projekten ausgehen. Mit dem starken Anwachsen von semi- und unstrukturierten Datensätzen in Multi-Petabyte- Größenordnungen stößt die klassische SAN- und NAS-Architektur an technische und auch wirtschaftliche Grenzen.

Die genannten Speicherprotokolle werden davon natürlich unterschiedlich betroffen sein und es dürfte maßgeblich auch davon abhängen, welche Anwendungsfälle auf lange Sicht dominieren. Aber eines ist klar: Die Konsolidierung auf Systemarchitekturen mit integrierten "Unified"- Cloud-Protokollfähigkeiten (File, Block, Objekt) auf Basis softwaredefinierter Plattformen und unter Verwendung von geclusterten Dateisystemen wird sich verstärkt fortsetzen. (ln)


Quelle: choneschones - 123RF