Storage Management (nur Folien)

Download Report

Transcript Storage Management (nur Folien)

Storage Management
Inhalt
•
•
•
•
•
•
•
•
•
Disksubsysteme
I/O-Techniken
Speichervirtualisierung
Einsatz von Speichernetzen
Filesysteme
Backup, Recovery, Archivierung
Business Continuity
Hochverfügbarkeit
Sicherheit im SAN
Disksubsysteme
•
•
•
•
Architektur von Disksubsystemen
JBOD
RAID-Systeme und RAID-Level
Intelligente Disksubsysteme (Instant
Copies, Remote Mirroring)
Disksubsysteme
• Serverzentrierte Architektur
• Speicherzentrierte Architektur
Disksubsysteme
• Der interne Aufbau eines Disksubsystems
bleibt dem angeschlossenen Rechner
verborgen
• Anschlüsse (Ports) z.B. SCSI, Fibre
Channel, iSCSI
• Ein Controller realisiert den Zugriff auf die
internen Festplatten
• Ein Cache kann die Zugriffe
beschleunigen
Disksubsysteme
• Viele kleine Platten: hohe Performance
• Große Platten: hohe Kapazität
• Freie Ressourcen können nach Bedarf an
die angeschlossenen Rechner verteilt
werden
Disksubsysteme
• JBOD (Just a Bunch of Disks): die Platten
werden vom Rechner als eigenständige
Geräte mit eigenen Adressen erkannt
(meist kein Controller)
• Einfachere Handhabung im Gegensatz zu
einzelnen Geräten
Disksubsysteme
• Disksubsysteme mit RAID-Controller fassen
die physikalischen Festplatten zu einer
virtuellen Festplatte zusammen
• RAID: Redundant Array of Independent
Disks
• Nur die virtuelle Festplatte ist für den/die
Server sichtbar
• Technische Vorteile: keine Beschränkungen
bzgl. der Anzahl der Geräte, keine
Begrenzung von Partitionsgrößen durch
RAID-Systeme
• RAID-Systeme können die Performance
und/oder die Ausfallsicherheit im Vergleich
mit einer einzelnen Festplatte erhöhen
• Der Server speichert die Daten auf der
virtuellen Festplatte, erst der Controller
verteilt die Daten auf verschiedene Weise
auf die physikalischen Platten
• Hierzu sind sog. RAID-Levels definiert
RAID-Systeme
• Ausfallsicherheit durch Redundanz
• Rekonstruktion der verlorenen Daten aus
den verbliebenen
• Mit Hot Spare Disks kann dies ohne Unterbrechung im laufenden Betrieb geschehen
RAID-Level 0
• RAID 0 erhöht die Performance (Schreib/Lesegeschwindigkeit im Vergleich zu
einer einzelnen Festplatte)
• Bietet keine Redundanz
• Verteilt die Daten blockweise auf mehrere
physikalische Platten (Data Striping)
• Vorteil: der Rechner schickt die Daten mit
der Geschwindigkeit des Datenbusses,
der Con-troller verteilt die Daten auf die
Platten
RAID-Level 1
• Erhöhung der Ausfallsicherheit durch
Spiegelung der Platten (Data Mirroring)
• Der Controller dupliziert die Datenblöcke
und schreibt Kopien parallel auf zwei
Platten
• Vorteil: beim Ausfall einer Platte wird der
Be-trieb nicht beeinträchtigt, LeseOperationen können auf beide Platten
verteilt werden
• Nachteil: es wird für die virtuelle Platte die
RAID 0+1 und RAID 10
• Vereinigung der Konzepte von RAID 0 und
RAID 1
• RAID 0+1: Bildung eines RAID 0 (Striping)
aus mehreren physikalischen Platten,
dann Duplizierung des RAID 0 in einem
RAID 1
• RAID 10: aus jeweils zwei phys. Platten
werden mehrere RAID 1 gebildet, dann
Striping der Blöcke per RAID 0
RAID 0+1 und RAID 10
• Beide Level erzeugen eine große, schnelle
und ausfallsichere virtuelle Festplatte
• RAID 10 bietet eine etwas höhere Ausfallsicherheit
• Vorteil beider Level: funktionsfähiges
System u.U. sogar beim Ausfall mehrerer
Platten
• Nachteil: hohe Kosten
RAID-Level 2
• RAID 2 hat heute keine praktische
Bedeutung mehr
• Ziel: Korrektur von einzelnen Bitfehlern
• Fortlaufendes bitweises Striping
• Berechnung eines Hamming-Codes zur
Fehlerkorrektur, der auf weiteren Platten
abgelegt wird
RAID-Level 3
• Ähnlich wie RAID 2, aber byteweises
Striping
• Berechnung einer einfachen Parität
• Der Paritätswert wird auf einer weiteren
Platte gespeichert
• Vorteil: beim Ausfall einer (beliebigen)
Platte können die Daten aus den
verbliebenen Platten rekonstruiert werden
• Nachteil: langsam wegen Parity-
RAID-Level 4
• Wie RAID 3, aber blockweises Schreiben
• Beim Lesen etwas effizienter als RAID 3
• RAID 3 und RAID 4-Systeme sind heute in
der Praxis unüblich
RAID 5
• Blockweises Striping über alle Platten
• Verteilung der Parity-Blöcke über alle
Platten
• Beim Ausfall einer Platte:
Wiederherstellung der Daten aus den
Parity- bzw. Datenblöcken der anderen
Platten
• Guter Kompromis aus Redundanz,
Schreib-geschwindigkeit und Kosten
RAID 6
• wie Raid 5, jedoch zwei unabhängige Prüfsummen (Double Parity)
• Vorteil schnelleres Recovery, hohe
Sicherheit
• Nachteil: Schreibgeschwindigkeit,
doppelte Write Penalty
weitere RAID-Level
•
•
•
•
Hot Spare
RAID 7
RAID 6 mit eigenen Parity-Platten
Kombinationen, z.B. RAID5+0, RAID 5+1,
RAID 53
• Fast alle proprietären RAID-Level sind
Kombinationen aus den Basis-Leveln
RAID Implementationen
• Software (oft RAID 0, 1, 5)
– Vorteile: kostengünstig, RAID-Verbünde auch
über Partitionen, mehrere RAID-Level parallel
– Nachteile: sehr schlechte Performance, ggf.
Probleme beim Booten
• Hardware
– Vorteile: oft sehr gute Performance, keine
Probleme beim Booten, z.T. batteriegepufferte I/O-Caches, ggf. Hot Swapping
möglich
– Nachteile: hohe Kosten, oft „sehr prorietär“
Intelligente Disksubsysteme
•
•
•
•
•
Festplatten-Cache
Cache des RAID-Controllers
Caching beim Schreiben
Caching beim Lesen
Allgemeiner Vorteil des Cachings: der Bus
ist schneller wieder frei
Intelligente Disksubsysteme
• Instant Copies: sehr schnell angelegte
virtuelle Kopien (Erzeugung von
Testdaten, Archivierung/Backup, Data
Mining
• Varianten:
– Incremental Instant Copy
– Umkehrung der Instant Copy
– Space effincient Instant Copy
Intelligente Disksubsysteme
• Remote Mirroring: Spiegelung der Daten
auf ein entferntes zweites Disksubsystem
• zu unterscheiden:
– Synchrones Remote Mirroring
– Asynchrones Remote Mirroring
• Konsistenzgruppen
• Write Order Consistency
IDE/ATA
• Integrated Disc Electronics (IDE)
• Advanced Technology Attachement (ATA)
• Verlagerung des Festplattencontrollers in
die Laufwerkselektronik
• Die Normierung der IDE-Schnittstelle ist
der ATA-Standard
• Die IDE-Schnittstelle kann ein (Master)
oder zwei (Slave) Geräte bedienen
IDE/ATA
• IDE/ATA ist eine parallele Übertragungstechnik mit 16 Bit Datenbreite und einem
40-poligen (bis 33 MB/s) bzw. 80-poligen
Kabel (UltraDMA, ab 66 MB/s)
• Kabellänge: max. 46 cm (UltraDMA)
• Als Bus-Technik für größere Speicheranwendungen nicht geeignet
Serial ATA
• Bei SATA wird eine serielle Übertragungstechnik verwendet (bei höheren
Geschwindig-keiten ist der Datenfluss kaum
synchron zu halten)
• Jedes Gerät hat einen eigenen Anschluss
• Entfernungen: 1 m (SATA), bis 8 m
(xSATA)
• Geschwindigkeiten: 150 MB/s (SATA), 300
MB/s (SATA Rev. 2), zukünftig 600 MB/s
ATAoE
• Spezielle Technik: ATA over Ethernet
• ATAoE verpackt die SATA/ATAKommandos in Ethernet-Rahmen
• Eine Alternative zu iSCSI
– Vorteil: weniger Overhead, da weder IP noch
TCP genutzt wird
– Nachteil: nicht route-bar (nur Schicht 2)
SAS
• Serial Attached SCSI
• Verwendung des SCSI-Protokolls mit veränderter physikalischer und elektrischer
Verbindungstechnik
• Dünnere Kabel, geringerer
Energieverbrauch, aber erheblich höhere
Taktraten
• Physikalisches Medium ähnlich wie SATA
(SATA-Laufwerke können an SAS-Schnittstellen angeschlossenen werden)
SAS
• Übertragungsrate SAS-1: 3 Gbps
(entspricht wegen 8B/10B-Codierung 300
MB/s)
• Anschluss von bis zu 128 Geräten an
einen Expander (Switch), bei FanoutExpandern (hierarchisches System) bis zu
16384
• Höhere Verfügbarkeit mit doppelter
Schnittstelle
SCSI
• Small Computer System Interface (SCSI)
• Geräteunabhängiges I/O-System
• Das SCSI-Protokoll definiert Regeln zur
Realisierung dieses I/O-Pfades
• Technische Umsetzung mittels SCSI-Bus,
alternativ SAN oder iSCSI
SCSI
• Der I/O-Pfad ist an den internen Host-I/OBus (meistens PCI) angeschlossen, die
Kommu-nikation erfolgt über Gerätetreiber
• Protokolle für Device Driver außer SCSI
z.B. Firewire, HIPPI, IDE/ATA, SATA,
SAS, USB
SCSI
• Historie:
– SCSI-1 (1986) 5 MB/s
– SCSI-2 (1989) 10 MB/s
– Ultra-SCSI (1992) 20-40 MB/s
– SCSI-3 (1993) Bündelung verschiedener
Normen
– Ultra-2-SCSI (1997) 40-80 MB/s
– Ultra-160 (1999) 160 MB/s
– Ultra-320 (202) 320 MB/s
SCSI
• Versions-Überblick
Version
MB/s
Busbreite
Gerätezahl
SE
HVD
LVD
SCSI-2
5
8
8
6m
25 m
-
UW-SCSI
40
16
4-8
bis 3 m
-
-
UW-SCSI
40
16
16
-
25 m
-
UW2SCSI
80
16
16
-
25 m
12 m
U160
160
16
16
-
-
12 m
U320
320
16
16
-
-
12 m
SE: Single-ended, LVD: Low Voltage Differential, HVD: High Voltage Differential
SCSI
• Installation (parallel) mittels DaisyChaining und aktiver/passiver
Terminierung an beiden Enden
• Adressierung: Controller-ID, Target-ID,
LUN
• Höchste Priorität hat Target-ID 7
• Es sind diverse (meistens nicht
kompatible) interne und externe Kabelund Stecker-Typen definiert
SCSI
• SCSI und Speichernetze
– Auch wenn der parallele SCSI-Bus zunächst
eine reine DAS-Technik ist, können prinzipiell
mehrere Server an einen Bus angeschlossen
werden
– In der Praxis: twin-tailed-Verkabelungen in
Heart-Beat-Clustern
– Nur eine einfache Vorstufe zu einem hochverfügbaren Speichernetzwerk
SCSI
• Konfiguration HBA
– SCSI-ID
– SCAM
– SCSI Disconnect
– Start-Unit Kommando
– Ultra-SCSI und synchroner Transfer (veraltet)
• Konfiguration Geräte
– SCSI-ID
– Terminierung
– Startup-Delay
SCSI
• Signale am 68-poligen Wide-SCSI LVDKabel (34 Adernpaare):
– 16 Datenleitungen
– 9 Steuersignale (u.a. Busy, Select, Reset, Data,
ACK)
– 2 Spannungsversorgung aktiver Terminatoren
– 2 Paritätssignale
– 3 Masse
– 1 reserviert
– 1 DIFF_SENSE (SE-Geräte am LVD-Kabel)
SCSI
• Bus-Phasen
– Bus Free: kein Gerät belegt den Bus
– Arbitration: Aushandlung, welches Gerät den
Bus erhält
– Selection: Herstellung der Verbindung
zwischen Initiator und Target
– Message-Out, z.B. Fehlermeldungen, Task
Ab-bruch, Disconnect, Optionen, Parityfehler,
LUN
SCSI
• Command Phase
• Data in/out: Austausch von Steuer- bzw.
Nutzdaten
• Status Phase: Meldungen nach
Beendigung oder Abbruch eines
Kommandos
• Message-In: Meldungen vom Target
SCSI
• SCSI-Kommandos
– Prinzipieller Aufbau: Opcode, KommandoParameter, Steuerbyte
– SCSI unterstützt verschiedene Typen von
Geräten (Geräteklassen), für die es
unterschiedlich aufgebaute Komandos gibt
(Festplatten, Band-laufwerke, CD/DVD,
Optische Medien, Medien-wechsler,
Kartenleser, Drucker, Storage-ArrayController, Gehäusedienste)
SCSI
• SCSI-Kernkommandos (für
blockorientierte Geräte)
– Opcode: das eigentliche Kommando
– LUN (nur SCSI-1)
– Block-Nr. (adressierter Block)
– Datenlänge
– Steuerbyte
SCSI
• Allgemeine Kommandos
– INQUIRY (Informationsabfrage)
– TEST UNIT READY
– REQUEST SENSE (Anforderung von
Zustandsdaten)
– MODE SELECT / MODE SENSE: einstellen
bzw. abrufen der Gerätecharakteristik
SCSI
• Kommandos für blockorientierte Geräte
z.B.
– READ CAPACITY
– READ und WRITE
– FORMAT UNIT
SCSI
• Kommandos für flussorientierte Geräte
– Bandlaufwerke, allgemein: Geräte mit
sequentiellem Zugriff
– REWIND
– READ und READ REVERSE
– WRITE
– SPACE
– LOAD UNLOAD
Fibre Channel
• Ursprünglich als Netzwerktechnik
entwickelt
• Heute eine Technik für Storage Area
Networks (SAN)
• Entwurfsziele: serielle Übertragung, große
Entfernungen, geringe Fehlerrate und
Verzögerung
• FC ist lediglich eine Übertragungstechnik,
kennt jedoch keine höheren Protokolle
Fibre Channel
• höhere Protokolle z.B. IP oder SCSI
• FC ist eine Art „Datenkanal“ (mit Übertragungsraten bis zu 4 Gbps (400 MB/s))
mit den Eigenschaften eines I/O-Buses
• Der FC-Protokollturm besteht aus 5 Leveln
sowie den ULP
Fibre Channel Protokollturm
ULP
Upper Layer Protocols
FC-Level 4
Schnittstelle zu ULP
FC-Level 3
vorges. u.a. für Komprimierung,
Verschlüsselung
FC-Level 2
Rahmenstruktur, Dienstklassen, Adressierung
… 1
FC-Level
Kodierungsverfahren 8b/10b
FC-Level 0
Physikalisches Interface
Fibre Channel
• Topologien:
– Point-toPoint
– Arbitrated Loop
– Switched Fabric
Fibre Channel
• Port-Typen
– N_Port (Node) Endgeräte in einer Fabric
– F_Port (Fabric) Gegenstück zum N_Port
– L_Port (Loop) Port im Loop
– NL_Port: Fähigkeiten von N_ und L_Port
– FL_Port: Verbindung von Fabric und Loop
– E_Port (Expansion) Verbindung zweier
Switches
– G_Port (Generic) automatische Konfiguration
– B_Port (Bridge) WAN-Verbindung zweier
FC-Level 0
• FC-0 definiert das physikalische Medium
• Kabel: LWL (MMF und SMF), Kupfer nur
für sehr kurze Entfernungen
• Stecker: heute LC üblich (oft mit SFPs),
bei älteren Geräten auch ST oder SC
• Übertragungsraten: 100, 200, 400 MB/s
sowie 1 GB/s für Switch-Verbindungen
FC-Level 1
• Kodierung der Daten (8b/10b-Kodierung)
• Sender und Empfänger müssen ihre
Taktraten synchronisieren
• Die 8b/10b-Kodierung löst das Problem
ohne zu großen Overhead
FC-Level 1
• 8b/10b-Kodierung
– Verwendung von zwei Teil-Kodierern (3b/4b
und 5b/6b)
– Beide Kodierer verwenden feste
Kodiertabellen
– Der 5b/6b-Kodierer wandelt die 32 möglichen
5-Bit-Symbole in 18 sog. „gleichstromneutrale“ 6-Bit-Symbole um
– Die verbleibenden 5-Bit-Zeichen werden in
jeweils zwei mögliche Symbole mit entweder
zwei oder vier Einsen kodiert
FC-Level 1
– Für die Zeichen mit vier Einsen und zwei
Nullen ist die sog. „Running Disparity“ (RD)
negativ, positiv im Fall zwei Einsen und vier
Nullen
– Der 3b/4b-Kodierer verfährt ähnlich es gibt
vier gleichstromneutrale Zeichen und vier mit
RD= -1 bzw. RD= +1
– Die 6-Bit bzw. 4-Bit-Zeichen werden so zu
einem 10-Bit-Zeichen zusammengesetzt,
dass nie
RD = +2 bzw. RD = -2 entsteht
– Weitere Regeln: nie mehr als vier bzw. fünf
FC-Level 1
• Es stehen freie 10-Bit-Zeichen zur
Verfügung, die für Verwaltungszwecke des
FC-Links verwendet werden (K28.5)
• Das K28.5-Zeichen wird zur Trennung von
Datenwörtern verwendet, die aus 4 Datenbytes bestehen
• FC unterscheidet zwischen Datenwörtern
und einer Kommandosyntax, den sog.
„Ordered Sets“
FC-Level 1
• Datenwörter beginnen mit Start of Frame
(SOF) und enden mit End of Frame (EOF)
• Ein Ordered Set (nur zwischen EOF und
SOF) beginnt immer mit K28.5 und enthält
verschiedene Kommandotypen zur
Kommunikation mit den Ports (z.B. Idle,
Receiver_Ready (R_RDY), Offline State
(OLS), Not Operational (NOS), Link Reset
(LR))
FC-Level 2
• Level für die Datenübertragung: Regelung
wie größere Dateneinheiten übertragen
werden, Flusssteuerung, Dienstklassen
• FC-2 definiert eine dreistufige Hierarchie
– Exchanges
– Sequences (innerhalb einer Exchange)
– Frames (innerhalb einer Sequence)
FC-Level 2
• Frames (Rahmen)
– Ein Rahmen ist die kleinste logische
Dateneinheit
– Zu unterscheiden sind Daten- und KontrollFrames
– Ein Datenframe enthält zwischen 0 und 528
Datenwörter (40 Bit kodiert, 32 Bit Nutzdaten)
d.h. max. 2112 Byte Nutzdaten
– Er besteht aus: SOF, Frame Header (incl.
Adres-sierung), Datenfeld, CRC, EOF
FC-Level 2
– Der Frame Header:
•
•
•
•
•
•
Routing Control (R_CTL): Art des Payloads
D_ID und S_ID: 24 Bit Port-Adresse
Type: Protokoll des Payloads
Frame Control (F_CTL): Kontrollinformationen
SEQ_ID: Bezeichner für eine Sequence
Data Field Control (DF_CTL): Definition, ob es
innerhalb der Payload einen Optional Header gibt
• SEQ_CNT: Position eines Frames in einer
Sequence
• OX_ID: Bezeichner für die Exchange (vom
Originator)
FC-Level 2
– Werden größere Datenmengen innerhalb
einer Sequence übertragen als in einen
Frame passen, werden mehrere Frames
generiert
– Die Fehlerkorrektur findet auf Ebene einer
Sequence statt (d.h. Wiederholung einer
gesamten Sequence bei Fehler in einem
Frame)
FC-Level 2
• Sequence: Dateneinheit (bestehend aus
einem oder mehreren Frames), die
zwischen einem Source- und einem
Destination-Port übertragen wird
• Exchange: Kommunikationsverbindung
zwischen zwei Geräten, bestehend aus
ggf. mehreren Sequences auch in beide
Richtungen
FC-Level 2
• Flusssteuerung
– FC definiert ein Credit-Modell zur
Flusskontrolle
– Zwei Mechanismen
• Buffer-to-Buffer (oder Link-Flusskontrolle)
• End-to-End
– Die Art der Flusskontrolle ist abhängig von
der verwendeten Dienstklasse
– Dienstklassen erfüllen spezifische
Anforderungen von Anwendungen bzgl.
garantierte Bandbreite, Art der Verbindung,
FC-Level 2
• Es sind sechs (sieben)
Dienstklassendefiniert
– Class 1: bestätigter verbindungsorientierter
Dienst
– Class 2: bestätigter verbindungsloser Dienst
– Class 3: unbestätigter verbindungsloser Dienst
– Class 4: wie Class 1 mit reservierten
Bandbreiten pro Virtual Circuit (VC)
– Class 5: für zukünftige Zwecke
– Class 6: uni-direktionale Dienste
FC-Level 2
• Class 1
– verbindungsorientierte Kommunikationsverbindung zwischen zwei Node-Ports
(N_Ports)
– Bestätgungen werden gesendet
– Reihenfolge der Frames ist garantiert
– Verfügbarkeit der vollen Bandbreite
FC-Level 2
• Class 2
– Bestätigter verbindungsloser Dienst
– Keine vorgegebene Verbindung bzw. Route
– Keine Garantie der Frame-Reihenfolge
– End-to-End-Flusskontrolle (Credit-basiert)
FC-Level 2
• Class 3
– Unbestätigter verbindungsloser Dienst
– Wie Class 2 aber ohne End-to-End-ACK
– Frame-Verluste müssen von höheren
Schichten erkannt und korrigiert werden
– Geeignet für Multicast- und BroadcastAnwen-dungen sowie für FC-AL und IPAnwendungen
FC-Level 2
• Class 4
– Bestätigter verbindungsorientierter Dienst mit
reservierten Bandbreiten
– Herstellung einer Verbindung (Virtual Circuit) mit
bestimmter Bandbreite
– Es gibt Quality-of-Service-Parameter
– Geeignet für Echtzeit-Anwendungen
• Class F
– Ähnlich Class 2, jedoch nur für die
Kommunikation zwischen Switches für
Management einer Fabric über E_Ports
FC-Level 3
• FC-3 befindet sich in der Entwicklung
• Heutige FC-Produkte nutzen FC-3 nicht
• Denkbar sind folgende Funktionen:
– Striping: Frames parallel über mehrere Ports
– Multipathing: Herstellung einer logischen
Pfadgruppe
– Automatische Komprimierung
– Verschlüsselung
– Mirroring und andere RAID-Funktionen
Link Services
• Verwaltungsdienste für das FC-Netz
– Login
– Adressierung
• Login mittels eines dreistufigen
Mechanismus
– Fabric Login (FLOGI)
– N_Port-Login (PLOGI)
– Process Login (PRLI)
Link Services
• Fabric Login
– Verbindung zwischen einem N_Port und
einem F_Port nach Initialisierung des Links
– Zuweisung einer dynamischen Adresse für
den N_Port durch den F_Port
– Aushandlung von Parametern
Link Services
• N_Port-Login
– Session zwischen zwei N_Ports nach dem
FLOGI
– Service-Parameter
– Optional für Class 3
• Process Login
– Session zwischen zwei FC-4-Prozessen zur
Aushandlung spezieller Service-Parameter
Link Services
• Adressierung
– Jedem FC-Gerät wird ein eindeutiger
Bezeichner zugeordnet: der World Wide
Name (WWN) mit 64 Bit
– WWNs sind sowohl Ports (WWPN) als auch
Geräten (Nodes, WWNN) zugewiesen
– Automatische Zuweisung einer 24-Bit-PortAdresse (N_Port_ID) vom Switch an den
N_Port
– Die N_Port_ID wird zur Adressierung der
Frames verwendet
Link Services
– Die N_PORT_IDs sind hierarchisch aufgebaut
und spiegeln die Topologie des Netzes wider
– Damit erkennt ein FC-Switch, ob ein Ziel-Port
an einem eigenen F_Port hängt oder ein
Frame über einen E_Port an einen weiteren
Switch weiter-geleitet werden muss
– In Arbitrated Loops werden 8-Bit-Port-IDs
verwendet
Link Services
• Fabric Services
– FC-Switches verwalten Informationen, die
zum Betrieb eines FC-Netzes erfoderlich sind:
Fabric Login Server, Fabric Controller, Name
Server
– Alle Dienste sind über festgelegte Adressen
per FC-2-Frames erreichbar
– Fabric Login Server (Adresse FF FF FE)
verarbeitet eingehende FLOGI-Anforderungen
Link Services
– Fabric Controller (Adresse FF FF FD):
Verwaltung von Änderungen
– Name Server (Adresse FF FF FC):
Verwaltung einer Datenbank über N_Ports
(WWNN, WWPN, Port_ID, unterstützte
Dienstklassen usw.)
FC-Level 4
• Protocol Mapping (Abbildung eines Upper
Layer Protocols auf die FC-Technik)
• FC-4-Protokolle unterstützen die API
bestehender ULP und transferieren deren
Anforderungen auf die FC-Techniken
• Das FC-4-Protokoll für SCSI ist FCP
(Fibre Channel Protocol)
• IPFC ist das FC-4-Portokoll für IP
IP-Storage
• Alternativ zu Fibre Channel stehen verschiedene IP-basierte Speicherstandards zur
Verfügung
• Vorteil: etablierte, preiswerte
Netzwerktechnik
• Nachteil: sehr hoher Protokoll-Overhead
• Standards z.B.: iSCSI, iFCP, FC over IP
(FCIP)
IP-Storage
• iSCSI: Übertragung des SCSI-Protokolls
über das Netzwerk
– Ein Rechner im iSCSI-SAN benötigt nur eine
normale Netzkarte und einen iSCSI-Treiber
– iSCSI-HBAs setzen den iSCSI/TCP/IPProtokoll-turm in Hardware um
– Strategien zur Minimierung des ProtokollOverheads
IP-Storage
• Internet FCP (iFCP)
– Abbildung von FCP auf TCP/IP
– Vorteil: normale Arbeitsplatz-Rechner können
per iFCP mit einem FC-SAN kommunizieren
– Variante mFCP setzt auf UDP auf
• FC over IP (FCIP)
– Tunneling-Protokoll für FC, das FC-Frames in
IP-Pakete einpackt
– Überbrückung größerer Entfernungen
IP-Storage
• TCP/IP vs. FC als I/O-Technik
• Engpass PCI-Bus
– „normaler“ PCI-Bus (shared-media):
Übertragungsraten zwischen 1 und 8 Gbps
– Alternative PCIe (seriell)
• InfiniBand
– Serielles geswitchtes Netzwerk als Ersatz für
das parallele PCI
IP-Storage
• Virtual Interface Architecture VIA
– VIA realisiert eine schnelle Kommunikation
zwischen Anwendungen auf verschiedenen
Rechnern
– Vorauss.: schnelles Netz mit geringer Latenz
– Grundprinzip: Umgehung des
Betriebssystems bei der Kommunikation
zwischen Anwendung und Netzkarte
IP-Storage
– Aufbau eines Virtual Interface (VI)
– Einrichtung eines gemeinsamen
Speicherbereichs von Anwendung und NIC
– Ablauf:
• Anwendung auf Rechner 1 füllt den
Speicherbereich
• Information an VI-Hardware mittels Send Queue,
dass Daten zu versenden sind
• VI-Hardware liest die Daten aus dem
gemeinsamen Speicherbereich
• Übertragung an die VI-Hardware von Rechner 2
IP-Storage
• Remote Direct Memory Access (RDMA)
– Anwendungen lesen und schreiben Speicherbereiche von Prozessen auf entfernten
Rechnern
– Zugriff mittels VI
– Heute existieren Standards wie z.B. iSER
(iSCSI Extension für RDMA) oder RDMA over
TCP
Network Attached Storage NAS
• Netzwerk-Dateisysteme
– Network File System NFS
– Common Internet File System CIFS
• NAS-Server als eigenständige Geräte
• Performance-Engpässe
• Beschleunigung von Netzwerk
Filesystemen
• Shared Disk Filesysteme
Virtualisierung im Speichernetz
• Virtualisierung z.B. Caching, RAID,
Volume Manager, Instant Copy, Remote
Mirroring
• Verschiebung der
Virtualisierungsfunktionen von Servern in
das Speichernetz
• Virtualisierung im I/O-Pfad: Anwendung,
Volume Manager, HBA, Disksubsystem
• Virtualisierung im Speichernetz: Trennung
von Servern und Speichergeräten
Virtualisierung im Speichernetz
• Ohne Virtualisierung: hohe Anforderungen
an die Daten-Administration
• Flexible Zuordnung von Ressourcen oft
nur in homogenen Umgebungen möglich
• Umzug von Daten auf ein neues Speichersystem per Remote Mirroring oft nur
Theorie
• Verschiedene Daten haben
unterschiedliche Anforderungen an
Verfügbarkeit, Backup, Performance
Virtualisierung im Speichernetz
• Ziele der Speichervirtualisierung
– Vereinfachung der Verwaltung von Speichern
– Effiziente Ressourcennutzung, Verbesserung
von Performance und Verfügbarkeit
– Automatische, an Datenprofilen orientierte
Verwaltung
• Trennung von physikalischem Speicher
und logischer Darstellung
Virtualisierung im Speichernetz
• Realisierung über eine
Virtualisierungsinstanz
• Möglichkeiten:
– Austausch von Speichergeräten zur Laufzeit
– Dynamische Zuweisung von Speicher
– Automatische Datenmigration
– Performance-Verbesserung
– Redundanz
– Backup und Archivierung
– Gemeinsame Datennutzung
Virtualisierung im Speichernetz
• Virtualisierung auf Block-Ebene vs. DateiEbene
• Speichervirtualisierung im Server (z.B.
Volume Manager)
• Speichervirtualisierung im Speichergerät
• Speichervirtualisierung im Netz
(symmetrisch oder asymmetrisch)
Business Continuity
• Ziel von Business-Continuity-Programmen
und –plänen ist die Aufrechterhaltung des
Geschäftsbetriebs in Krisenfällen
• Hierzu gehören sowohl technische als
auch organisatorische Strategien
• Business Continuity Programm: Sicherstellung eines unterbrechungs- und
verlustfreien Betriebs
Business Continuity
• Business Continuity Plan beschreibt
Aktionen und Abläufe im Krisenfall
• Risiken für IT-Systeme: Benutzerfehler,
Ausfall von IT-Komponenten, Umwelt
• IT-Ausfälle stehen im Kontext mit
Geschäfts-prozessen: jedes Unternehmen
muss indivi-duell Risiken und
Auswirkungen definieren
Business Continuity
• Phasen des Wiederanlaufs nach
Störungen
– Wiederanlauf der Datenverfügbarkeit
– Wiederanlauf der IT-Infrastruktur
– Wiederherstellung der operativen Prozesse
– Wiederherstellung der Geschäftsprozesse
• Eine Business Continuity Strategie soll
wirtschaftlich sinnvoll sein: Risikoanalyse
zur Identifizierung von Risiken, Strategie
zur Abwehr von Risiken, Kontrolle der
Business Continuity
• Erstellen eines Business Continuity Plans
– Analyse geschäftskritischer Prozesse
– Analyse geschäftskritischer IT-Systeme
– Risikoanalyse
– Anforderungen an die Technik
– Auswahl der Technik
– Implementierung und Test der Lösung
– Validierung und Aktualisierung des Plans
Business Continuity
• Unterschiedliche Strategien
– Hochverfügbarkeit
– Desasterschutz
– Kontinuierlicher Geschäftsbetrieb
• Hochverfügbarkeit: Schutz vor
Komponenten-ausfällen
• Desaster: verlustfreie Wiederaufnahme
• Kontinuierlicher Betrieb: möglichst geringe
Auswirkungen der administrativen Aufgaben
Business Continuity
• Verfügbarkeit
Verfügbarkeit = Betriebszeit / (Betriebszeit + Ausfallzeit)
• Kenngrößen
– Mean Time between Failure (MTBF)
– Mean Time to Repair (MTTR)
– Mean Time to Failure (MTTF)
Verfügbarkeit = MTTF / (MTTF + MTTR)
• Gesamtverfügbarkeit abhängig von
serieller oder paralleler Koppelung der
Komponenten
Business Continuity
• Charakterisierung von Ausfällen
– Recover Time Objective (RTO): maximale Zeit
zur Wiederherstellung des Betriebs
– Recover Point Objective (RPO): Zeitspanne,
über die ein Datenverlust tolerierbar ist
– Network Recovery Objective (NRO): Zeit zur
Wiederherstellung des Netzbetriebs
Business Continuity
• Hochverfügbarkeit: kontinuierlicher Datenzugriff, RTO nahe Null, keine
Anforderungen an den RPO
• Desasterschutz bei synchroner
Spiegelung: RPO nahe Null, keine
Anforderung an RTO
• Desaterschutz bei asynchroner
Spielgelung: kleiner RPO, keine
Anforderung an RTO
Business Continuity
• Sieben-Stufen-Modell
– Stufe 0: keine strukturierte Datensicherung
– Stufe 1: Datensicherung kein
Notfallrechenzentrum
– Stufe 2: Datensicherung mit
Notfallrechenzentrum
– Stufe 3: Datensicherung über LAN/WAN
– Stufe 4: Instant Copies
– Stufe 5: Software-Spiegelung
– Stufe 6: Spiegelung über Disksubsystem
Business Continuity
• Stufen 1-3: klassische (Band)Speichertechnik
• Stufen 4-6: Speicher mit
Replikationstechniken
• Stufe 7: Absicherung gegen alle Arten von
Ausfällen
Business Continuity
• Lösungen
– Klassische Datensicherung
– Wiederherstellung von Kopien
• Instant Copy: hoher RPO, geringer RTO;
neuer Ansatz: Continuous Data Protection
CDP oder Disk-to-Disk-to-Tape
• Spiegel: Remote Mirroring, Spiegelung im
Volume Manager, Replikation von Dateisystemen und Anwendungen
Business Continuity
• Remote Mirroring: RPO = 0, ohne Verwendung von Konsistenzgruppen RPO
ungewiss, RTO vom Remote Mirroring
unabhängig
• Spiegel über drei Standorte: Kombination
von synchronem und asynchronem
Remote Mirroring
• Alternativ: Spiegelung mit Datensicherung
Business Continuity
• Volume Manger Mirroring
– synchron: Desasterschutz
– asynchron: Hochverfügbarkeitslösung
• Kontinuierliche Verfügbarkeit
– Kombination verschiedener Lösungen
– Volume Manager Spiegel mit Remote
Mirroring
– Erweiterung um (doppelte) Instant Copies
Datensicherung
• Was ist ein Backup?
Eine Kopie von Daten zu einem
bestimmten Zeitpunkt
• Warum sind Backups wichtig?
Datenverluste aufgrund von Fehlersituationen können zu hohen wirtschaftlichen Verlusten führen
• Wie oft sollten Daten gesichert werden?
Je nach Anforderungen an die Datensicherheit
Datensicherung
• Fehlersituationen:
– Hardware-Fehler (z.B. Plattencrash)
– Stromausfall
– Betriebssystemfehler
– Software-Fehler
– Datenverlust durch Cracker, DoS, Viren ...
– Fehlverhalten von Benutzern
Datensicherung
• Begriffe
– Backup/Recovery: temporäre Speicherung
– Archivierung: langfristige Speicherung
– Migration (HSM): Verschieben von Dateien
• Sicherungsmedien
– Backup: meistens Magnetbänder
– Archivierung: Bänder, MO, CD-R
– Migration: „schnelle“ Medien (MO, CD-R)
Datensicherung
• Hardware
– Techniken von Bandlaufwerken
•
•
•
•
•
Digital Audio Tape DAT, 4mm: bis 12GB
8mm, AIT: bis 25 GB
Digital Linear Tape DLT: bis 40GB
Quarter Inch Tape QIC: bis 5GB
High-Speed-Techniken (IBM Magstar, StorageTek
Redwood): schnelle Zugriffszeiten
Datensicherung
– Band-Roboter („Jukebox“)
•
•
•
•
•
mehrere Bänder in einem Gerät
für alle Bandtechniken verfügbar
ein Greifarm lädt autom. ein Band ins Laufwerk
ab 4 Slots
bis 1000 Slots, Kapazitäten > 50TB
– Silos
•
•
•
•
von > 1000 Slots bis mehrere 10000 Slots
mehrere Dutzend Bandlaufwerke
Kapazitäten > 100TB
Hersteller: IBM, EMASS/Grau, StorageTek
Datensicherung
– Magneto-Optische Medien
•
•
•
•
MO, CD-R, WORM bis zu 2,5GB
DVD-R: bis 4GB
Vorteil: sehr kurze Zugriffszeiten
Nachteil: geringe Kapazität, dadurch teure Medien,
z.T. nicht wiederbeschreibbar
Datensicherung
• Techniken von optischen Medien
– CD-R (CD-WORM)
•
•
•
•
5¼´´-Scheibe aus einem Platomer
Reflexionsschicht mit lichtempf. Farbschicht
beim Schreiben verändert ein Laser die Farbe
Vorteil: preiswerte Technik, geeignet für
gelegentliche lokale Sicherungen
• Nachteil: geringe Kapazität (800MB), langsame
Schreibgeschwindigkeit ( x • 150KB/s)
Datensicherung
– DVD-R
• ähnliche Technik wie CD-R
• Speicherkapazität bis 4GB (kleinere Pit-Länge,
engere Datenspur, größere Datenfläche)
• mehrere Layer (wie bei DVD-ROM) sind nicht
vorhanden
– magneto-optische Scheiben (MO)
• verfügbar als WORM oder wiederbeschreibbar
• 3½´´ oder 5¼´´, beidseitig beschreibbar
Datensicherung
•
•
•
•
•
aktive Schicht aus magnetischem Material
magnetische Speicherung der Daten
Ummagnetisierung der Schicht mittels Laser
Lesen ebenfalls per Laser
die Polarisierung des Laserlichts abh. von der
Magnetisierungsrichtung (Kerr-Effekt)
• Vorteil: zuverlässige Technik, langer Archivierungszeitraum > 10 Jahre
• Nachteil: geringe Kapazität (2,6 GB), langsame
Schreibgeschwindigkeit (500KB/s)
Datensicherung
– Phase-Change-Technik
• 5¼´´-Polymer-Scheiben
• Laserlicht verändert die Polymer-Struktur von
amorph (unstrukturiert) zu kristallin (strukturiert)
• Vorteil: bei platin-beschichteten Scheiben
Haltbarkeit > 50 Jahre (?)
• Nachteil: geringe Kapazität (1,5 GB)
Backup-Strategien
• Lokale Sicherung ohne festes BackupGerät
– CD, Diskette oder Bandlaufwerk sind direkt
am zu sichernden Rechner angeschlossen
– Vorteil: geringe Kosten, einfache Handhabung
– Nachteil: ab mittleren Umgebungen sehr
umständlich, hoher administrativer Aufwand,
meist nur für gelegentliche Teilsicherungen
sinnvoll, aufwändiges Recovery
Backup-Strategien
• Lokale Sicherung mit festem BackupGerät
– fest installiertes Laufwerk oder Jukebox
– geeignet für Server
– Vorteil: regelmäßiges, automatisiertes
Backup, geringer administrativer Aufwand
– Nachteil: hohe Kosten, falls mehrere Server
zu sichern sind, evtl. unterschiedliche
Software, Recovery nur am Rechner direkt
Backup-Strategien
• Zentrale Netzwerk-Sicherung
– Backup-Geräte am zentralen Backup-Server
– Sicherung anderer Rechner über das LAN
– Client-Server-Anwendung
– Vorteil: zentrale Administration, autom. regelmäßiges Backup aller Rechner im LAN,
Skalierbarkeit, benutzergesteuertes Recovery
– Nachteil: hohe Belastung des LAN, teure
Software
– Hersteller z.B. IBM, HP, Legato, CA
Backup-Strategien
• Entwicklung einer Strategie
– welche Rechner sind zu sichern?
– welche Daten sind wichtig?
– Zeitpunkt der Sicherung
– Dauer der Sicherung (Geschwindigkeit von
LAN, Rechnern und Laufwerken)
– wie oft sind Daten zu sichern?
– Art des Backups (Vollsicherung, inkrementell)
Backup-Strategien
– Anforderungen an die Wiederherstellung
(Recovery)
– Archivierung erforderlich?
– Kopieren (Clonen) des Bandmaterials?
– wie lange sollen Backup-Daten online sein?
Client-Server-Architektur
• Server
– Koordination aller Backup-Funktionen
– Verwaltung des Datei-Index
– Steuerung aller Medien- und Sicherungsoperationen
– sollte mehrere Clients parallel sichern können
– sollte mehrere Laufwerke parallel beschreiben
bzw. auslesen können
Client-Server-Architektur
• Client
– startet auf Anforderung die BackupProzesse
– liest alle benötigten Verzeichnisse und
Dateien (Rechte!)
– schickt die Daten an den Server
– ist i. Allg. selbst für das Recovery zuständig
• Kommunikation z.B. per RPC
Datensicherung
• Anforderungen an die Software
– Unterstützung diverser Betriebssysteme
– Unterstützung diverser Sicherungsgeräte
– parallele Sicherung mehrerer Clients auf
mehrere Laufwerke
– Integration von Online-DB-Sicherungen
– Sicherung offener Dateien
Datensicherung
• Backup-Arten
– Vollsicherung: Backup aller Dateien
– inkrementell: alle Dateien, die sich seit der
letzten Sicherung geändert haben
– differentiell: alle Dateien, die sich seit einem
Referenzzeitpunkt geändert haben
– konsolidierend: „virtuelle“ Vollsicherung
Datensicherung
• Aufbewahrungs-Zeitraum im Index
– im Index werden alle Informationen über die
gesicherten Dateien abgelegt
– nur Dateien im Index sind gezielt wieder
herstellbar
– Index-Datei kann sehr groß werden
– ältere Daten müssen gelöscht werden
– typischer Zeitraum für Online-Recovery: 2 bis
4 Wochen
Datensicherung
• Aufbewahrungs-Zeitraum für Bänder
– abhängig von der Größe einer Jukebox
– abhängig von der Menge der Bänder
• welche Daten sollen gesichert werden?
– alle lokal gemounteten Filesysteme
– einzelne Partitionen (/usr, C:, SYS:)
– einzelne Verzeichnisse (/usr/local/httpd)
– einzelne Dateien
Datensicherung
• Wann soll die Sicherung starten?
– Zeitfenster muss eingehalten werden
– nicht alle Clients gleichzeitig starten
– „geeignete“ Clients gleichzeitig sichern
• Behandlung spezieller Dateien
– einige Dateien/Dateitypen nie sichern
– einige Dateien immer sichern
– Wiederherstellung der access time
– client-seitige Kompression
Datensicherung
• Staging
– automatische Verlagerung gesicherter Daten
von einem Medium auf ein anderes
– Beispiel:
• Sicherung auf Festplatte (z.B. RAID-Array)
• Kopieren der Daten in Abh. vom Alter auf ein
langsameres (preiswerteres) Medium
• Löschen der Daten von der Backup-Festplatte
– Vorteil: schnelles Recovery
Datensicherung
• Hierarchical Storage Management HSM
– erster Schritt: übliche Datensicherung
– anschließend: Entfernen der gesicherten
Dateien, ersetzen durch einen Link
– migrieren von Dateien in Abh. von Alter oder
Größe bzw. Füllgrad der Festplatte
– beim Öffnen einer migrierten Datei wird sie
autom. vom Band zurückgeholt (recall)
Datenbank-Backup
• Sicherung (Backup) einer Datenbank
• Warum Sicherung einer DB?
– SQL-Fehler
– Prozess-Fehler
– Tabellen-Fehler
– Benutzer-Fehler
– System- / Hardware-Fehler
Datenbank-Backup
• Physikalische Struktur einer Datenbank
(am Beispiel Oracle)
– Datenfiles (Tabellen)
– Transaction-Logs (Online-Redo-Logs)
– Archive-Logs
– Control-File
– Rollback-Segmente
Datenbank-Backup
• Offline-Sicherung:
– Datenbank-Prozesse herunterfahren
– Datenfiles sichern
• Online-Sicherung:
– DB bleibt während der Sicherung in Betrieb
– sehr wichtig: Control-File sichern
– Backup der Transaction-Logs ist unnötig
– aber: Transaction-Logs sollten gemultiplexed
werden
Datenbank-Backup
– Archive-Logs (geschlossene Redo-Logs)
müssen gesichert werden
– im NOARCHIVELOG-Modus nur OfflineBackup möglich
– Datenfiles müssen gesichert werden
Datenbank-Backup
• Typen von Backups
– konsistentes Backup der gesamten DB
– inkonsistentes Backup der gesamten DB
– Sicherung einer Tabelle
– Sicherung eines Datenfiles
– Archive-Log Backups
Backup im SAN
• Klassische Backup-Architektur: Sicherung
im LAN, ggf. separates Backup-LAN, es
gibt einen oder mehrere Backup-Server
• Server-free Backup
– Backup-Client sichert direkt ins SAN
– nur Metadaten-Verwaltung im Backup-Server
– Koordination mittels Netzwerk-BackupSystem
– Problem: kopieren von Daten direkt auf das
Speichermedium im SAN, Erweiterung: 3rd-
Backup im SAN
• LAN-free-Backup
– etwas einfacher als Server-free-Backup
– Backup-Client verhält sich bzgl. des
Schreibens der Daten wie ein Backup-Server
– Verwaltung der Metadaten im Server
– Koordination der Gerätezugriffe über den
Server
– LAN-free-Backup per Shared-Disk-Filesystem
Backup im SAN
• Datensicherung mit Instant Copies
– Sicherung der „eingefrorenen“ Daten über
einen zweiten Zugriffspfad
– Vorteil: Anwendungen können ohne Unterbrechung weiterarbeiten
– Ebenen: Block-, Datei-Ebene, Anwendungen
– Vorsicht: Instant Copies müssen unbedingt
mit konsistenten Daten erzeugt werden
Backup im SAN
• Datensicherung mit Remote Mirroring
– Nachteil der Instant Copy: nützt nichts im
Katastrofen-Fall
– Remote Mirroring als Backup funktioniert nicht
– Daher: Erzeugen einer Instant Copy auf dem
Remote System
• Sicherung von NAS-Servern
– Oftmals nur proprietäre Backup-Lösungen,
nicht in ein Datensicherungssystem
integrierbar
Backup im SAN
• Network Data Management Protocol
NDMP
– Schnittstelle zwischen NAS-Server und
Datensicherungssystem
– Bestandteile:
• Data Management Application DMA
• NDMP Services
• NDMP Session (Control und Data Session)
– Steuerung einer Session über die DMA
mittels Control Connection zu jedem NDMPService
Backup im SAN
– Datenübertragung direkt zwischen den
NDMP-Services (Data Connection)
– NDMP-Services
• NDMP Data Service (Schnittstelle zum
Dateisystem eines NAS-Servers)
• NDMP Tape Service (Schnittstelle zum
Speichergerät)
• NDMP SCSI Pass Through Service
– DMA verwaltet Zustände der Services, die
Medien, Anstoßen eines Recovery
– NDMP Version 5: Translator-Service für
Archivierung
• Aufheben/einfrieren von Daten über lange
Zeiträume
• Archivierung darf nicht mit Backup
verwechselt werden
• Ziel Backup: erzeugen mehrerer Kopien
zur Wiederherstellung im Fehlerfall
• Ziel Archivierung: Aufbewahrung aktuell
nicht mehr benötigter Daten
Archivierung
• Dementsprechend sind unterschiedliche
Anforderungen an Backup- bzw. Archivsysteme sowie die Medien zu stellen
• Begriff: Information Lifecycle Management
• Notwendigkeit der Archivierung
– Gesetzliche Anforderungen
– Informationen aufbewahren, Wissen erhalten
– Auslagerung selten benötigter Daten auf
weniger performante, preiswertere Systeme
Archivierung
• Gesetzliche Anforderungen:
– revisionssichere Archivierung (Steuerdaten,
Verträge, Belege)
– Unterschiedliche Aufbewahrungszeiträume
– Schutz der Daten vor Veränderung,
Manipulation
– Zugriff muss jederzeit möglich sein
– (protokollierter) Zugriff nur durch authorisierte
Personen
– Löschen von Daten nach der
Archivierung
• Bei Archivierung zu beachten:
– Technischer Fortschritt
– Dauerhaftigkeit der Archivlösung
– Schutz vor Katastrofen
– Skalierbarkeit
– Anforderungen an den laufenden Betrieb
– Kosten
Archivierung
• Techniken (Medien)
– WORM Write Once Read Many (optische
Medien)
– Aber auch festplatten- und band-basierte
WORM-Techniken verfügbar
•
•
•
•
Datensicherheit und –integrität
Revisionssicherheit
Löschen von Daten
Unterbrechungs- und verlustfreier Betrieb
Sicherheit in Speichernetzen
• NFS-Sicherheit
– Sicherheit des Protokolls ist gering: keine
native Verschlüsselung, ClientAuthentifizierung nur per IP-Adresse, keine
Authentifizierung auf Benutzer-Basis
(Ausnahme NFSv4 mit Kerberos)
– Prinzipiell ist jeder IP-basierte Angriff möglich
– Problem Sniffing: Übermittlung sensitiver
Informationen beim Verbindungsaufbau
– Nach erfolgreichem NFS-Mount besteht der
Zugriffsschutz nur noch per FS-Permissions
Sicherheit in Speichernetzen
– root-Zugriff verhindern: root_squash
– Freigaben: /etc/exports auf dem NFS-Server
– Problem Authentifizierung: findet nur auf
Basis von Cleint-IP-Adressen statt
– Problem Verschlüsselung: keine native
Verschlüsselung (sinnvoll IPSec)
– ab NFSv4 wird Kerberos direkt im Protokoll
zur Authentifizierung und Verschlüsselung
unterstützt
Sicherheit in Speichernetzen
• Sicherheit im Fibre Channel SAN
– Prinzipiell sind die Sicherheitsrisiken im FCSAN ähnlich wie bei IP
– Authentizität (Herkunft), Authorisierung
(Berechtigungen), Integrität (Unversehrtheit),
Verschlüsselung, Verfügbarkeit (DoS),
Auditing
– Problem: Speichernetze und –protokolle
werden heute oft als rein lokale Technik
betrachtet
Sicherheit in Speichernetzen
– Authentizität: Diffie-Hellman CHAP als Teil
des FC Security Protocols (FC-SP) optional
– Authorisierung: nur über WWN
– WWN-Spoofing
– Schwächen des Logins (FLOGI, PLOGI):
adress-Spoofing und Name Server Pollution
– Session Hijacking: es muss die Sequence/Exchange-ID bekannt sein, dann kann ein
Frame mit passender SEQ_CNT zur
passenden Zeit eingeschleust werden
Sicherheit in Speichernetzen
– MITM-Attacken: Abhören einer Verbindung
zwischen zwei Ports per Name Server
Pollution
– Verschlüsselung: heute kein natives FCProtokoll zur Verschlüsselung verfügbar
– Integrität: keine nativen Methoden verfügbar
Sicherheit in Speichernetzen
• Sicherheit von iSCSI
– Alle Sicherheitsrisiken von TCP/IP gelten
auch für iSCSI
– Eine ähnlich Funktion wie DNS übernimmt
hier der iSNS (iSCSI Name Server): Name
Server Pollution
– Gegenmaßnahme: Challenge Response
CHAP, zukünftig besser Kerberos