ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Sendungsarchiv


TV-SENDUNGEN

23.07.2009
Folge 33

Virtualisierung ausfallsicher


mit Heinz Schmitz

Ausfallsichere Systeme garantieren nahtloses Arbeiten, auch wenn mal ein Rechner ausfällt oder ein Netzwerk wegbricht. Die Virtualisierung von Rechnern bietet eine neue Grundlage, unabhängig von der eingesetzten Hardware. Virtuelle Server in den Rechenzentren könnten mit neuartigen Betriebssystemen effektiver laufen. So genannte virtuelle Betriebssysteme oder auch „Virtual Datacenter-OS“ haben zum Ziel, Administratoren und Anwendern eine homogene Basis zu bieten, auch über Rechenzentren hinaus. Dabei steigen die Forderungen an Datensicherheit und kontinuierlichem Betrieb, 24 Stunden am Tag, 7 Tage die Woche. Ebenfalls in der virtuellen Welt finden sich echte ausfallsichere Hardwaresysteme, wie der Stratus ftServer. Hier bilden zwei Computer einen Verbund der nach außen wie ein Rechner wirkt. Geht eine kaputt, so übernimmt die andere nahtlos.


Ein Rechenzentrum von heute

Die Anforderung an eine möglichst einfach zu verwaltende Systemlandschaft steigt mit dem Grad der Virtualisierung. Wirklich nahtlose Konzepte sind bei den Anbietern oder Providern nur in Bruchstücken realisiert oder in Konzeptpapieren zu finden. Das „Virtual Datacenter OS“ oder vSphere ist interessanter Ansatz bei dem es darum geht, nicht auf jedem Hardware-Server einen so genannter Hypervisor, also das Basisbetriebssystem für virtuelle Maschinen, zu installieren, sondern das es einen „Hypervisor“ im gesamten Rechenzentrum gibt. Er erkennt dann automatisch welche Hardware, also welche Server er zur Verfügung hat und verteilt die virtuellen Maschinen dann mehr oder weniger automatisch auf die vorhandenen Ressourcen.

Dabei spielt die die Ausfallsicherheit virtueller Systeme eine wichtige Rolle. Wenn heute die Hardware eines Rechners versagt, sind alle virtuellen Maschinen auf dem System tot. Manuell muss das Backupsystem hochgefahren werden. Zukünftig sollen jeweils zwei identische virtuelle Maschinen auf zwei verschiedenen Rechnern parallel laufen. Ein Master und ein Slave. Fällt der Master aus, übernimmt der Slave nahtlos die Arbeit. Weil beide immer mit den gleichen Daten versorgt werden, ist die Datenintigrität gesichert. Ein Verfahren, dass man aus dem so genannten Clustern von Computern kennt, allerdings müssen dabei immer mindestens zwei Rechner die gleichen Aufgaben übernehmen. Das erhöht dann wieder die Anzahl der notwendigen Rechner. Beim virtuellen Cluster wird ein Verbund aus mehreren Rechnern und virtuellen Maschinen gebildet. Diese virtuellen Maschinen werden für zwei Rechner angelegt. Im Betrieb arbeiten beide Maschinen parallel. Sie bekommen die gleichen Eingabedaten, aber nur die aktive Maschine liefert Ausgaben. Fällt ein (Hardware) Rechner aus, so übernimmt nach eine kurzen Zeit die parallellaufende Maschine die Arbeit, ohne das Daten verloren gehen. Sind mehr als ein Server in dem Clusterverbund, so kann mit diesem die Ausfallsicherheit wieder hergestellt werden. Nach Reparatur kann der defekte Rechner wieder in den Clusterverbund eingefügt werden und übernimmt seine alten Aufgaben. Diese Installation ist netzwerklastig. Die Daten der virtuellen Maschine müssen auf einem externen Speicher, einem NAS (Network Attached Storage) oder einem SAN (Storage Attachted Network) liegen und für alle aktiven Server im virtuellen Clusterverbund erreichbar sein. Die Server im Verbund müssen sich gegenseitig über das Netz erreichen können, Voraussetzung für die Ausfallsicherheit. Der Trick dieser Technologie ist das sogenannte vLockstepping. Dabei werden die Arbeitsabläufe der einzelnen virtuellen CPU’s gehalten. Nur so ist gewährleistet, dass beide virtuellen Maschinen identische Resultate liefern. Zusätzlich gibt es einen so genannten Heartbeat der alle zwei Sekunden die jeweils andere Maschine fragt, ob sie noch „lebt“. Bleibt die Antwort aus, so übernimmt die Sekundäre Maschine die Arbeit nach einigen Sekunden. Im Versuchsaufbau waren es ca. 10 Sekunden, die sich allerdings auf ca. 2 Sekunden verkürzen lässt. Da die ganze Kommunikation über das Netz läuft, sind schnelle und vor allem redundante Netzwerkanbindungen Voraussetzung eines störungsfreien Betriebs. Bei dem Versuchsaufbau im Studio sträubten sich jedem Fachmann die Haare. Die Dell i610 Server waren zwar redundant, das Netgear NVX Raidspeichersystem verfügt zwar über zwei schnelle Netzwerkports, aber aller lief auf einem kleinen Switch zusammen. Allein das Ziehen der Stromversorgung hätte den ganzen Versuchsaufbau zum Stillstand gebracht.

Einen anderen Ansatz gehen die ausfallsicheren Server wie der Stratus ftServer. Hier bilden zwei Server einen Einheit, die nach außen wie ein einzelner Server arbeiten. Beide Rechner sind identisch aufgebaut und könnten allein alle Aufgaben erfüllen. Über eine so genannte Backplane sind die beiden Einheiten miteinander verkoppelt. Dort werden der interne PCI-Bus und einige Systemleitungen an die jeweils andere Einheit weitergegeben. Einige spezielle Chips überwachen den jeweils anderen Rechner und führt das Lockstepping durch, die Synchronisation der CPUs. Wie bei den virtuellen Maschinen im Cluster, werden immer beide Rechner mit den gleichen Informationen versorgt, aber nur der gerade aktive gibt Daten aus. Eine Logik überwacht die beiden Resultate der Maschinen und wenn eine Einheit falsch arbeitet oder sogar ganz ausfällt, so über nimmt die andere Einheit nahtlos den Betrieb. Die Unterbrechung ist so kurz, das selbst ein Video nahtlos weiterläuft, während bei unserer Testinstallation das virtuelle Softwarecluster eine deutliche Auszeit hatte. Tauscht man im Fehlerfall einen Rechner aus, so wird er automatisch gestartet, der Inhalt der lokalen Platten, der Inhalt des Arbeitsspeichers und sogar der Inhalt der CPU-Register wird automatisch abgeglichen und wenn wieder alles synchron ist, wird der zweite Rechner wieder Bestandteil des Systems und die Ausfallsicherheit ist ohne manuellen Eingriff wieder hergestellt.

Auf dem ftServer ist dann der Hypervisor installiert, der wiederum die virtuellen Maschinen bedient. Die sind dann von der Hardware ausfallsicher geschützt. Da sich alles in einem Gehäuse befindet, sind wenige externe Komponenten, wie Netzwerkswitches, Router, Verkabelung für den eigentlichen betrieb notwendig. Mit der Reduzierung der Anzahl Schnittstellen zu anderen Systemen, reduzieren sich die potentiellen Fehlerpunkte. Denkt man allerdings an die räumliche Aufteilung eines Clustern in verschiedene Rechenzentren, so ist das mit den virtuellen Clustern leichter zu erreichen. Allerdings steigert der Betreib zweier ausfallsicher Server in zwei Rechenzenten als virtuelles Cluster konfiguriert die Sicherheit nochmals.



zurück zum Archiv
Ansehen:

MP4 H.264 Codec (~200 MB)
AVI Xvid Codec (~200 MB)
iPod M4V H.264/AAC Codec (~200 MB)
RSS Feed (Video-Podcast, letzte 5 Sendungen)
RSS Feed (Video-Podcast, alle Sendungen)

CCZwei auf YouTube

YouTube-Kanal (Hauptadresse)
YouTube Filetstücke Archiv 1 (4:3)
YouTube Filetstücke Archiv 2 (16:9)
YouTube Filetstücke Archiv 3 (16:9)

Druckversion Impressum Haftungsausschluss