ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

08.10.2007
Folge 71

Das Zauberwort heißt Virtuelle Maschine

In der vergangenen Woche trafen sich in San Franzisco 11.000 Spezialisten, um über die Virtualisierung von Computern zu reden. Im Mittelpunkt standen die geänderten Anforderungen an Rechenzentren und Serverlandschaften. Heinz Schmitz hat die Veranstaltung besucht. Heinz Schmitz war auch bei uns im Studio.



Was heißt eigentlich virtuelle Maschine? Hier einige Fakten im Telegrammstil.

Ein Computer besteht aus Hardware, Bios, Betriebssystem, Programmen und Daten.
Eine virtuelle Maschine ist eine Datei auf der Platte mit Bios, OS, Programme + Daten
Ein Hypervisor sitzt auf dem BIOS, liest die Datei und behandelt sie wie einen Computer.
Auf einem Computer können nun mehrere Betriebssysteme (Windows, Linux, Unix) gefahren werden. Die Hardware ist ziemlich gleichgültig, die Migration auf neuen Maschinen geht ohne Neuinstallation

Und der Vorteil?
Die Rechner dümpeln normalerweise mit Minimalauslastung (5% im Schnitt. Die Anzahl der Hardware wird minimiert. Eine Virtuelle Maschine wird auf den Rechner geschoben, der am wenigsten Auslastung hat. Kosten für Energie, Raum und Klima sind 50% der Kosten.

Aber das gilt nur für Server, die im Rechenzentrum stehen. Auch für virtuelle Arbeitsplätze muss die Datensicherheit gewährleistet sein.
Neues Leben für alte Rechner (thin Clients) – Fernzugriff (gestohlenes Notebook)
Schnell zu installieren (Copy File)

Was passiert wenn ein Computer ausfällt?
Dann sind alle virtuellen Maschinen weg
Backup manuell hochfahren
Zukunft: Immer verfügbar – parallel arbeiten

Nicht jeder hat ein Rechenzentrum
Virtuelle Maschine auf dem Arbeitsplatz
Mehre Betriebssysteme (Windows auf Linux oder umgekehrt)
Softwaretest
Demoprogramme verschicken (mit Betriebssystem)
Gratis Player vmWare, Microsoft, Linux, Xen


Welche Trends zeichnen sich in der Virtualisierung ab?
Das Rechenzentrum wird virtuell
Rechner schnell genug (Multicore Prozessoren, Speicher mindestens 2 GB)
Mehrere Applikationen/Betriebssysteme auf einem Computer
Die großen Anbieter
vmWare (BIOS – HP, NEC, IBM, Fujitsu-Siemens, Dell)
XenSource Open Source Entwicklergemeinde (CERN)
Microsoft (Windows)
Normungsvorschlag OVF oder Open Virtual Machine Format
Von Dell, HP, IBM, Microsoft, vmWare und XenSource Normung durch die
DMTF (Distributed Management Task Force)




Virtualisierung lässt Rechenzentrum schrumpfen


Bei der Planung des neuen Rechenzentrums für den Large Hardon Collider am CERN in Genf stand schnell fest, dass die Server virtualisiert werden. Nicht ein Server pro Computer, sondern mehrere voneinander getrennte Arbeitsprozesse, so genannte virtuelle Maschinen, teilen sich einen Prozessor, Speicher, Festplatte und Netzwerkzugriff. Damit wurde nicht die absolute Geschwindigkeit der Rechner, sondern die Rechenleistung pro Watt Energieverbrauch ein ausschlaggebendes Kriterium. Auf der vmWorld in San Franzisco trafen sich 11 000 Spezialisten um dieses Thema drei Tage lang intensiv zu erörtern.

Um die ersten Millisekunden nach dem Urknall unseres Universums, zu erforschen fallen bei den Versuchen im CERN ca. 50 Mega Byte Daten pro Sekunde an, die verarbeitet werden müssen. Dazu entwickeln die Wissenschaftler die unterschiedlichsten Programme, die in den Datenströme nach bisher noch nicht gefunden Kernbausteinen suchen. Dafür wären bei herkömmlicher Vorgehensweise einige tausend Server notwendig, die sich zum Teil mit Minimalauslastung langweilen und Energie fressen. Packt man nun mehre dieser Programme auf eine Maschine, so ist die Auslastung zwar besser, aber eine gegenseitige Beeinflussung der Analysen ist nicht auszuschließen. Vor allem bei den leistungsfähigen Multicore-Prozessoren und den mit reichlich Arbeitsspeicher ausgestatteten Servern, können problemlos mehrere Anwendungen auf der gleichen Hardware parallel laufen.

Bei virtuellen Maschinen wird per Software ein kompletter Computer inklusive BIOS und Betriebssystem. Bei diesen virtuellen Computern handelt es sich im Prinzip um eine Datei, die von einem so genannten Hypervisor wie das Dateisystem eines Computers behandelt wird. Diese Dateien, die einen Computer repräsentieren, könne auf jeder Hardware, auf der ein Hypervisor läuft gestartet werden. Dadurch könne virtuelle Server leicht zwischen verschiedenen physikalischen Maschinen verschoben werden. Mittels spezieller Dienstprogramme sogar im laufenden Betrieb. Ist ein Rechner an der Auslastungsgrenze oder eine Applikation benötigt mehr Arbeitsspeicher, wird die komplette virtuelle Maschine auf einen anderen Rechner verschoben. So können die Maschinen in den Rechenzentren optimal ausgenutzt werden. Dadurch wird Energie für die Stromversorgung und die Klimatisierung gespart und der Platzbedarf wird reduziert. Ein wichtiges Argument, da diese Nebenkosten mittlerweil 50 Prozent den IT-Etats ausmachen. Zum anderen ist es der virtuellen Maschine egal, auf welchem Rechnertyp sie läuft. So ist eine Migration von alte auf neue Hardware ohne Neuinstallation möglich.

Die großen Spieler auf dem Feld der Virtualisierung sind Marktführer vmWare, der sei acht Jahren auf dem Gebiet arbeitet, XenSource, die auf der freien Software XEN basieren und Microsoft, die Virtualisierung im kommenden Server 2008 standardmäßig anbieten werden. Darüber hinaus sind in einigen Linux-Versionen Virtualisierungsfunktionen integriert.

Die Anbieter unterscheiden sich vor allen in der Implementation des Hypervisors. Microsoft wird die Virtualisierung in das Betriebssystem einbauen. Auf jedem Computer, auf dem Server 2008 installiert ist, stehen virtuelle Server zur Verfügung. Bei Xensource wird der Hypervisor mit einem Linuxkern gebündelt, der auf dem Computer installiert wird. Die Maschine bootet dann nicht mit einem Betriebssystem, wie gewohnt, sondern mit dem Virtualiserungskern, auf dem dann nahezu beliebige Gastbetriebssysteme installiert werden können. Noch einen Schritt weiter geht vmWare. Zusammen mit Hardwareanbietern wie Dell, IBM, NEC, Fujitsu-Siemens und HP werden Server angeboten, die den Hypervisor direkt in die Hardware integrieren. Sofort nach dem einschalten steht der Hypervisor zur Verfügung und bootet die installierten virtuellen Maschinen. Um den Anwendern mehr Sicherheit und Freiheit zu geben haben sich Dell, HP, IBM, Microsoft, vmWare und XenSource zusammengeschlossen und ein gemeinsames Datenformat für virtuelle Maschinen zur Normung durch die DMTF (Distributed Management Task Force) vorgeschlagen, das OVF oder Open Virtual Machine Format. Damit können dann virtuelle Computer auf jedem Hypervisor laufen, der dieses Dateiformat kennt.

Im Cern setzt man auf die freie Virtualisierungsmaschine XEN. Sie ist nach als Open Source frei verfügbar und kann von den Wissenschaftlern an ihre speziellen Bedürfnisse angepasst werden. XenSource sieht in der freien Software einen Vorteil für die kommerzielle Abteilung, weil die Menge der Entwickler, die an dem Hypervisor arbeiten, ein großes Potential zur kontinuierlichen Weiterentwicklung. Der eigentlich rein kommerziell aufgestellte Anbieter vmWare bietet seinen Hypervisor allerdings auch kostenlos zum Download an. Er verfügt über alle Eigenschaften der kommerziellen Version. Allerdings kann man mit der Version keine neue Virtuelle Maschine anlegen.

Neben der reinen Virtualisierung der Server im Rechenzentrum propagieren die Enthusiasten auch die Virtualisierung der Arbeitsplatzrechner. Auf einem Hypervisor wird hierzu Windows oder Linux als virtuelle Maschine installiert. Mit einem Fernbedienungstool greift der Anwender auf diesen Rechner zu und Arbeiter daran wie an seinem Arbeitsplatz. Der Vorteil ist, dass Systemadministratoren neue Rechner schnell aufsetzen könne, indem sie einfach die Dateien, die eine virtuelle Maschine repräsentieren, kopieren, einen neuen Rechnernamen vergeben und fertig ist die neuen Workstation. Über eine Managemantsoftware von vmWare kann eine Sammlung von virtuellen Rechnern einer Gruppe von Anwendern zugeordnet werden. Logt sich ein Anwender über einen Browser, also auch über Internet, ein, so kann er aus dem Angebot der Maschinen, die er nutzen darf, eine auswählen. Per gesichertem fernzugriff kann er von jedem Ort der Welt an seinem –virtuellen- Arbeitsplatz arbeiten. Vorteile sehen die Anbieter und Systemadministratoren in der gesteigerten Sicherheit, weil die Daten nie das Rechenzentrum verlassen. Wenn ein Außendienstmitarbeiter mit seinem Notebook arbeitet, läuft er Gefahr, dass vertrauliche Daten beim Verlust seines Rechners in die falschen Hände geraten. Bei der Arbeit am virtuellen Arbeitsplatz, bei der das Notebook nur al Fernsteuerung dient, sind die Daten immer sicher im Firmensitz aufgehoben.

Für die Zukunft strebt vmWare die Ausfallsicherheit virtueller Systeme an. Wenn heute die Hardware eines Rechners versagt, sind alle virtuellen Maschinen auf dem System tot. Manuell muss das Backupsystem hochgefahren werden. Zukünftig sollen jeweils zwei identische virtuelle Maschinen auf zwei verschiedenen Rechnern parallel laufen. Ein Master und ein Slave. Fällt der Master aus, übernimmt der Slave nahtlos die Arbeit. Weil beide immer mit den gleichen Daten versorgt werden, ist die Datenintigrität gesichert. Ein Verfahren, dass man aus dem so genannten Clustern von Computern kennt, allerdings müssen dabei immer mindestens zwei Rechner die gleichen Aufgaben übernehmen. Das erhöht die Anzahl der notwendigen Rechner.



zurück zum Archiv
Anhören:


Multibitratestream (32/56/128 kbit/s) Mediaplayer
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss