ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

09.11.2009
Folge 193

Notfallpläne taugen nichts - ohne Test

Eine Studie deckt erheblichen Nachholbedarf auf – besonders in Virtualisierungsumgebungen


Heinz Schmitz

Nach dem „2009 Disaster Recovery Research Report“ von Symantec stieg im vergangen Jahr der Druck auf IT-Entscheider in diesem Bereich erheblich an. Gründe waren die ansteigenden Kosten für Ausfallzeiten und strengere Service-Vorgaben (SLAs). Gerade in virtuellen Umgebungen besteht dringender Handlungsbedarf beim Implementieren und Testen der Notfallpläne. Die Studie wurden im Juni dieses Jahres 1650 IT-Leiter und Sicherheitsexperten aus mittelständischen und großen Unternehmen durch ein Marktforschungsunternehmen befragt. Die internationale Studie wurde in 24 Ländern in Amerika, Europa, dem Mittleren Osten, Asien und Südamerika durchgeführt.

Ausfälle kosten Geld. Der geschätzte Schaden, der durch Ausfallzeiten verursacht wird, belief sich nach Ergebnissen der Studie in Deutschland im Schnitt auf rund 500 Euro pro Stunde. Eine abgestürzte Datenbank verschlingt alle 60 Minuten sogar 1750 Euro. Um einen kritischen Vorfall komplett zu beseitigen, mussten die befragten IT-Leiter weltweit durchschnittlich 287 600 Dollar ausgeben. In dieser Summe sind neben dem Ausfall des Systems auch Implementierung und Ausführung eines angemessenen Notfallplans enthalten. In Deutschland lag der Mittelwert mit rund 500.000 Dollar fast doppelt so hoch. Damit kommen hiesige IT-Administratoren im internationalen Vergleich noch glimpflich davon. Länder wie die USA und Japan gaben bis zu einer Million Dollar in Branchen wie dem Finanzsektor aus. Vor diesem Hintergrund können Ausfälle in eine wirtschaftliche Katastrophe münden. Ein Grund, weshalb immer mehr Unternehmen frühzeitig das Top Management in die Planungen einbeziehen: In 67 Prozent aller Disaster Recovery Arbeitsgruppen sitzen neben IT-Mitarbeitern auch CIOs, CTOs oder IT-Direktoren am Tisch. Das Thema ist endlich auch in den Führungsetagen der Unternehmen angekommen.

Der finanzielle Spielraum hat sich für viele IT-Administratoren erweitert, so die Studie. Allerdings werden die finanziellen Mittel aller Voraussicht nach in den kommenden Jahren nicht weiter zunehmen. Die Verantwortlichen müssen also in Zukunft mit gleichen Mitteln auskommen. Lediglich in Deutschland blicken IT-Entscheider optimistischer in die Zukunft. Hier rechnen zwei Drittel aller Befragten auch künftig mit steigenden Mitteln. Aber auch hierzulande überwiegt die Sorge, Kundendaten und eigene Umsätze durch Ausfälle zu gefährden.

Deutsche Unternehmen peilen eine durchschnittliche Wiederherstellungszeit von vier Stunden an. Damit liegen sie zwischen Spaniern (drei Stunden) und Franzosen (sechs Stunden) im europäischen Mittelfeld. Die Kombination aus Tests der Notfall- und Wiederherstellungspläne und Virtualisierung fordert jedoch viele Unternehmen weiterhin heraus. Rund 27 Prozent aller Unternehmen testen virtuelle Umgebungen innerhalb dieses Rahmens überhaupt nicht. Immerhin hat sich ihr Anteil gegenüber dem vergangenen Jahr verringert – 2008 waren es noch rund 35 Prozent.

Etwa ein Drittel aller Unternehmen weltweit gab an, in virtuellen Umgebungen keinerlei Backup-Strategie zu folgen. In Deutschland waren nur sechs Prozent der Unternehmen derart unvorsichtig. Die nachlässigen Firmen nannten als Gründe, dass in erster Linie Speicherplatz fehlte und es an automatischen Lösungen mangele. Eben diese beiden Punkte wurden auch von den Unternehmen mit existierender Backup-Strategie als weiterhin problematisch bemängelt. So wünscht sich rund die Hälfte der Studienteilnehmer ausgefeilte Tools, damit sie kritische Daten und Anwendungen in virtuellen Umgebungen besser absichern können.

Auch personelle Engpässe und ein zu kleines Budget machten IT-Administratoren im Zusammenhang mit virtuellen Maschinen das Leben schwer. Wohl auch deshalb gaben rund 64 Prozent aller Befragten an, ihren Disaster Recovery Plan im Hinblick auf die verwendeten Virtualisierungslösungen in den kommenden Monaten noch einmal ausführlich überarbeiten zu wollen. In Deutschland wollen rund 81 Prozent der Studien-Teilnehmer noch einmal ihre Prozesse verbessern.


Der „2009 Disaster Recovery Research Report“
http://www.symantec.com/content/de/de/about/downloads/press/Disaster_Recovery_Survey_Report_Global_Findings.pdf

http://www.symantec.com/content/de/de/about/downloads/press/Disaster_Recovery_Survey_Report_EMEA_Findings.pdf


Peter Welchering über Windows 7

Für Microsoft-Verhältnisse ist Windows 7 extrem schnell auf den Markt gekommen. Möglicher Grund: Der Vorgänger des Betriebssystems, Vista, wirkte sich imageschädigend auf den Software-Konzern aus.


Peter Welchering

Wer Verlautbarungen aus Redmond ernst nimmt, der hätte seinerzeit meinen können, Windows Vista sei ein echter Renner gewesen. 100 Millionen mal sei es im ersten Verkaufsjahr, 2007, ausgeliefert worden - das war ein Rekord. Tatsächlich aber lehnten viele Anwender Vista ab, weil es überladen und träge sei. Und zudem hatte Microsoft äußerst lange gebraucht, um überhaupt etwas Neues herauszubringen. Der Gartner-Analyst Michael Silver höhnte damals:

"Es hat fünf, sechs Jahre gedauert, um bis hierher zu kommen. Aber ein Betriebssystem zu wechseln, ist ja immer auch mit Mühe verbunden. Und die Anwender wollen schließlich Innovationen sehen, damit sie das Gefühl haben, etwas für ihr Geld zu bekommen, etwas, das ihnen nützt und die Mühe wert ist. Ich glaube aktuell ist der Nutzen zu gering und die Mühe zu groß."

Windows 7 ist schneller in die Läden gekommen, deutlich früher, als ursprünglich geplant. Microsoft war im Druck. Inzwischen sind leichte Netbooks auf dem Markt. Und die sind zu schwach, um Vista fahren zu können. Der Konzern musste deshalb den Verkauf von Windows XP verlängern, um überhaupt in dieses Geschäft einsteigen zu können. Und auch die Besitzer von starken Rechnern langweilen sich, während Vista bootet. Auf seiner Werbetour für Windows 7 diesen Monat lobte Microsoft-Chef Steve Ballmer denn auch am neuen Betriebssystem die schiere Selbstverständlichkeit, dass man damit arbeiten kann, ohne ständig warten zu müssen.

Natürlich hat Windows 7 auch eine weiterentwickelte Benutzerschnittstelle. Ben Basaric, der zuständige Produktmanager:
"Also Geräte, die funktionieren wie Apples iPhone mit einem berührungsempfindlichen Bildschirm, auf dem man mehr tun kann, als nur einen Punkt anzutippen, solche Geräte können auch unter Windows 7 gefahren werden. Und darüber hinaus gibt es noch Verbesserungen im Detail:"

Mit Windows 7 will Microsoft seine bis zum Start von Vista dominierende Stellung auf dem Markt für Betriebssysteme wiederherstellen. Das allerdings dürfte schwer werden. Denn die hat stark gelitten. Anders als bei Desktop-Rechnern und Notebooks ist Linux auf Netbooks ein veritabler Konkurrent für Windows geworden. Microsofts Rivale im Internet, Google, nutzte die Schwächephase des Software-Giganten, um ein eigenes Betriebssystem anzukündigen, eines, das das Gegenteil von Vista werden soll, anspruchslos und aufs Wesentliche reduziert: Chrome-OS.

Und schließlich hat noch die EU-Kommission Microsoft in die Schranken verwiesen. In Europa muss der Konzern Windows 7 mit einer Auswahl von verschiedenen Browsern ausliefern. Vielleicht ist dieser bescheideneren Ausgangsposition auch der Name des neuen Betriebssystems geschuldet. Er spielt nicht wie die seiner Vorgänger auf die große Erfahrung des Konzerns an, auf das neue Jahrtausend oder auf den Blick in die Zukunft, sondern das Stück Software heißt schlicht: Windows 7.


Interaktion versus Automatisierung: Die zwei Gesichter der Deduktion

In neueren Anwendungen der Logik haben sich zwei verschiedene Ansätze etabliert. Zum einen versucht man, das "natürliche" (menschliche) Schließen in speziellen Problembereichen zu formalisieren. Zum anderen wird versucht, Techniken zu entwickeln, um logische Schlüsse automatisch durchführen zu können. In der Informatik haben sich diese beiden Ansätze zu den Gebieten der "interaktiven" und der "automatischen Deduktion" entwickelt.

Für sich allein genommen, sind beide Ansätze nicht ideal für das Hauptanwendungsgebiet der Deduktion, die Verifikation von Programmen. Die bestehenden interaktiven Systeme sind nur von spezialisierten Fachleuten einsetzbar und ihre Verwendung ist sehr arbeitsaufwendig, da selbst einfache Beweisschritte benutzergesteuert durchgeführt werden müssen. Die automatischen Systeme hingegen berücksichtigen nicht die wesentlichen Aspekte (wie z.B. die Behandlung von Arithmetik), obwohl diese bei der Verifikation von Programmen unabdingbar sind.

Aus diesem Grund  wurde noch eine dritte Gruppe anwendungsspezifischer Techniken und Werkzeuge entwickelt, die auf Entscheidungsverfahren für verschiedene logische Theorien basieren (sogenannte "SMT Solver"). Diese Systeme wurden in Tools integriert, die auf Techniken aus den Bereichen der Programmanalyse und der Automatentheorie beruhen. Auf diese Weise wurde es möglich, Programmverifikation industriell einzusetzen und beispielsweise vollautomatisch C-Programme mit Tausenden von Programmzeilen auf bestimmte Korrektheitseigenschaften zu überprüfen.


Prof. Jürgen Giesl, RWTH Aachen

In dem Dagstuhl-Seminar wurden Wissenschaftler aus den verschiedenen Bereichen zusammengeführt, um die Synergien zwischen den einzelnen Forschungsbereichen herauszuarbeiten und Möglichkeiten zu finden, wie sich Techniken und Tools der verschiedenen Ansätze der Deduktion miteinander verbinden lassen.

Mehr Informationen zu dem Dagstuhl-Seminar und den Teilnehmern finden  
sich unter http://www.dagstuhl.de/09411.


zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss