ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

27.11.2006
Folge 19

Suse/Novell und Microsoft

Als vor wenigen Wochen die Meldung kam, dass Novell jetzt mit Microsoft auf dem Sektor Linux kooperieren will, da war diese Nachricht für viele kaum zu glauben. Denn inall den Jahren davor hatte Microsoft jede Gelegenheit genutzt, um dem ungeliebten Konkurrenten eine auszuwischen.
Klar - beides sind proprietäre Operationssystem, mit denen man alle Sparten der Computertechnik lösen kann. Ob es Internet, Grafik, Musik oder Video ist - beide Systeme erledigen das mit ihren eingebauten Grundfunktionen.



Der riesige Unterschied liegt in der Lizenzpolitik. Während Microsoft sehr strenge Lizenzpolitik betreibt und jedem Rechner eine eigene Lizenz verpasst, ist bei Linux das anders: eine CD für beliebig viele Rechner. Und auch die Software wird anders gehandled. Die meisten Programme werden kostenlos geliefert, während Microsoft an jedem Word, an jeder Navigationssoftware usw. verdienen will.

Microsoft ließ es nie aus, die Gelegenheit zu nutzen, um Linux als Spezial OS hinzustellen, das nicht alltagstauglich ist, weil es zu schwer zu installieren und zu bedienen ist. Am Anfang war das wirklich so. Und manchmal kam auch das X zur Oberfläche und zeigte seine starke Verwandtschaft zu UniX. Schließlich ist Linux aus der Wortumstellung aus Unix geworden.

Kryptische Eingaben, unbekannte Softwaretools und Inkompatibilitäten und anfangs die Probleme die richtigen Treiber für Linux zu finden. Man hatte manchmal den Eindruck, als hätte das Wort' Treiber'  etwas mit 'Auftreiben' zu tun gehabt. Doch all diese Anfangsprobleme scheinen sich mit der Zeit aufgelöst zu haben. Heute findet z.B. eine Knoppix CD beim Hochladen alle Treiber für die Kommunikation, für den Bildschirm usw. vollautomatisch - zum Teil viel besser und sicherer als der KonkurrentWindows.


Microsoft schaffte es jedenfalls über Jahre hinweg den Konkurrenten Linux zu verteufeln. Die Entscheider in den Firmen hatten oftmals nicht das Standing, um eine Linuxinstallation als Netzwerk durchzusetzen - obgleich dann die ganze Lizenz abhängigkeit  des Herstellers mit einem Schlag gelöst worden wäre. Und dann als Software die Open Source Ausgaben einzusetzen, wäre clever gewesen, weil dann die Computerausrüstung auf die Hardwarekosten geschrumpft wäre. Aber wie mir so mancher Entscheider erzählte, fuhr Microsoft zum Teil sehr psychologisch geschickte Strategien.
Man stellte einfach etwas in den Raum, was nicht bewiesen war. Es könnte sein, dass ... es später zu Problen führt, wenn .....Und wahrscheinlich wird Microsoft einige Patente einklagen, die von Linux ..... Und irgenwie passt das nicht, wenn man einen Teil mit Microsoft und den Rest dann mit Linux .....oder umgekehrt.



Diese leichten Drohungen hielten viele von dem Wechsel ab. Wer sich nicht sicher sein konnte, dass er störungsfrei eine Umstellung starten konnte, der ließ lieber die Finger davon und setzte auf das zwar teure, doch unproblematische System.
Diese erfolgreiche Strategie von Microsoft eckte mehrmals schon in Brüssel an, so dass schwere Strafen erteilt wurden. Die weitere Strategie der Verdrängung und der Weg zum Monopol hätte die Stellung von Microsoft nicht verbessert und die Wettbewerbshüter wären hätten noch genauer hingeschaut.

Die Meldung hat daher viel Hintergrund. Die Meldung, dass Microsoft jetzt auch keine Patentstreitigkeiten mehr ausfechten will, ist für die Entscheider jetzt ein Schritt mehr in Richtung Linux. Und dass man mit Linux auch Geld verdienen kann, das zeigt IBM, die zwar keine Computer mehr bauen, aber mit Linux als Service gutes Geld verdienen.

Microsoft will auch jetzt nicht kleckern. Zusammen mit Sus/Novell will man jetzt Märkte gewinnen, um neben Windows als Nummer 1 auch Linux gegenüber Redhat mit Suse den 1. Linuxplatz erklimmen. Mit geballter Marktmacht könnte dies schnell erreicht werden.
Dann wird vielleicht auch  der Traum wahr, dass man Linux und Windows als paralleles OS auf einen Rechner spielen kann und kann on the fly das Betriebssystem wechseln.
Schon im nächsten Jahr kann das Wahrheit geworden sein.


Netzgeplänkel

Das war eigentlich gar nicht geplant, dass wir uns über den Werdegang des Internets unterhalten wollten. Doch, wenn es einmal losläuft, dann sind wir kaum noch zu bremsen. Und so kam da sicherlich einiges Interesannte dabei herum. Noch nie gab es eine Technik, die sich so schnell durchsetzte, als einmal das Eis gebrochen war. Wenn man so will, dann kann man die Existenz des Internets auf 1969 zurückdatieren, als das damalige amerikanische ARPA Net seinen Dienst versah und mit Internetstrukturen aufgebaut wurde.



Wie immer eigentlich war es auch hier das Militär und der Kalte Krieg, der die Fortschritte initiierte. Die Generäle hatten ganz einfach Angst vor Bomben aus Russland, die eventuell ein Rechenzentrum zerstören könnten. Damals waren die Datenstrukturen noch komplett zentral arrangiert. Ein Rechenzentrum A enthielt alles von A-Z, das Rechenzentrum B hatte seine eigenen A-Z's. Wäre also ein Rechenzemtrum zerstört worden, so wären alle Informationen verloren gewesen. Mit dem ARPA Net kam eine verteilte Struktur zum Zuge. Jedes Rechenzentrum erhielt Teile des gesamten Netzes, so dass man nach Zerstörung eines Zentrums die komplette Netz aus den Teilspeicherungen der anderen Rechenzentren zurückbauen konnte.

Der Ernstfall ist zum Glück nie eingetreten. Dafür aber wurden die Weichen für das Internet gestellt. Wenn man bedenkt, dass im Jahre 1985 nur 19.000 Menschen im Internet waren, so ist der spätere Anstieg kaum zu glauben.

Eine etwas dümmliche Statistik geht mir nicht aus dem Kopf. Sollte das Internet weiterhin so in seiner Mitgliederschaft steigen, wie 1995, 1996, 1997 und 1998, dann wäre im Jahre 2002 jeder Mensch auf der Erde mit einem Internetanschluß gesegnet. Dass das so nicht kam, das wusste man damals schon, auch heute ist die Sollzahl von ca. 6 Milliarden Anschlüssen noch nicht erreicht. Aber die Zahl gab Auskunft über die Rasanz, mit der das Netz sich verbreitete.

Eigentlich kann man es sich gar nicht mehr vorstellen. 1994 und 1995 kommunizierten wir im WDR mit einer halben ISDN - Leitung zum Provider in Köln Porz. Also 64 kbit/s für alle. Aber es reichte aus, um eine Kommunikation zu fahren. Wir waren auch alle noch nicht so anspruchsvoll. Von 1 MBit/s wagten wir nicht zu träumen. Das war in späteren Jahren dem WDR vorbehalten. Man glaubt es gar nicht, wie ehrfürchtig wir vor dieser Zahl erstarrten und gleichzeitig munkelten wir schon von 2 MBit/s.

Ich weiß heute nicht mehr, was der WDR für eine Anbindung hat. In der Sendung faselte ich von mindestens 10 MBit/s. Das war aber wahrscheinlich total unterbelichtet, denn ich alleine habe ja schon 6 MBit/s und das nur, weil man mir keine 16 MBit/s liefern konnte. Sicherlich liegt der WDR mittlerweile (für 5000 Internetterminals) wahrscheinlich schon im Terabit/s - Bereich.

Nicht nur der Gewschwindigkeitsanstieg ist schwindelerregend, auch der Inhalt des Netzes hat eine rekordverdächtige Seitenanzahl. Alleine wenn man alle derzeitig bekannten Internetseiten zusammenrechnet, dann sind es 100 Millionen. Aktiv davon sollen 50 Millionen sein.

Wenn man bei Google ein 'e' als Suchbegriff eingibt, dann sind es immerhin 8.990.000.000 Dokumente, die gefunden werden. Da liegen wir dann schon im Milliardenbereich.

Betrachtet man das letzte Jahrhundert und stellt die Frage nach der wichtigsten Erfindung, so wird man als Jahrhunderterfindung den Computer nennen, wenn man die Aussage im letzten Jahrhundert macht. Gibt man die Wertigkeit rückblickend von heute ein, so dürfte es schon das Internet sein, das die höchste Relevsanz erreichen wird.



Vieles wird sich noch verändern. Leider auch unsere gewohnte Infrastruktur. Wir werden erleben, wie sich die Städte leeren werden, weil immer mehr Geschäfte dem Internethandel weichen müssen. Die Waren werden unglaublich günstig verkauft werden können, weil eine völlig neue Struktur aufgebaut wird. Kein teurer Verkaufsraum, keine Schaaufensterscheiben, keine teuere Stadtmiete mehr, sondern Hochregale und viel Computer und ein effektiver Lieferservice.

Doch was machen wir dann mit unseren Städten. Noch gibt es kein Rezept dafür.


Der NEMP


Taken 500 meters east of the hypocenter (7 August, 1945)
Photo : Mitsugu Kishida


Wer einmal in Hiroshima das Museum besuchte, in dem die Atombombe aufgearbeitet ist, der weiss, wie schrecklich ein solches Szenario sein kann. Es muss ein schreckliches Inferno gewesen sein, wenn sich jemand in der Peripherie der Stadt aufhielt. Wer im Zentrum war, der hatte sowieso verloren.

Unglaublich war für mich, dass durch die Detonation und das nachfolgende  Feuer ganze Eisenbrücken mit dicken Trägern sich verformten. Es muss einem Inferno geglichen haben. Zum Glück sind die Auswirkungen eines solchen Atomschlags so tief in die Gehirne eingebrannt, dass es bisher noch niemand wagte, es noch einmal zu tun.

Entsprechend  harmloser hört sich daher ein Szenario an, von dem man weiß, was es auslöst. Zündet man außerhalb der Atmosphäre in 20 bis 100 Kilometer Entfernung vom Boden, so wird ein mächtiger Elektromagnetischer Impuls freigesetzt, der zwar dem Menschen nichts antut, der aber alle elektronische Infrastruktur zerstören würde. Eine solche Bedrohung nennt man NEMP. Nuklearer Elektro Magnetischer Impuls.

Durch vorhergehende Untersuchungen und durch Simulation kann man  die Auswirkungen beschreiben. Der NEMP erstreckt sich von Horizont zu Horizont, überstreicht also ein unglaublich großes Gebiet. Europa wäre mit einer Atombombe lahmzulegen. Da der Elektromagnetische Impuls am stärksten direkt unter der Bombe ist, kann man von ca. 50 KV/m ausgehen. Sind an einem elektronischen Gerät Strippen, Netzkabel o.ä.  angebracht, so wird hierüber, quasi als Antenne, ein extrem hoher Spannungsimpuls, der zu einem extrem hohen Stromstoß führt, ausgelöst.

Das Ergebnis wäre katastrophal: Alle Autos würden stehenbleiben (der ganz alte VW vielleicht nicht), Telefone wären kaputt, das Fernsehgerät wäre dunkel, der Strom würde fehlen usw. usw. Der Phantasie sind hier keine Grenzen gesetzt.

Man könnte dem NEMP nicht entrinnen, es sei denn, man hätte vorher alle Geräte für diesen Fall gehärtet. Bei den Militärs war dieses einmal ein großes Thema, doch mittlerweile geht denen wohl auch das Geld aus. Die Absicherung eines elektronischen Gerätes kostet etwa 4 mal so viel wie das Gerät selbst. NEMP gehärtet sind wohl einige Bundeswehrzentralen. Doch einer solchen Detonation wäre die Bundeswehr heutzutage komplett ohne Schutz ausgeliefert.

Etwas anders soll dies  in der Schweiz aussehen. Offenbar ist hier noch Geld vorhanden, so dass dort sogar zivile Einrichtungen gehärtet werden. Ich sehe das in der Wohnung in Ascona / Lago Maggiore. Dort haben wir unten im Keller einen richtigen Raum, der bei einem Atomangriff Schutz bieten soll. Dort gibt es z.B. eine gefilterte Belüftung mit Notstromaggregat. Und ... die gelagerten Lebensmittel, wie Nudeln, Büchsen usw. werden turnusmäßig ausgetauscht. Auch eine Wasseraufbereitung ist installiert denn es würde ja nichts nützen, wenn man da drin sitzt und müsste verseuchtes Wasser benutzen. Ich glaube, dass es heute kein Zwang mehr ist, bei Neubauten einen solchen Keller anzulegen. Doch tausende und abertausende eidgenössische Wohnung haben einen Atomschutzkeller.

Am besten man würde all diese Möglichkeiten verschweigen. Es gibt da ja auch grausame  EMP Waffen, die punktuell töten können. Zum Glück kennt man da nicht alles, was der Mensch sich schon ausgedacht hat.

Doch es hat natürlich keinen Zweck, das alles zu vertuschen. Die Gefahr besteht und wenn man sieht, wie die Welt sich in punkto Atompolitik bewegt, dann muss man hoffen, dass alles unter Kontrolle ist.

Es ist entschieden einfacher für die Nordkoreaner oder die Pakistanis oder die Iraner eine Rakete in den Himmel zu schießen und sie in einer beliebigen Höhe explodieren zu lassen, als punktgenau eine Bombe zu einem Ziel zu transportieren.



Das Gespräch über den NEMP führte ich wieder in dem Fraunhofer Institut INT in Euskirchen. Hier spielt man solche Szenarien durch, experimentiert mit Strahlenquellen und misst die Empfindlichkeit von elektronischen Geräten. Mein Ansprechpartner war wieder Dr. Hans Ulrich Schmidt.


zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss