ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

11.04.2011
Folge 271

Globaler Datenberg Internet

Das Internet wächst und wächst und wächst. Forsch der University of California in San Diego haben eine Studie veröffentlicht, der zufolge allein die Enterprise-Server rund um den Planeten im Jahr 2008 aufgrund die unglaubliche Menge von 9,57 Zettabyte - also fast zehn Trilliarden Byte – verarbeitet haben. Das entspricht rund 20 Bücherstapeln von der Erde bis zum Neptun.

Im Jahr 2008 verarbeiteten rund 27 Mio. Server digitale Informationen in Unternehmen. Dabei sind viele Daten flüchtig. Sie werden innerhalb weniger Sekunden geschaffen, verwendet und wieder verworfen. Der tatsächlich verarbeitete Datenberg fällt dadurch so hoch aus, eben die geschätzten 9,57 Zettabyte für das Jahr 2008. Er wächst rasant mit den verfügbaren Serverkapazitäten. Geht man bei einem entsprechenden Bücherstapel von 4,8 Zentimeter dicken Büchern mit 2,5 Megabyte an Informationsinhalt aus, so würde der Stapel 2024 so hoch, dass er die Entfernung von 4,37 Lichtjahren - über 40 Bio. Kilometer - zu Alpha Centauri überbrückt.


Heinz Schmitz der in der ersten „virtuellen“ Produktion über hohen Datenverkehr durch den Datenmüll im Internet berichtet.

Ein weiterer Effekt erhöht den Datenverkehr und die gespeicherten Daten im Netz.Die Zahl der Webseiten, die lediglich sich wiederholende oder minderwertige Inhalte vervielfältigen steigt stetig, Auch mit Hilfe von Suchmaschinen ist es deutlich schwieriger geworden, gewünschte und nützliche Inhalte im Internet zu finden. Sicherheitsexperten von F-Secure habe ermittelt, dass jeden Monat mehrere Millionen Webseiten mit bestenfalls durchschnittlichem Neuigkeitsgehalt online gehen. Es ist schwer relevante Informationen mit Hilfe der Suchmaschine Google zu finden, da die Suchergebnisse durch Spam-Webseiten und sogenannte „Contentfarmen“ (http://de.wikipedia.org/wiki/Content_Farm) verwässert werden. Contetnfarmen bereiten Inhalte anderer Seiten Suchmaschinengerecht auf. Obwohl sie kaum eigenen Infiormationen liefernm,lanmden sie in den Trefferlisten der Suchmaschinen weit oben. Es ist zu befürchten, dass diese Contentfarmen das Internet in eine riesige Müllhalde verwandeln, dass viele Webseiten lediglich den Inhalt von anderen Webseiten reproduzieren und dass Google keinerlei Veranlassung sieht, diese Entwicklung einzudämmen, da das Unternehmen damit hohe Webeeinnahmen erzielt.

Zwar hat Google kürzlich seinen Suchalgorithmus verbessert, um den Page-Rank minderwertiger Webseiten entsprechend anzupassen mit keinem wirklich durchschlagenden Erfolg. Dem Unternehmen zufolge trägt diese Veränderung bereits Früchte: 11,8% der gesamten Suchergebnisse wurden neu bewertet. Jedoch sind davon auch bekannte und renommierte Webseiten wie das British Medical Journal betroffen, das deswegen in der Trefferliste nur noch sehr weit hinten zu finden ist.

Das Internet ist zwar in vielen Fällen die Informationsquelle erster Wahl. Jedoch stellt der Datenmüll der unabsichtlich oder gewollt das Netz verstopft, die Suchmaschinenhersteller vor immer neue Herausforderungen. Für Anwender wird es schwerer relevante Informationen in den Suchergebnissen zu finden. Vielleicht könnten neue Suchalgorithmen die unnötigen Webseiten der Contentfarmen eindämmen und Trefferleisten zu Ergebnislisten werden lassen.


zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss