ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

22.10.2007
Folge 73

Mit dem Ähliminator meinen wir es ernst.

Ähliminator  gesucht:


So sieht die Hüllkurve eines "Äh"s aus.
Und so hört es sich an: aeh01.wav

„Äh“ macht jeder, mal mehr, mal weniger – immer wenn jemand schneller redet, als er denken kann, muss ein „Äh“ her. Es füllt die Pause bis der Verstand bereit ist, das nächste Wort zu formulieren. Besonders wenn jemand unsicher ist oder über unangenehme Dinge redet, häufen sich die „Ähs“. Wolfgang Back und Wolfgang Rudolph bringen es pro Sendung auf rund 20-30 „Ähs“ pro Kopf. Sie werdenm von uns dann weggeschnitten, wenn sie als Information überflüssig sind und der schnitt akustisch nicht stört. Je nach dem wer im Interview noch auftaucht, fallen nochmals 30-40 „Ähs“ zur Bearbeitung an. Die muss man natürlich nicht immer wegschneiden. Man kann und sollte sie auch drin lassen, wenn man zum Beispiel darstellen will, wie sensibel ein bestimmtes Thema ist...

Sieben „Ähs“ haben wir als Soundprobe herausgeschnitten und die Hüllkurven als Bild gegrabbt.

Wobei Probe 1-3 von einem Telefoninterview-Partner stammen.
Proben 4 und 5 stammen von Wolfgang Rudolph. Er ist im Stereosignal etwas rechts-lastig (ca. 5 dB Unterschied),
während Wolfgang Back (Proben 6 und 7) etwas links-lastig daher kommt.

Mit den Hörbeispielen müssen wir noch etwas warten. Die Eingabe von Sounddateien war bisher noch nicht vorgesehen. Der Versuch, die Datei als URL auf den Server zu legen klappte irgendwie nicht. Da muss ich später einmal Michael Joest kontaktieren.
Wir haben es jetzt anders gelöst. Die Files werden vom Media01 Server gelinkt. Im CMS müssen wir erst noch die wav Files freischalten.


Schaut man sich die Hüllkurven der „Ähs“ an, so fällt auf, dass sie auch optisch charakteristische Merkmale haben. Sie bilden fast immer eine querliegende „Birne“, wobei der Boden links und der „Stiel“ am rechten Ende liegt. Wir suchen ein Programm, dass per Mustererkennung „Ähs“ herausfindet und automatisch aus der WAV-Datei schneidet. Die Punkte, an denen Ähs eliminiert werden, sollten durch einen Cue-Point gekennzeichnet werden. Wir benutzen WAV-Dateien im Format RIFF WAVE PCM mit 16 BIT und 44,1 KHz Samplingrate. Die Definition des Wave-Formates findet man hier: http://de.wikipedia.org/wiki/RIFF_WAVE

Wir freuen uns über jeden Programm-Vorschlag. Da wir ihn auch veröffentlichen wollen, solltet Ihr Eure Programme unter die GPL stellen. http://de.wikipedia.org/wiki/GPL
Hier kommen jetzt einige Hüllkurven und die entsprechenden Soundfiles.


das zweite Beispiel ist unten angezeigt.



aeh02.wav

das dritte Beispiel ist unten angezeigt



aeh03.wav


das vierte Beispiel ist unten angezeigt



aeh04.wav

das vierte Beispiel ist unten angezeigt



aeh05.wav


das sechste Beispiel ist unten angezeigt



aeh06.wav


das siebte Beispiel ist unten angezeigt



aeh07.wav



Eine Schnittstelle zwischen Gehirn und Computer

Bereits seit einigen Jahren arbeiten Forschungsgruppen in Europa und den USA an Systemen, die einen direkten Dialog zwischen Mensch und Maschine ermöglichen sollen. Hierzu wird eine Schnittstelle zwischen Gehirn und Rechner entwickelt, das Brain-Computer Interface (BCI). Man nutzt dazu die elektrische Hirnaktivität in Form des Elektroenzephalogramms (EEG). An der Kopfhaut angebrachte Elektroden messen die hirnelektrischen Signale. Diese werden verstärkt und an den Computer übermittelt, der die Gehirnsignale in technische Steuerungssignale umwandelt. Das Funktionsprinzip des BCI basiert darauf, dass die Hirnaktivität bereits die rein gedankliche Vorstellung eines Verhaltens widerspiegelt, zum Beispiel die Vorstellung, eine Hand oder einen Fuß zu bewegen. Das BCI erkennt die damit korrelierenden Veränderungen des Hirnstrombildes und nutzt sie etwa zur Auswahl zwischen zwei Alternativen: während eine Option durch die Vorstellung, die linke Hand zu bewegen, ausgewählt wird, müsste man sich für die andere Option eine Bewegung der rechten Hand vorstellen. Auf diese Weise können Geräte gesteuert werden, die an einen Computer angeschlossen sind; selbst über das Internet ist solch eine Kommunikation realisierbar.


Dr. Benjamin Blankertz mit "Kopfelektrodenhelm"
Mit ihm sprachen wir in der Sendung

Im Rahmen des vom Bundesministerium für Bildung und Forschung geförderten Projektes (BMBF Förderkennzeichen 01KO0121, 01IBB02A/B, 01IBE01A/B) werden einerseits EEG-gesteuerte Systeme für den rechnergestützten Arbeitsplatz entworfen, die es beispielsweise ermöglichen, einen Cursor per Gehirnwellen zu steuern. Andererseits geht es darum, medizinische Werkzeuge für Patienten zu entwickeln, die von Muskelschwund betroffen oder querschnittgelähmt sind.

Die Untersuchungen der Hirnströme werden gemeinsam von Fraunhofer FIRST, Arbeitsgruppe Intelligente Datenanalyse, unter der Leitung von Prof. Dr. Klaus-Robert Müller und der Arbeitsgruppe Neurophysik, Klinik für Neurologie am Campus Benjamin Franklin der Charité - Universitätsmedizin Berlin, unter der Leitung von Prof. Dr. Gabriel Curio durchgeführt. Weiterer Kooperationspartner ist die Technische Universität Berlin.



Wieviel Speicher braucht der Mensch - Speicherprognose 2010

Speicher-Prognose 2010
Die neuesten Hits als mp3-Datei, Kochrezepte, das lustige YouTube-Video oder eine Präsentation aus der Firma - unzählige verschiedene Daten schwirren täglich im Netz umher, werden abgerufen und neu gespeichert. Unzählige? Zumindest schätzen kann man das Datenvolumen der digitalen Welt.

Laut dem Marktforschungsinstitut IDC werden im Jahr 2010 auf der Erde fast tausend Exabyte Daten gespeichert sein, das sind 1000 Milliarden Gigabyte.

Obwohl die Kosten für Speicherplatz stetig sinken und der Einsatz neuer Festplattentechnologien für Speicherrekorde am laufenden Band sorgt, wird der verfügbare Speicherplatz im Jahr 2010 nur bei rund 600 Milliarden Gigabyte angesiedelt sein. Damit wären also fast 400 Milliarden Gigabyte Speicher zu wenig vorhanden.

Allein im vergangenen Jahr umfasste das "Digitale Universum", wie IDC es nennt, 161 Exabyte. Auf jeden einzelnen der knapp 6,7 Milliarden Menschen auf der Erde kommen demnach umgerechnet rund 24 Gigabyte an digitalen Daten, die im Jahr 2006 entstanden sind. Die Marktforscher prognostizieren, das die digitale Informationsmenge jährlich um 57 Prozent zunimmt, sich bis 2010 versechsfacht und dann die unvorstellbare Masse von 988 Exabyte erreicht haben wird.
500 Milliarden Bilder
Laut Studie sind 70 Prozent der Informationsproduzenten Privatpersonen, die allein durch alltägliches Telefonieren, Fotografieren, Filmen, Internet surfen oder Fernsehen digitale Daten produzieren oder übermitteln. Bilder und Videos machen der Studie zufolge den Löwenanteil des Informationsuniversums aus: 2006 wurden laut IDC mehr als 150 Milliarden Fotos mit Digitalkameras aufgenommen, die Marktforscher erwarten über 500 Milliarden weitere Bilder bis 2010.

Die Menge der Daten ist nur schwer vorstellbar: Würde man das Datenvolumen des vergangenen Jahres, also 161 Exabyte, auf normale DVDs brennen, ergäbe das einen Turm von über 40.000 Kilometern Höhe - mehr als dreimal der Durchmesser der Erde oder auch etwa ein Zehntel der Entfernung von der Erde zum Mond.

Den rasanten Anstieg der Datenmengen führen die Analysten auf eine Reihe von Faktoren zurück. Neben der flächendeckenden Verbreitung von hochauflösenden Digitalkameras und dem ungebremsten Anstieg von E-Mail Daten und Webseiten, sorgt vor allem der Einzug der IP-Telefonie für ungeahnte Datenmengen. Der Vorteil bei letzterem liegt allerdings darin, dass die für das Telefonieren verwendeten Daten nicht langfristig gespeichert werden müssen – aber können!
Allein in Deutschland ist vergangenes Jahr ein Datenvolumen von 10 Exabyte entstanden und bis 2010 sind knapp 70 Exabyte zu erwarten.


Zurück zu den Wurzeln
Um das Problem der langfristigen Datenarchivierung in den Griff zu bekommen, greifen Wissenschaftler und Entwickler mittlerweile sogar wieder auf Methoden zurück, die bereits als überholt angesehen wurden. So hat beispielsweise das Unternehmen Micro Archive Systems ein Langzeitarchivierungssystem entwickelt, das auf dem Einsatz von Mikrofilm basiert.

Mit der Ablichtung von digitalen Dokumenten auf dem Mikrofilm sollen den durch die technische Weiterentwicklung entstehenden Migrations- und Kompatibilitätsprobleme vorgebeugt werden.
Wieviel ist denn ein Terabyte eigentlich? 1000 Megabyte nein, 930 MB!
Und wieso? Nach der formalen ISO-konformen Bezeichnung stehen die Vorsilben
kilo, mega, giga, tera, peta, exa, zetta, yotta für 103, 106, 109, 1012, 1015., 1018 , 1021 , 1024
Damit wäre ein Terabyte 1*1012 Byte, also 1.000.000.000.000 Byte. (eine Billion)

Wollten wir in der binären Zählweise arbeiten so müßten wir die
Vorsilben Kibi, Mebi, Gibi, Tebi, Pebi, Exbi, Zebi, Yobi (byte) verwenden.
Das wären dann
20   = 1,
210 = 1.024,
220 = 1.048.576,
230 = 1.073.741.824,
240 = 1.099.511.627.776,
250 = 1.125.899.906.842.624,
260 = 1.152.921.504.606.846.976,
270 = 1.180.591.620.717.411.303.424,
280 = 1.208.925.819.614.629.174.706.176,
Damit alles ganz klar wird heißen die zugehörigen Einheiten Ki, Mi, Gi, Ti, Pi, Ei, Zi, Yi immer mit einem B dahinter !

Würden sich nun alle daran halten und nicht SI-Einheiten als Binäre Vorsilben verwenden so hätten wir uns in den letzten 20 Jahren sicherlich bereits daran gewöhnt. Aber es geht, je nach Gutdünken durcheinander. Machmal ist es wirklich nicht klar welche Menge gemeint ist.
Ach ja, Die Binärpräfixe sind nur für Bit definiert und nicht für Byte, und was genau ein Byte bezeichnet, wird je nach Anwendungsgebiet wieder unterschiedlich definiert, von 5 bis 9 Bit!


Softwarefehler kann man vorhersagen

Wenn große Computerprogramme abstürzen, ist häufig nur eine von über hunderttausend Befehlszeilen falsch. Um den Code-Fehler zu finden, verbringen IT-Spezialisten aber oft ganze Nächte vor dem Bildschirm. Das ist teuer: Die Suche nach Fehlerursachen kann in Projekten bis zu 50 Prozent der Entwicklungskosten ausmachen.

Informatiker aus dem Saarland haben für die Programmierumgebung Eclipse nun eine Software programmiert, die Fehler genau aufspüren kann. Laut Andreas Zeller, Professor für Softwaretechnik an der Universität des Saarlandes, gibt es in der internationalen Softwaretechnik derzeit kein anderes Programm, das so genau arbeitet.  Fehlerursachen können damit vollautomatisch aufgespürt werden - in der Eingabe, im Programmablauf, oder in den letzten Änderungen. Bei der Suche in mehreren 100.000 Befehlszeilen wird dann als Ergebnis beispielsweise gemeldet: "Fehlerursache ist die Änderung in Zeile 45 vom vergangenen Montag".


Prof. Andreas Zeller, Saarbrücken

FEHLERSUCHE IM MICROSOFT CODE
Die Arbeiten von Zeller zur automatischen Fehlersuche wurden bislang mit dem Ernst-Denert-Preis für Software Engineering, einen ACM SIGSOFT Distinguished Paper Award und zwei Eclipse Innovation Awards von IBM ausgezeichnet. Zu seinen aktuellen Forschungsthemen gehören neben der automatischen Fehlersuche die experimentelle Programmanalyse, Software-Evolutionsmuster, selbstheilende Programme und das Aufspüren von Sicherheitslücken. Im Herbst 2005 konnte er als erster Forscher die Fehlerdatenbanken von Microsoft systematisch durchsuchen, um herauszufinden, wo sich die meisten Fehler häufen. Zellers statistische Verfahren sagen jetzt für neue Programme voraus, welche Stellen am fehlerträchtigsten sind - und Microsoft kann diese Stellen dann besonders sorgfältig untersuchen.
Dieses bleibt ein großes Arbeitsgebiet für Vista.



zurück zum Archiv
Anhören:


Multibitratestream (32/56/128 kbit/s) Mediaplayer
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss