ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

10.10.2011
Folge 291

Multicore überall

Das Paradigma schneller und schneller hat für Prozessoren ausgedient. Die Zukunft sehen alle Fachleute in der Parallelisierung. Für Rechner heißt das, dass Multicore-Prozessoren nicht nur im Arbeitsplatzrechner alltäglich sind, sondern auch in die Masse der versteckten Computer wandern. Bei Smartphones hat dieser Trend ja schon begonnen. Der Chip-Primus Intel, lange verschrien für seine stromfressenden Prozessoren arbeitet an effizienteren Chips. Ziel ist es, auch in mobilen Geräten besser vertreten zu sein, in denen vielfach Prozessoren mit ARM-Technologie zu finden sind.


Heinz Schmitz zu Multikern-Prozessoren die bald überall zu finden sein werden.

So sieht Intels CTO Justin Rattner die Bedeutung von Multicore- und Manycore-Computing, das zunehmend auch in Alltagsprodukten zum Einsatz kommt, sowie die unaufhaltsame Entwicklung in Bereichen mit extremen Rechenleistungen. Die Intel Labs haben zum Beispiel einen Forschungschip auf Basis des Intel Pentium Prozessors entwickelt, der von einer Solarzelle in Briefmarkengröße betrieben wird, jedenfalls im Ruhezustand. Der so genannte „Near Threshold Voltage-Prozessor“ arbeitet mit einer Versorgungsspannung, die nahe im Bereich der Schwellenspannung der Transistoren liegt und ist damit extrem energiesparend. Diese Forschungs-CPU läuft bei Bedarf sehr schnell, senkt aber die Leistung bei geringer Arbeitsbelastung auf unter 10 Milliwatt - sie ist dann weiter in Betrieb und wird nur durch eine Solarzelle von der Größe einer Briefmarke mit Strom versorgt. Der Forschungschip selbst wird nicht in Produktion gehen; die Forschungsergebnisse könnten aber zur Integration von Schaltkreisen mit sehr niedriger Schwellenspannung für ein breites Spektrum künftiger Geräte führen. Dies würde den Stromverbrauch um den Faktor 5 oder mehr senken und immer mehr Geräte ständig empfangsbereit machen. Technologien wie diese unterstützen das Ziel der Intel Labs, den Energieverbrauch pro Berechnung 100 bis 1000-fach zu senken. Das gilt für Anwendungen von der Verarbeitung großer Datenmengen bis hin zum Terrascale in der Westentasche.

Multicore, sprich die Integration mehrerer Prozessorkerne auf einem Chip, hat sich als anerkannte Methode erwiesen, um die Leistung zu erhöhen und dabei den Strombedarf niedrig zu halten. Manycore beschreibt eher die Design-Perspektive als das tatsächliche schrittweise Hinzufügen von Kernen. Somit stellt es eine Neudefinition des Chip-Designs dar, basierend auf der Annahme, dass eine hohe Anzahl von Kernen die neue Norm darstellt. Bedenkt man, dass Intels ersten Dualcore-Prozessor vor fünf Jahren vorgestellt wurde und da als exotische Lösung galt. Heute treiben Multicore- und Manycore-Prozessoren eine Vielzahl von wichtigen Anwendungen in einem breiten Spektrum von Branchen an, darunter auch einige überraschende neue Einsatzszenarien in der rasch voranschreitenden Welt des High-Core-Count-Computing. Zum Beispiel in der großen Wissenschaft. Cluster, die aus Multicore-Prozessoren bestehen, sollen dazu beitragen, die Geheimnisse des Universums am CERN zu enthüllen. Damit verbessert das CERN die Leistung seiner Hochenergiephysik App erheblich und kann deren Code schnell auf die kommende Many Integrated Core (MIC) Architektur-Produktfamilie portieren.

Um diese Hardwaretechnologien wirklich effektiv nutzen zu können ist noch viel Arbeit auf der Softwareseite zu erledigen. Heutige Programme können zwar Arbeitsstränge in Programmen einzelnen Kernen zuweisen, jedoch eine echte Parallelisierung ist das noch nicht. Aber Entwickler und Wissenschaftler beschäftigen sich intensiv mit dieser Thematik. Eine gerade veröffentlichte, experimentelle Open Source „Parallel JS“ Engine der Intel Labs erweitert JavaScript um Funktionen für die parallele Datenverarbeitung. Das ermöglicht eine neue Klasse von browserbasierten Apps in Gebieten wie Video- und Fotobearbeitung, physikalischen Simulationen sowie 3D-Spiele für Desktops-PCs und mobile Geräte wie zum Beispiel Ultrabooks.


Forensische Informatik

Unter dem Begriff „forensische Informatik“ versteht man die Anwendung wissenschaftlicher Methoden der Informatik auf Fragen des Rechtssystems. Insbesondere stellt die forensische Informatik Methoden zur gerichtsfesten Sicherung und Verwertung digitaler Spuren bereit, etwa zur Untersuchung und Verfolgung von Straftaten. Viele Methoden der Informatik können auf Fragen des Rechtssystems angewendet werden, allerdings gibt es noch sehr viele spezifische Herausforderungen.

In dem Dagstuhl-Seminar über Forensic Computing kommen Wissenschaftler und Praktiker aus der Informatik und Rechtswissenschaft zusammen, um über die Herausforderungen zu diskutieren. Ein wesentlicher Aspekt ist, forensische Informatik als wissenschaftliche Disziplin zu etablieren, die Stärken und Schwächen zu identifizieren und die Basis der zugrundeliegenden Methodologie zu schaffen.



Prof. Felix Freiling, Uni Erlangen-Nürnberg

Wir sprachen mit Prof. Felix Freiling, der Inhaber des Lehrstuhls für IT-Sicherheitsinfrastrukturen an der Friedrich-Alexander-Universität Erlangen-Nürnberg ist und einer der Organisatoren des Dagstuhl-Seminars. Schwerpunkte seiner Arbeitsgruppe in Forschung und Lehre sind offensive Methoden der IT-Sicherheit, technische Aspekte der Cyberkriminalität sowie digitale Forensik. In den Verfahren zur Online-Durchsuchung und zur Vorratsdatenspeicherung vor dem Bundesverfassungsgericht diente Felix Freiling als sachverständige Auskunftsperson.


Mehr Informationen zu dem Dagstuhl-Seminar „Forensic Computing“ mit Teilnehmerliste sind zu finden unter http://www.dagstuhl.de/11401


zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss