ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

12.12.2011
Folge 300

Die Internet Schreibmaschine

Ich bin ja der, der immer auf Sicherheitsproblem hinweist und schlimme Geschichten erzählt. Schon lange überlege ich, was man nachhaltig gegen die Übergriffe aus dem Internet unternehmen kann. Beim letzten Besuch eines Fachmarktes stapelten sich Bürorelikte als Sonderangebot. Also, es gibt sie noch, die Schreibmaschine. Eigentlich ganz schön und mit einer richtigen Innovation könnten das zu einem Problemlöser werden: Die Internetschreibmaschine. Es gibt sie zwar nicht, aber die Werbung dazu kann ich mir schon gut vorstellen:


Heinz Schmitz macht Werbung für ein Produkt, dass es so nicht gibt und die nicht wirklich ernst gemeint ist :-)

Es folgt die Werbung:

Hier ist sie, die ultimative Schreibmaschine. Eine neue Innovation bringt das Beste aus zwei Welten zusammen: Die bewährte Schreibmaschinentechnik und das immer aktuelle Internet.

Angeschlossen wird diese neuste Innovation einfach an ein Modem oder eine DSL-Leitung. Eine Option für die Integration in vorhandene WLAN –Netze ist selbstverständlich lieferbar. DHCP und IPv6 werden serienmäßig unterstützt.

Sie als Anwender können sich zurücklehnen und zusehen, wie sich Ihre Seite aufbaut – Zeile für Zeile. Dabei wird automatisch der Inhalt auf das Wesentliche reduziert. Keine verspielten Grafiken, keine Flash-Animationen, keine lästigen Pop-Up‘s.

Das Resultat können Sie mit jedem handelsüblichen Fotokopierer vervielfältigen. Unmöglich mit einem Bildschirm.

Wollen Sie eine Web-Page mit einem Freund teilen, so mailen Sie sie –einfach per Post. Auch die Archivierung gelingt Ihnen problemlos. Einfach lochen und abheften. Unmöglich mit einer Web-Page.

Und geht wirklich mal etwas kaputt – der Ärger mit den Fachchinesisch redenden Computerfritzen entfällt. Es genügt ein vertrautes Gespräch mit dem Büromaschinenmechaniker Ihres Vertrauens.

Die Internetschreibmaschine ist in zwei Versionen erhältlich. Die repräsentative Typenhebelversion, bei der auch der Schlitten, durch seine Hin- und Herbewegung in den Seitenaufbau integriert ist. Hier sehen Sie wirklich, wie sich die Seite aufbaut.

Unspektakulärer ist die Typenradversion, die allerdings durch ihre akustische Präsens den Arbeitsfortschritt dokumentiert.

Das Gerät gibt es nicht im Handel, sondern ist nur über das Internet zu bestellen. Glückliche Besitzer einer Internetschreibmaschine haben unmittelbar nach der Bestellung eine Papierkopie des Vorgangs in den Händen. Diese können Sie dann lochen und ablegen.

Bestellen Sie Ihre Internetschreibmaschine noch heute bei:

www.cczwei-was-soll-der-Blödsinn.de :-)


Sicheres Rechnen in der Cloud

Cloud Computing ist eine der wichtigen Stützen der zukünftigen Informationstechnologien. Cloud Computing kann nur dann erfolgreich werden, wenn es gelingt, die Betreiber der Cloud und die Nutzer der Cloud zusammenzubringen. Dafür müssen noch viele Schritte getan werden, um evtl Ressentiments abzubauen. Für den Nutzer der Cloud kommen neue Verantwortungen. Wenn er bisher gewohnt war, alle Daten im eigenen Haus zu halten, so werden jetzt Daten ausgelagert. Für viele Unternehmen ist dies ein völlig neuer Schritt.
Kann man dem Cloudbetreiber vertrauen, dass er mit den nunmehr bei ihm gelagerten Daten sorgsam umgeht? Ist das Management so hierarschich aufgebaut, dass der
Unternehmer sicher sein kann, dass mit seinen Daten kein Schindluder getrieben wird.
Am liebsten wäre es den Unternehmen, die sensible Daten auslagern wollen, wenn die verschlüsselt gelieferten Daten beim Cloudbetreiber in dieser Form verbleiben.

Doch der Wunsch besteht bei dem Unternehmer möglichst viele Arbeiten in der Cloud vorbereitend ausgeführt werden können.

Über ein neues Verfahren, das noch in den Forschungsschuhen steckt, berichtet in dem Interview Prof. Saldeghi von der Technischen Universität Darmstadt.
Es ist heute schon möglich, bei mit AIS verschlüsselten Daten zwei eingelagerte Files zu addieren, subtrahieren, zu multiplizieren und zu teilen. Wohlgemerkt: beide Files wurden nicht entschlüsselt und das Endergebnis ist ebenso verschlüsselt, obwohl mathematische Aktionen vorgenommen wurden.

Nur der Auftraggeber erhält den notwendigen Schlüssel zur Entschlüsselung des Ergebnisses.

Wenn diese Methode fortgeschritten ist und man sich von der Funktion überzeugen kann, dann wird das Cloud Computing eine höhere Akzeptanz erfahren.

In dem Seminar in Dagstuhl waren solche Ausblicke in der Diskussion. Es werden hier wichtige Weichen gestellt, um neuen Technologien eine breitere Plattform zu bieten.

Mehr über das Seminar:http://www.dagstuhl.de/11491


Prof. Sadeghi TU Darmstadt


Dienstorientierte, dezentrale und sichere soziale Netzwerke


Dr. Ingmar Baumgart, KIT Karlsruhe

Trotz der immensen Weiterentwicklung mobiler Geräte wie Handys, Laptops und Kameras, werden diese heute meist nur für traditionelle Anwendungen genutzt (z.B. Telefonieren, Surfen im Internet). Die aus Mitteln der Exzellenzinitiative geförderte Nachwuchsgruppe (Young Investigator Group) untersucht schwerpunktmäßig neuartige Formen der sicheren und spontanen Diensterbringung mittels dezentraler sozialer Netzwerke.

Durch dieses neue Kommunikationsparadigma lässt sich das technische Potential mobiler Geräte wesentlich besser erschließen, indem die Bereitstellung von neuartigen Diensten durch die Geräte selbst ermöglicht wird. Ein Beispiel für einen solchen Dienst stellt die Bereitstellung des eigenen Internetzugangs über WLAN für andere Nutzer dar (user-provided networking). Für die Bereitstellung der hierfür erforderlichen Vertrauensbeziehungen sollen die Möglichkeiten sozialer Netzwerke in diesem neuen Anwendungsbereich konsequent nutzbar gemacht werden. Mit der Integration des sozialen Kontextes ergeben sich grundlegende neue Herausforderungen und Chancen, die das zukünftige Sozialverhalten im Hinblick auf Kollaboration und Kommunikation prägend verändern dürften. Da bei dem hier verfolgten Ansatz die Diensterbringung direkt zwischen den Geräten der Nutzer stattfindet und keine Server im Internet benötigt werden, können selbst in Gegenden ohne Internetzugang (z.B. in Entwicklungsländern) völlig neue Möglichkeiten der Kollaboration und Kommunikation entstehen.

SODESSON


SODESSON Logo

Mobile devices like laptops or smartphones are getting more and more powerful, but still these devices are mainly used to access services, which are provided by centralized servers in the Internet. We argue that the full potential of such mobile devices could be unfold if these devices would provide services like instant messaging or file transfer themselves in a peer-to-peer manner.

In the SODESSON project, we're designing a middleware which enables easy and secure access to services that get provided by devices belonging to the user himself and his friends or colleagues. This novel communication paradigm of user-centric networking leads to more efficient and secure communication, since the indirection introduced by servers is eliminated. Given that we focus on user-centric communication, we are able to exploit the trust relationships and communication pattern of a social graph to reach these goals.


Sicherheit von IT-Systemen im Bahn- und Flugverkehr garantieren

Wenn Züge in kurzen Abständen über Gleise rollen oder Flugzeuge im Minutentakt von der Startbahn abheben, hängt die Sicherheit der Passagiere von komplexen IT-Systemen ab. Diese müssen extrem zuverlässig arbeiten, dürfen also keine Softwarefehler enthalten. Im Sonderforschungsbereich AVACS werden dafür seit 2004 mathematische Modelle und Methoden entwickelt. Die Deutsche Forschungsgemeinschaft wird den Verbund jetzt mit weiteren 8,7 Millionen für vier Jahre fördern. Es forschen darin Wissenschaftler der Universität des Saarlandes und des Max-Planck-Instituts für Informatik in Saarbrücken gemeinsam mit Informatikern der Universitäten in Oldenburg und Freiburg.


Prof. Bernd Finkenbeiner, Informatik der Uni Saarbrücken

Für den europäischen Schienenverkehr wurde ein Leitsystem entwickelt, genannt European Train Control System (ETCS), das dafür sorgen soll, dass die Züge auch über Grenzen hinweg sicher über die Gleise gelotst werden. „Um Hochleistungsstrecken effektiv zu nutzen, sollten die Züge in möglichst kurzen Abständen aufeinander folgen. Sie dürfen sich aber nicht zu nahe kommen und müssen bei Störfällen automatisch bremsen“, erläutert Bernd Finkbeiner, Professor für Reaktive Systeme der Universität des Saarlandes, das System. Jeder Zug soll daher künftig mit einer Software ausgestattet sein, die seine Fahrposition immer genau ortet und den Sicherheitsabstand zu den vorausfahrenden Zügen genau festlegt. „Wenn dieser Abstand überschritten wird oder der Funkkontakt zum Zug abbricht, wird automatisch die Notbremse gezogen. Damit die Passagiere dann aber nicht aus ihren Sitzen geschleudert werden, muss diese Bremsung sehr behutsam erfolgen“, erklärt Finkbeiner. Das macht eine komplizierte Steuerung erforderlich, weil die Bremsmanöver nicht nur von der Geschwindigkeit abhängen, sondern auch von der Kurvenführung der Strecke.

Die Informatiker entwickeln daher im Sonderforschungsbereich AVACS Methoden, mit denen man voraussagen kann, wie verlässlich die Eigenschaften eines Systems sind. „So werden etwa auch in Autos die Airbags und Bremssysteme durch viele kleine Rechner gesteuert. Das Netzwerk dieser kleinen Rechner muss immer pünktlich und zuverlässig reagieren“, betont der Saarbrücker Informatiker. Auch im Flugzeug sorgt ein komplexes System von Software und Prozessoren dafür, dass zum Beispiel auch sehr große Flieger wie der Airbus A 380 sicher durch die Lüfte schwebt. „Beim Zusammenspiel dieser einzelnen Prozessoren kommt es entscheidend darauf an, dass jedes einzelne Teilsystem genau zur richtigen Zeit seine Aufgabe erledigt und damit auch pünktlich fertig wird“, meint Bernd Finkbeiner. Saarbrücker Informatiker der Firma AbsInt Angewandte Informatik, die auch am Sonderforschungsbereich beteiligt ist, hatten für die Airbus France SA eine Software entwickelt, die so genannte "Laufzeitgarantien" für zeitkritische Systeme abgibt. Sie kann durch beweisbar korrekte Methoden vorhersagen, wann ein Computer in einem Rechnersystem seine Aufgabe spätestens ausgeführt hat. In einem weiteren Teilprojekt von AVACS werden am Beispiel einer drahtlosen Fahrradbremse Methoden erforscht, wie auch Funksysteme immer verlässlich und sicher Daten übermitteln können.

An dem Sonderforschungsbereich AVACS – das steht für „Automatic Verification and Analysis of Complex Systems“- sind von der Universität des Saarlandes neben Bernd Finkbeiner die Professoren Reinhard Wilhelm, Sebastian Hack und Holger Hermanns sowie die Nachwuchsforscherin Verena Wolf beteiligt. Am Max-Planck-Institut für Informatik wirken die Professoren Kurt Mehlhorn und Christoph Weidenbach mit. Von den erneut bewilligten 8,7 Millionen Euro fließen 3,5 Millionen ins Saarland. Seit 2004 wurde der Sonderforschungsbereich insgesamt mit rund 26 Millionen Euro gefördert, rund 9,5 Millionen erhielten die Saarbrücker Informatikforscher.

Fragen beantworten:
Professor Bernd Finkbeiner
Lehrstuhl für reaktive Systeme
Tel. 0681/302-5632
Mail: finkbeiner@cs.uni-sb.de


Professor Roland Vollmar im Rückblick und Ausblick

Professor Roland Vollmar wurde am 22. Januar für seine besonderen Verdienste um die Informatik ausgezeichnet. Im Rahmen eines akademischen Festaktes verlieh ihm die Carl-Friedrich-Gauß-Fakultät der Technischen Universität Braunschweig, an der er zwischen 1974 bis 1989 lehrte, Grad und Würde eines Doktors der Ingenieurwissenschaften ehrenhalber.


Prof. Roland Vollmar em, KIT Karlsruhe

Mit Vollmar ehrte die Braunschweiger Universität einen Wissenschaftler, der sich für seine Forschung weltweite Anerkennung erworben hat. Auf dem Gebiet der formalen Automatenmodelle zur parallelen Datenverarbeitung erhielt er im Laufe seiner Karriere bedeutende nationale und internationale Auszeichnungen.

Darüber hinaus fiel Vollmar besonders durch sein Engagement für verschiedenste Themen rund um die Informatik auf. Als wissenschaftlicher Leiter des Studienzentrums für Sehgeschädigte (SZS) an der Universität Karlsruhe trug er beispielsweise maßgeblich zur Entwicklung von rechnergestützten Lehrformen für blinde oder sehbehinderte Studierende bei. Auch die Vermittlung der Geschichte der Informatik liegt ihm am Herzen: Als langjähriger Vorsitzender der Konrad-Zuse-Gesellschaft ist er ein gefragter Experte zum Schaffen des Informatikpioniers. An der Universität Karlsruhe lehrte Vollmar außerdem über viele Jahre hinweg Informatikgeschichte und ist als begeisterter Sammler alter Rechenmaschinen bekannt.

Überhaupt hat Vollmar viel zur Entwicklung der Informatik an den Hochschulen beigetragen. Als Vorsitzender des Fakultätentages Informatik etwa leistete er in den 80er-Jahren einen entscheidenden Beitrag zur Anerkennung der Informatik als eigenständiges Studienfach. Die Gesellschaft für Informatik, deren Präsident er von 1992 bis 1993 war, ernannte Vollmar für sein herausragendes Engagement im Dienste der Informatik im September 2008 zum GI-Fellow.

Vollmar hatte an der Karlsruher Informatikfakultät den Lehrstuhl »Informatik für Ingenieure und Naturwissenschaftler« inne. In mehreren Amtszeiten als Dekan trug er zur hohen Reputation der Fakultät bei. Im April letzten Jahres wurde Vollmar im Rahmen eines Festkolloquiums in den Ruhestand verabschiedet.


Computerprogramm findet passende Musik für Fotoserienvertonung.

Zum romantischen Foto vom Palmenstrand könnten schmachtvolle Liebeslieder passen, eine Kanufahrt durch wilde Schluchten würde man eher mit temperamentvollen Werken inszenieren.

„Filmregisseure achten in der Regel sehr genau darauf, welche Melodie auf eine Szene passt. Damit auch der Computer selbstständig die geeignete Musik für eine Bilderserie findet, haben wir einige Dutzend Filme angeschaut und ihre Soundtracks ausgewertet. Daraus entstand eine Datenbank mit mehreren tausend Bildern und der dazu passenden Musik“, sagt Sebastian Michel, Leiter einer Forschergruppe am Exzellenzcluster der Saar-Uni.


Dr. Sebastian Michel, Exzellenzcluster Uni Saarbrücken

Über ein ausgeklügeltes Rechenverfahren gleicht der Computer diese Bilder mit den Urlaubsfotos ab. Anhand des gespeicherten Soundtracks begibt sich die Picasso-Software dann auf die Suche nach Musikstücken, die mit hoher Wahrscheinlichkeit die Atmosphäre der Aufnahme passend untermalen. „Die Trefferquote unseres Systems ist erstaunlich hoch. Allerdings kann es häufig vorkommen, dass nicht gleich der erste Treffer perfekt passt. Fehler entstehen meist dann, wenn der Betrachter mit dem Foto verschiedene Gefühle verbindet. Ein einsames Haus zum Beispiel kann der eine mit romantischen Abenden verbinden, der andere denkt nur an gespenstische Nächte“, erläutert der Informatiker. Picasso schlage daher immer mehrere Musikstücke vor, aus denen der Benutzer dann das passendste auswählen kann.

Der Saarbrücker Wissenschaftler will gemeinsam mit seinem Doktoranden Aleksandar Stupar die Software weiter verbessern, damit sie auch für Videosequenzen und die Untermalung von Hörspielen genutzt werden kann. „Wir haben dafür bereits Regiebücher von Filmen ausgewertet und die Szenenbeschreibungen mit der Filmmusik abgeglichen. Auf dieser Datenbasis kann man auch für gesprochene Texte eine geeignete Hintergrundmusik recherchieren“, meint Sebastian Michel. In den kommenden Wochen werden die Informatiker außerdem eine Anwendung für das iPhone programmieren, mit der jeder seine Urlaubsfotos mit Musik untermalen kann, die in der eigenen Mediathek gespeichert ist. „Auf unserer Webseite bieten wir die Picasso-Software außerdem zum Ausprobieren mit lizenzfreien Musikstücken an. Das schränkt die Bandbreite im Musikgeschmack derzeit noch ein. Wir können uns aber vorstellen, dass das Computerprogramm auch für kommerzielle Musikanbieter von Interesse ist“, sagt Michel. Die Wissenschaftler werden das Verfahren im Juli auf einer der weltweit wichtigsten Konferenzen für Informationssuche und Wissensdatenbanken (Information Retrieval), der ACM SIGIR 2011 in Beijing (China) vorstellen.

Sebastian Michel leitet eine Forschungsgruppe am Saarbrücker Exzellenzcluster „Multimodal Computing and Interaction“ und forscht auch am Max-Planck-Institut für Informatik. Der Exzellenzcluster wird seit 2007 im Rahmen der Exzellenzinitiative von Bund und Ländern gefördert. Die Wissenschaftler erforschen dort, wie man multimodale Informationen wie Texte, Audiodateien, Videos und Bilder noch effizienter organisieren, verstehen und durchsuchen kann. Neben der Universität des Saarlandes sind am Exzellenzcluster das Max-Planck-Institut für Informatik, das Max-Planck-Institut für Softwaresysteme und das Deutsche Forschungszentrum für Künstliche Intelligenz beteiligt.

Fragen beantwortet:
Dr.-Ing. Sebastian Michel
Exzellenzcluster Multimodal Computing and Interaction
Tel. 0681 / 302 70 803
E-Mail: smichel@mmci.uni-saarland.de

Das Beispiel, das wir in dem Beitrag mit meinem iPhone zeigten, bezog sich auf das folgende Bild:



Die App für das iPhone gibt es gratis im AppStore unter dem Namen PicasasSound.


Kryptografie ist seine Vision

Professor Dr. rer. nat. Jörn Müller-Quade studierte 1987 bis 1993 Informatik in Erlangen und Karlsruhe. Er promovierte im Bereich der Computeralgebra bei Professor Dr.-Ing. Dr. rer. nat. Thomas Beth am Institut für Algorithmen und Kognitive Systeme (IAKS) an der Universität Karlsruhe (TH). Seine Forschung war motiviert durch Anwendungen in der Systemzerlegung und dem Entwurf diffraktiver optischer Systeme. Am IAKS stand zwischen 1993 und 1999 die Forschungsgruppe für diffraktive Optik unter seiner Leitung.


Professor Jörn Müller-Quade, KIT Karlsruhe

In den Jahren 1999 bis 2001 lebte er als Post-Doc Fellow mit seiner Familie in Tokyo, wo er am Imai Laboratory des Institute of Industrial Science der Universität Tokyo im Bereich der Kryptographie arbeitete und dort die Forschungsgruppe für Quantenkryptographie gründete und leitete. Dort entdeckte er seine Begeisterung für die Kryptographie. Im Jahr 2001 kehrte er nach Karlsruhe zurück, um dort ein BMBF-Projekt zur Quantenkryptographie zu übernehmen.

In den Jahren 2003 bis 2007 war Jörn Müller-Quade im Rahmen des Emmy-Noether-Programms Nachwuchsgruppenleiter zum Thema langfristige Sicherheit in der Kryptographie (CrySTALS) und koordinierte für drei Jahre das EU-Projekt ProSecCo am Europäischen Institut für Systemsicherheit des IAKS.

Anfang 2008 übernahm Jörn Müller-Quade die Lehrstuhlvertretung "IT-Sicherheit" am Institut für Algorithmen und Kognitive Systeme der Universität Karlsruhe (TH). Ende 2008 erhielt er den Ruf auf die Professur für IT-Sicherheit, verbunden mit der Leitung des Instituts für Kryptographie und Sicherheit (IKS) an der Universität Karlsruhe (TH), heute Karlsruher Institut für Technologie. Das Institut für Kryptographie und Sicherheit war im selben Jahr aus dem IAKS hervorgegangen.


Das Wissen im Internet "ernten"

Sie wollen das im Internet verstreute Wissen ordnen und für jeden verfügbar machen. Ein Suchprogramm, das Sie dafür entwickelt haben, heißt NAGA – „Not another Google answer“. Was ist so schlecht an einer Google-Antwort?

Weikum: Suchmaschinen wie Google sind eine sinnvolle Sache, kein Zweifel. Noch aber sind sie vergleichsweise dumm, weil sie keine komplexen Anfragen beantworten können. Auf eine Frage wie „Welcher berühmte Naturwissenschaftler überlebte seine vier Kinder?“ liefern die besten Internet-Suchmaschinen Zehntausende von Webseiten, die Wörter wie „Naturwissenschaft“ oder „Kinder“ enthalten. Die korrekte Antwort wäre „Max Planck“. Die heutigen Wissens-Erntemaschinen liefern also nur einen Bruchteil des Wissens, das im Internet tatsächlich vorhanden ist.

Ihre Software kann mehr?

Weikum: Zumindest findet sie „Max Planck“. Sie stellt logische, semantische Verknüpfungen zwischen den Begriffen her und erkennt den Sinnzusammenhang. Doch beim Wissen im Internet geht es um mehr als Suchmaschinen. Viel spannender ist doch die Frage, wie sich das Wissen der vielen Millionen Menschen, die das Internet nutzen, verwenden lässt. Wie können wir dieses implizite menschliche Wissen ernten, das in Foren, Blogs oder auf anderen Websites niedergeschrieben ist?

Wie man also die kollektive Intelligenz des World Wide Web anzapfen kann?

Weikum: Kollektive Intelligenz ist eher ein Mythos: Warum sollen eine Million Laien grundsätzlich mehr wissen als ein Experte? Wenn viele Laien Unsinn schreiben, kommt in der Summe nicht unbedingt die Wahrheit heraus. Auf Suchbegriffe wie „Barack Obama“ und „Heimatland“ lieferten die Suchmaschinen eine ganze Zeit lang „Kenia“ als Antwort – einfach deshalb, weil im Internet tausendfach darüber spekuliert wurde, dass der Präsident gar kein US-Staatsbürger sei. Im Internet besteht die Herausforderung also darin, Unschärfen oder Unwahrheiten herauszufiltern und die Spreu vom Weizen zu trennen. Nur wenn man sich auf qualitativ hochwertige Quellen beschränkt, machen kollektive Destillate Sinn. Bei technischen Systemen ist das anders: Sensoren lügen nicht. Dort gilt tatsächlich im statistischen Sinne, dass die Summe aller Einzelinformationen zuverlässiger als die beste Einzelaussage ist.

Lässt sich kollektive Intelligenz also in der technischen Welt leichter verwirklichen?

Weikum: Schwer zu sagen. Die Herausforderung ist einfach eine andere. Wenn Tausende von Sensoren Daten liefern, heißt das nicht, dass das System schon intelligent ist. Entscheidend ist, was man aus den Daten macht. Wenn man im Stromnetz alle Verbraucher mit smarter Sensorik ausstattet, erreicht man einen hohen Vernetzungsgrad, den es so noch nie gegeben hat. Aber auch das ist per se noch nicht intelligent.

Wie können wir dann ein intelligentes Gesamtsystem verwirklichen?

Weikum: Künftig geht es vor allem darum, die technischen Systeme so schnell und intelligent zu machen, dass sie in Echtzeit auf Veränderungen reagieren können. Dabei ist die Dynamik die größte Herausforderung: Das System muss sich permanent in Windeseile an die neue Situation anpassen. Dazu braucht man eine enorme Rechenleistung. Man könnte sich etwa vorstellen, dass Fahrzeuge mit Glatteissensoren ausgestattet sind und sich in Echtzeit mitteilen, an welchen Stellen es gefährlich rutschig ist. So könnten die Autos entsprechend schnell umgeleitet werden. Ähnlich könnte ein intelligentes Stromnetz auf schwankende Last oder Stromerzeugung reagieren. Doch selbst damit wird man in der Realität künftig weiter an physikalische Grenzen stoßen. Ereignisse wie Blitzeis oder eine geborstene Stromleitung können das ganze System aus dem Takt bringen. Wirklich intelligent ist das System vermutlich erst, wenn es weiß, was in solchen Ausnahmesituationen zu tun ist.


Prof. Gerhard Weikum, Max-Planck-Institut Saarbrücken
In der technischen Welt kommt es also auf schnelle Anpassung und im Internet vor allem auf Datengüte an?

Weikum: Ja. Ich sehe eine klare Trennung zwischen der sozialen Intelligenz des World Wide Web und der technischen Intelligenz industrieller Anwendungen. Dennoch gibt es Schnittmengen. Ein Beispiel ist die Annotation von Bildern: Viele Nutzer versehen im Internet Bilder mit Attributen, so genannten Tags. Dadurch können andere Nutzer die Bilder schneller und gezielter aufspüren. Ein Meerespanorama lässt sich mit „Klippe“, „Meer“ oder „Segelboot“ beschreiben. Für technische Systeme aber ist es enorm schwierig, Charakteristika in Bildern zu erkennen – einen Wasserfall oder einen Gegenstand im Nebel. In Annotationen steckt also implizite kollektive menschliche Intelligenz. Oder nehmen Sie den Fall, wo Internetnutzer aufgerufen wurden, auf Satellitenaufnahmen nach Trümmerteilen eines vermissten Segelbootes zu suchen. Hunderttausende haben mitgemacht. Ähnliche Szenarien wären für die Bewertung medizintechnischer Bilder denkbar. Seit vielen Jahren gibt es Software-Systeme, die in Bildern von Computertomographen und ähnlichen Geräten Tumoren oder andere krankhafte Veränderungen erkennen. Eine solche Software arbeitet mit statistischen Modellen und wird durch Trainingsbilddaten angelernt. Es wäre denkbar, dass zunächst mehrere Hundert erfahrene Mediziner in einem Internetforum die Bildcharakteristika annotieren. Dadurch könnte vielfältiges Expertenwissen in die Bilderkennungssoftware einfließen.

Solche Foren wären wohl Experten vorbehalten. Wie aber lässt sich die kollektive Intelligenz des ganzen Internets nutzen?

Weikum: Genau das ist die Schwierigkeit. Unsere Software zum Beispiel wertet derzeit nur mehr oder minder verlässliche Quellen wie Wikipedia und Nachrichtenportale aus, die wir nach Güte und Zuverlässigkeit gewichten. Wir sind da sehr konservativ. Blogs nutzen wir noch nicht. Dennoch sind solche Foren hochinteressant. So können etwa medizinische Portale, in denen Menschen über Nebenwirkungen von Medikamenten diskutieren, wertvolle Informationen enthalten, die weit über die holzschnittartigen Angaben eines Beipackzettels hinausgehen. Es bleibt eine Herausforderung, diese „weichen“ Daten im Internet auszuwerten und systematisch verfügbar zu machen. Dienste wie Twitter wiederum eignen sich hervorragend, um Trends vorherzusagen. Zugleich können sie künftig eine wichtige Informationsquelle für Service-Dienstleister sein. Wenn Hunderte von Menschen über ihre Zugverspätung twittern, könnte ein Autovermieter oder ein Busunternehmen reagieren und alternative Reiseangebote aufs Handy senden. Der Wert der kollektiven Intelligenz im Internet liegt vor allem in der Diversität der Informationen oder Meinungen. Die Aufgabe für die Zukunft besteht darin, dieses Wissen so verfügbar zu machen, dass man die Vielfalt bewahrt.
Interview: Tim Schröder


Humanoids and Intelligence Systems Lab - Institut für Anthropomatik

Das HIS beschäftigt sich mit insgesamt vier Forschungsgebieten, namentlich Humanoide Robotik, Medizininformatik, Interaktives Lernen und Kognitive Automobile. Das Spektrum reicht von der rechnergestützten Auswertung sensorischer Daten und der Fusion von Datensätzen bis zur Interpretation der gewonnenen Daten für kognitive Assistenzsysteme. Anwendungen finden sich im Bereich multimodaler Mensch-Maschine-Interaktion sowie humanoiden Robotersystemen und medizinischen Assistenzsystemen.  


Prof. Rüdiger Dillmann, KIT Karlsruhe

Karlsruher Institut für Technologie (KIT)
Campus Süd
Institut für Anthropomatik
Humanoids and Intelligence Systems Lab
Gebäude 50.20
Adenauerring 2
D-76131 Karlsruhe


Sichere Architekturen in der Cloud

Für das Dagstuhl Seminar Secure Architecures in the Cloud konnte ich Dr. Mathias Schunter aus der Schweiz als Gesprächspartner gewinnen. Er gehört der Security & Assaurance Research Group der IBM in Rüschlikon an. Er hat eine große Erfahrung im Einsatz von Cloudösungen und er arbeitet vor allem in der Forschung.
Da die Seminarsprache Englisch ist, habe ich das formulierte Abstract übernommen.


Dr. Matthias Schunter, IBM - Rüschlikon

Mehr über das Seminar: http://www.dagstuhl.de/11492

In cloud computing, data storage and processing are offered as a service, and the data resides outside the control of the owner. It is often argued that clouds improve security, as the providers have more security expertise than their (smaller) customers. However, despite theoretical breakthroughs in cryptography, there is little consensus on how we can provide architectural solutions guaranteeing that cloud data remains confidential, uncorrupted, and available. Also, it is unclear to what extent parties can be held accountable in case something goes wrong. In this seminar, we search for architectures, modelling approaches and mechanisms that can help in providing guarantees for cloud security. The main question is which cloud-specific security architectures should and could be devised, and how they can be matched to security policies. The seminar brings together researchers from different communities to propose integrated solutions and research directions that transcend disciplines.

Four main topics are suggested for the seminar:

   Data protection
   Data outside the data owner’s control implies that privacy and even integrity can be put at risk, and that adequate access control must be in place. In this context, cloud implementations have to conform to existing legal standards, but they also challenge these. For example, new approaches have emerged for identifying persons and roles and linking them to access privileges, such as identity-, attribute-, claims- and data-based access control. We will discuss challenges of the cloud to the notions of identity, privacy and accountability, their legal, ethical, and architectural implications, and possible solutions.
   Simulating physical constraints in the cloud
   In the cloud, we cannot easily enforce where data is stored and how long, and from where it is accessed. Location-based access control aims at limiting access to specific locations, thereby seemingly putting physical limitations back in place. Measures proposed include use of GPS, trusted platform modules (TPMs), but also physically unclonable functions (PUFs). Also, data could be moved away from attacks. With respect to time, mechanisms have been proposed to assure deletion of data in the cloud (e.g. Vanish, Ephemerizer). We will assess to which extent these approaches are sufficient to simulate physical constraints, and which extensions are possible.
   Misuse detection
   Many methods have been proposed for intrusion detection, penetration testing and digital forensics. Are these sufficient for cloud environments? The seminar will identify necessary adaptations to system and threat models as well as security metrics, to adequately indicate which attacks are possible and which are actually happening, and thereby reduce cybercrime.
   Splitting the clouds
   Public clouds, containing data from different parties, are not deemed suitable for particularly sensitive information. This means that decisions will have to be made about which data to put in the cloud and which data not, which security properties to outsource and which not, and how to make sure that the entire system conforms to the security requirements. The seminar will propose suitable architectures for “splitting the clouds”. For example, in “security-as-a-service”, not only IT infrastructure is rented, but also the security that is added to it. For authentication this seems to work pretty well, but how far can this concept be stretched to other security properties such as confidentiality and integrity?


zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss