ComputerClub 2
Sitemap Kontakt
  Wolfgang Back & Wolfgang Rudolph
Suche:   Wolfgang Back & Wolfgang Rudolph
  Aktuelle Sendung
  Nächste Sendung
  Sendungsarchiv
  Downloads


SENDUNGSARCHIV

17.06.2013
Folge 373

PDF wird 20

Als Adobe am 15. Juni 1993 das Portable Document Format (PDF) und die Acrobat 1.0 Suite vorstellte, stand dahinter eine einfache Idee: Ein Dateiformat, mit dem der Empfänger ein Dokument genauso lesen und ausdrucken konnte, wie es der Absender erstellt hatte. Eine universelle Sprache für den Austausch von Dokumenten, über die Grenzen von Systemen, Software-Applikationen, Betriebssystemen und Geräten hinweg. Heute ist PDF (Portable Document Format) das meistgenutzte Dateiformat der Welt und in Deutschland sogar bekannter als der derzeit amtierende Papst, wie eine aktuelle Umfrage zeigt: 94 Prozent aller Befragten kennen das plattformunabhängige Dateiformat für den Austausch elektronischer Dokumente; der Bekanntheitsgrad unter den 18- bis 29-Jährigen beträgt sogar 99 Prozent. Hingegen gaben lediglich 23 Prozent aller Befragten an, Jorge Mario Bergoglio zu kennen, der unter dem Namen Franziskus kürzlich zum neuen Papst gewählt wurde.

PDF ist jedoch nicht nur allgemein bekannt, sondern wird im Durchschnitt auch schon lange intensiv genutzt: Lediglich ein Drittel der Befragten hat nach eigenen Schätzungen aktuell weniger als 25 PDFs auf ihrem Rechner gespeichert. Alle anderen gehen von weit mehr PDF-Dateien aus. 47 Prozent schätzten, dass sich zwischen 26 und 100 PDF-Dateien auf ihren Systemen befinden und 13 Prozent geben sogar an, dass es mehr als 250 PDFs sind. Nur 27 Prozent der Befragten nutzen PDFs seit weniger als fünf Jahren, zwei Drittel hingegen setzen das Dateiformat bereits seit mehr als fünf Jahren ein. Und sieben Prozent sind schon länger als 15 Jahre PDF-Nutzer.  

Was sind die wichtigsten Gründe, warum Anwender so gerne PDFs einsetzen? „Weil die Dateien kleiner sind und sich somit besser per Mail versenden lassen“ (56 Prozent), „Weil es beim Öffnen keine Probleme mit älteren oder neueren Versionen gibt“ (54 Prozent), „Weil andere den Inhalt des Dokuments nicht mehr verändern können“ (53 Prozent) und „Weil ich verschiedene Dokumente einheitlich zusammenführen kann“ (42 Prozent). Ebenfalls 42 Prozent der Befragten nennen zudem die Beibehaltung der Formatierung als Grund dafür, warum sie PDFs nutzen.

Das PDF wurde im Juni 1993 von Adobe eingeführt und zunächst primär in Unternehmen genutzt. Damals diente es dem reinen Austausch elektronischer Dokumente, über die Grenzen unterschiedlicher Betriebssysteme und Plattformen hinweg. Zwanzig Jahre nach der Markteinführung sind PDF und Acrobat nicht nur ein industrieweiter Standard für den Austausch elektronischer Dokumente, sondern bieten ein breites Spektrum an Bearbeitungsfunktionen, die weltweit von Privatpersonen sowie in Unternehmen und Behörden eingesetzt werden. Dazu gehören die effiziente Zusammenarbeit an Projekten, die einfache Erfassung von Daten sowie deren sicheren Austausch über unterschiedliche Geräte und Orte hinweg.

Im Jahr 2008 wurde PDF als ISO Standard (ISO 32000) anerkannt, der längst nicht mehr nur von Adobe, sondern von vielen Firmen weiterentwickelt wird. Hinzu kommen weitere PDF-Standards wie PDF/X für die Druckvorstufe, PDF/A für Langzeitarchivierung, PDF/E für Datenaustausch im Engineering-Bereich (auch mit 3D PDF-Modellen), PDF/UA für Barrierefreiheit und PDF/VT für Variablen Transaktionsdruck im hochvolumigen Bereich


Das Ethernet wird 40


Am 23. Mai 1973 saß Bob Metcalfe in der Kantine des XEROX Palo Alto Research Center (PARC). Auf eine Serviette zeichnete er das Konzept eines Kommunikationsnetzwerkes, auf dem bis heute fast alle Netzwerke und das Internet basiert: Das Ethernet (http://de.wikipedia.org/wiki/Ethernet).

Rudi Kulzer, lange Jahre Korrespondent im Silicon Valley hat in dieser Bob Metcalfe persönlich kennengelernt und erzählt in dieser Folge über den Mann und seine bahnbrechenden Idee.


Die berühmt Serviette mit dem ersten Ethernet Entwurf (Quelle: Palo Alto Research Center and Digibarn Computer Museum)


Was weiß die NSA?

Mit den spektakulären Äußerungen von Edward Snowdown über die Schnüffelaktivitäten der amerikanischen National Security Argency (NSA) brach ein weltweiter Sturm des Entsetzen los. Snowdown behautet, die NAS speichert alle Verbindungsdaten der großen Provider wie Verizon, AT&T, Sprint oder Nextel. Beschwichtigend traten Regierung und Provider an die Öffentlichkeit und versicherten, dass nur Daten von Ausländern oder Gesprächen von US-Bürgern ins Ausland analysiert werden. Natürlich zur Terrorabwehr, in dessen Hysterie die USA sein den Anschlägen vom 11. September 2001 verharren.

Aber, es kam ja noch schlimmer: Prism. Innerhalb dieses Projektes sollen die Geheimdienste direkten Zugang zu den Daten, Fotos, Videos etc. haben, die in den Rechenzentren von Google, Skype, Facebook, Apple, Microsoft, AOL etc. gespeichert werden. Auch hier folgten direkt Dementis der Firmensprecher und der US-Verwaltung. Der Oberchef der US-Geheimdienste James Clapper bemühte sich klarzustellen, dass die Daten nur nach Gerichtsbeschlüssen abgegriffen werden, nur zur Terrorabwehr dienen und US-Bürger nicht betroffen sind. Auch Präsident Obama versucht die Wogen zu glätten: „Niemand hört Ihre Anrufe ab“. Die Rede ist allerdings nicht von den Metadaten.

Interessant ist, dass alle Dementis der Firmen, Regierungen und Verwaltungen als zweifelhaft gewertet werden. Die Aussage einer einzelnen Person, die sich Ende Mai mit NSA-Unterlagen (so seine Aussagen) nach Hongkong absetzte und dort mit Pressevertretern sprach wird jedoch als bare Münze propagiert. Eigentlich zeigt das, wie schlecht der Ruf der Firmen und Offiziellen im Kontext des Ausspionierens Ihrer eigenen Bürger und Kunden ist.

Dabei hatte ein paar Tage vor dem Bekanntwerden des Skandals der UN-Sonderbeauftragte für den Schutz der Meinungs- und Informationsfreiheit Frank La Rue noch vor der massiven Erosion von Bürgerrechten durch perfektionierte Überwachung im Netz gewarnt. „Staaten haben heute eine größere Fähigkeit zur gleichzeitigen, tiefgreifenden, gezielten und massiven Überwachung als jemals zuvor.“ Die Gesetzgebung halte nach den Erkenntnissen eines Berichtes der OHCR (http://www.ohchr.org/EN/NewsEvents/Pages/DisplayNews.aspx?NewsID=13400&LangID=E) mit den technischen Möglichkeiten der Datenausspähung und -sammlung nicht Schritt. Gleichzeitig gestatteten sich viele Länder unter dem Vorwand schwammiger Normen wie dem "Kampf gegen den internationalen Terror" nie da gewesene Eingriffe in die Grundrechte ihrer Bürger.



Programmiermodell für zukünftige Supercomputer


Der Bedarf an noch schnelleren, noch effektiveren aber auch energiesparenden Computerclustern wächst in jeder Branche. Ein neues, asynchrones Programmiermodell liefert einen entscheidenden Baustein, um die nächsten Supercomputer zu realisieren.

High Performance Computing ist eine der Schlüsseltechnologien für zahllose Anwendungen, die für uns mittlerweile selbstverständlich sind. Das reicht von der Google-Suche über die Wettervorhersage und Klima-simulation bis hin zur Bio-Informatik. Stichwort Big Data, auch hier wächst der Bedarf an noch schnelleren, noch effektiveren aber auch energiesparenden Computer-clustern. Die Anzahl der Prozessoren pro System ist dabei mittlerweile im Millionenbereich angekommen und wird zukünftig noch stärker anwachsen als bisher. Weitgehend unverändert geblieben über die letzten 20 Jahre ist das bei Supercomputern verwendete Programmiermodell, das Message Passing Interface  – MPI. Es sorgt dafür, dass die Mikroprozessoren in den verteilten Systemen kommunizieren können. Mittlerweile stößt es aber an seine Grenzen.

Dr. Carsten Lojewski vom Fraunhofer-Institut für Techno- und Wirtschaftsmathematik ITWM stieß mit Berechnungs- und Simulationsaufgabe für seismische Daten an die Grenzen des machbaren. Probleme waren mangelnde Skalierbarkeit, die Begrenzung auf eine blocksynchrone, zweiseitige Kommunikation und die fehlende Fehlertoleranz. Darum fing er an ein neues Programmiermodell zu entwickeln. Am Ende dieser Entwicklung stand GPI – das Global Adress Space Programming Interface, das die parallele Architektur von Hochleistungsrechnern maximal effizient nutzt.

GPI beruht auf einem komplett neuen Denkansatz: auf einem asynchronen Kommunikationsmodell. Jeder Prozessor kann dabei wahlfrei auf alle Daten direkt zugreifen – egal auf welchem Speicher sie liegen und ohne andere parallel ablaufende Prozesse zu beeinflussen.

Ähnlich wie das Programmiermodell von MPI ist GPI nicht als parallele Programmiersprache entwickelt worden, sondern als parallele Programmierschnittstelle und kann daher universell eingesetzt werden. Der Bedarf für eine solche hochskalierbare, flexible und fehlertolerante Schnittstelle ist groß und wächst, allzumal auch die Anzahl der Prozessoren in den Superrechnern exponentiell ansteigt.

High Performance Computing hat sich mittlerweile zu einem universellen Werkzeug in Wissenschaft und Wirtschaft entwickelt, als festes Element des Designprozesses etwa im Automobil- oder Flugzeugbau. Als Beispiel nennt Christian Simmendinger. Aerodynamik: Einer der Simulationseckpfeiler im europäischen Aerospace-Umfeld, die Software TAU, wurde in einem Projekt mit dem Deutschen Zentrum für Luft- und Raumfahrt DLR auf die GPI- Plattform portiert. Mit dem Ergebnis, das wir die parallele Effizienz erheblich steigern konnten.

GPI ist zwar ein Werkzeug für Spezialisten, aber mit dem Potenzial, die algorithmische Entwicklung für leistungsfähige Software zu revolutionieren. Es gilt als Schlüssel, um die nächste Generation von Supercomputern zu ermöglichen – Exascale-Rechner, die 1000mal schneller sind als heutige Großrechner.



zurück zum Archiv
Anhören:


Audiodatstream
Download 128 Kbit/s (~27 MB)
Download 32 Kbit/s (~7 MB)
Ogg Vorbis 56 Kbit/s (~12 MB)
RSS Feed (Audiocast, letzte 5 Sendungen)
RSS Feed (Audiocast, alle Sendungen)

Druckversion Impressum Haftungsausschluss