Skip Navigation
English version
Kontakte
Anfahrt
Home - Forschung - Datenverarbeitung

Datenverarbeitung

Die Experimente am European XFEL werden eine unglaubliche Menge an Daten produzieren – Daten, die gespeichert und zur Analyse bereitgestellt werden müssen.

Bevor Wissenschaftlerinnen und Wissenschaftler mit ihren Experimenten am European XFEL neue Erkenntnisse gewinnen können, werden sie enorme Datenmengen durchpflügen müssen. Alleine jeder der zweidimensionalen Pixeldetektoren wird pro Sekunde 10 bis 40 Gigabyte Daten liefern – das entspricht dem Speichervolumen von mehr als sieben DVDs.

Nach derzeitigen Schätzungen werden alle sechs Instrumente zusammen 10 Millionen Gigabyte produzieren. Mit verbesserten Detektoren wird diese Datenmenge auf über 50 Millionen Gigabyte jährlich anwachsen. 50 Millionen Gigabyte auf DVDs ergäben einen Turm von 12 Kilometern Höhe. Zum Vergleich: Die vier Experimente am Large Hadron Collider erzeugen jedes Jahr 13 Millionen Gigabyte Daten.

Das von Röntgenlasern produzierte riesige Datenvolumen erfordert neue Wege, diese Daten zu verarbeiten. An herkömmlichen Röntgenlaboren können Wissenschaftlerinnen und Wissenschaftler ihre eigenen Festplatten mitbringen, die Daten drauf kopieren und die Daten dann am eigene Arbeitsplatz auswerten. Am European XFEL macht die Datenfülle dies unmöglich.

Daher werden die Daten zunächst sicher in einem großen Laufwerkssystem gespeichert. Dabei werden Technologien genutzt, die auch bei Firmen wie Google zum Einsatz kommen. Die allgemeine Rechner-Infrastruktur wird die Forscherinnen und Forscher bei all ihren Aufgaben unterstützen – von der Positionierung der Proben wie etwa Nanokristallen, über das Speichern, Durchforsten und Analysieren der Daten bis hin visuellen Darstellung der Ergebnisse.

Technische Details

Einige Eckpunkte des geplanten Systems zur Datennahme und –verarbeitung am European XFEL:

  • Die Größe des Speichersystems wird anfänglich 10 Millionen Gigabyte betragen und im Laufe der Zeit auf 50 Millionen Gigabyte und mehr anwachsen.
  • Wo immer möglich wird verlustfreie Datenkompression in Echtzeit zur Anwendung kommen. Für einzelne kleine Biomoleküle können die Daten auf bis zu 5 Prozent der anfänglichen Größe verringert werden. Wenn Festkörper, Flüssigkeiten oder Gase untersucht werden, sind nur geringere Kompressionsraten möglich.
  • Roh- und Analysedaten werden für rund ein Jahr auf Festplatten gespeichert. Danach werden alle Rohdaten zur Langzeitarchivierung auf Bänder verschoben.
  • Rechencluster in der Nähe der Datenspeicher werden zur Datenanalyse verwendet. Schätzungen zufolge sind pro Million Gigabyte rund 2000 Prozessorkerne zur wissenschaftlichen Analyse notwendig. Für die 10 Millionen Gigabyte des ersten Jahres der Datennahme entspricht dies der Leistung von rund 2000 Desktoprechnern oder 200 größeren Servern.