CeBIT: Mit neuartigen Computerhirnen gegen das Vergessen

Hewlett Packard Enterprise kooperiert mit dem Deutschen Zentrum für Neurodegenerative Erkrankungen – Einsatz von Memory-Driven Computing in der Hirnforschung

 

Die Architektur aller heutigen Computer ist bereits über 60 Jahre alt. Dadurch sind sie schon jetzt in einigen Bereichen nicht mehr in der Lage, das exponentielle Datenwachstum zu bedienen. Probleme bereitet das zum Beispiel in der medizinischen Forschung. Davon ist auch das Deutsche Zentrum für Neurodegenerative Erkrankungen (DZNE) betroffen, das unter anderem die Parkinson- und Alzheimer-Krankheit untersucht. So fallen bei der Bildgebung und Analyse von Erbinformationen ungeheure Mengen an Rohdaten an.

Die Begrenzungen der heutigen Computer-Architektur zu überwinden, ist das Ziel des Forschungsprogramms „The Machine“ von Hewlett Packard Enterprise (HPE) – eines der größten Forschungsvorhaben in der Geschichte des IT-Pioniers. Als Resultat dieser Forschung hat HPE kürzlich den ersten Prototyp einer radikal neuen Computer-Architektur in Betrieb genommen. Ihr Kern ist nicht mehr der Prozessor – sondern ein neuartiger, sehr großer Speicher.

Bei schnellen Messungen im MRT mit hoher Auflösung können bis zu 0,5 Gigabyte Rohdaten pro Sekunde anfallen – also bis zu zwei Terabyte pro Stunde.

HPE nennt seine neue Architektur „Memory-Driven Computing“. Damit lässt sich die Rechenleistung viele tausend Mal steigern. HPE will diese Architektur allgegenwärtig machen: Sie soll in Miniaturgröße in Sensoren oder Autos ebenso laufen wie als Supercomputer, groß wie ein Schiffscontainer. Damit eröffnen sich bisher nicht dagewesene Möglichkeiten in einer Reihe von Einsatzfeldern.

Nun hat HPE einen Kooperationsvertrag mit dem DZNE geschlossen. Das DZNE will als europäischer Partner die neuartige Rechner-Architektur in der naturwissenschaftlich-medizinischen Forschung einsetzen. Dabei werden sowohl Rechner in Palo Alto genutzt, als auch Entwicklungssysteme beim DZNE eingesetzt. Am Ende wollen die Partner den Forschungsprozess beschleunigen und dessen Präzision durch die Analyse größerer Datenmengen erhöhen.

 

Völlig neue Erkenntnisse für die Demenz-Forschung

Das DZNE produziert in vielen Bereichen bereits sehr große Datenmengen – etwa bei der Aufnahme von Bildern des Gehirns mit Hilfe der Magnetresonanztomographie (MRT). Weitere Beispiele sind die automatisierte Mikroskopie lebender Zellen oder die Erstellung von Gen-Daten. In all diesen Bereichen fallen heutzutage bereits viele Terabyte an Daten an – mit weiter stark steigender Tendenz.

Während es inzwischen experimentell machbar ist, Nanotechnologie in der Untersuchung einzelner Gen-Bausteine anzuwenden, sind die Herausforderungen an die Rechnerinfrastruktur zur Verarbeitung der anfallenden Daten enorm. Es ist erforderlich, Algorithmen, Software- und Hardware-Infrastrukturen zu entwickeln, die mit solch speicher- und rechenintensiven Anforderungen umgehen können. Deshalb soll erforscht werden, wie die Architektur von „The Machine“ genutzt werden kann, um Ergebnisse schneller und umfassender zu berechnen. Forscher am DZNE und bei HPE wollen in diesem Gebiet gemeinsam in den nächsten Wochen die ersten Pilotentwicklungen beginnen. Von diesen Möglichkeiten versprechen sich die Wissenschaftler völlig neue Erkenntnisse bei der Erforschung der Ursachen von Alzheimer und anderen Demenzerkrankungen.

 

Anhang: Einsatzgebiete von Memory-Driven Computing in der Hirnforschung

 

Die neue HPE-Architektur bietet eine ideale Plattform, um die Daten von bildgebenden Verfahren vollständig zu speichern und zu exzellenten MRT-Bildern zu verarbeiten.

Das DZNE erstellt Hilfe der Magnetresonanztomographie (MRT) Bilder der Gehirne von Probanden. Bei schnellen Messungen mit hoher Auflösung können dabei bis zu 0,5 Gigabyte Rohdaten pro Sekunde anfallen – also bis zu zwei Terabyte pro Stunde. Diese werden im Gerät jedoch nicht gespeichert, sondern direkt in Bilder umgerechnet und anschließend verworfen. Am Ende sind die in den Bildern enthaltenen Informationen um einen Faktor 300 kleiner als die in den (nicht gespeicherten) Rohdaten.

Dies hat jedoch entscheidende Nachteile: Moderne Verfahren könnten Bilder mit deutlich höherer Qualität erzeugen, indem Störsignale aufgrund von Probandenbewegung oder Rauschen herausgefiltert würden. Dies kann zurzeit im Nachhinein allerdings nur schwer oder gar nicht erreicht werden, da die Menge der Rohdaten zu groß ist. Die neue HPE-Architektur würde eine ideale Plattform bieten, um diese Daten vollständig zu speichern und zu exzellenten MRT-Bildern zu verarbeiten. Dies wäre eine Revolution nicht nur für die MRT-Studien am DZNE, sondern für die gesamte diagnostische Praxis.

Ein weiterer Vorteil: Bisher werden die Bilder umgerechnet, verknüpft und anschließend ausgewertet. Diese Analyse dauert in der Regel zwischen sieben und 14 Tagen. Erst danach können die DZNE-Forscher den nächsten Schritt definieren und einen weiteren Analysezyklus starten. Der Einsatz der neuen HPE-Technologie würde die Auswertung von Großvolumen-Daten dramatisch beschleunigen und damit die unmittelbare Analyse erleichtern. Denn der Proband könnte während eines Untersuchungszeitraums spezifisch nachuntersucht werden. Oder die Forscher könnten sofort die aktuellen Aufnahmen mit älteren vergleichen. Auf die Situation im Krankenhaus übertragen würde dies eine personalisierte Diagnostik erlauben, die heute gar nicht machbar ist.

Bei der Suche nach neuen Therapien nutzen DZNE-Forscher auch automatisierte Mikroskope. Diese können molekulare Prozesse auf der Ebene einzelner lebendiger Zellen abbilden. Diese Zellen sind nur wenige Mikrometer (Tausendstel Millimeter) groß. In einem einzelnen Forschungsprojekt werden Millionen solcher Zellen fotografiert – mit einem Datenvolumen von mehreren Terabyte. Die Analyse der Bilddaten erfordert erhebliche Rechenleistungen und dauert derzeit mehrere Tage bis Wochen (auf einem Rechner mit 20 CPUs und 100 GB RAM). Damit nimmt die Auswertung der Daten bisher viel mehr Zeit in Anspruch als die eigentlichen Bildaufnahmen am automatisierten Mikroskop, die ein bis zwei Tage benötigen. Wieder einmal ist die Rechenleistung der „Flaschenhals“, der mit der neuen Rechnerstruktur beseitigt werden könnte.