HAICORE: Mehr als Computer-Kapazitäten
Wenn Forschende Experimente machen, entstehen häufig Datenmengen bis in den dreistelligen Terabyte-Bereich. So etwa, wenn sie mit Hochdurchsatzmethoden tausende von Substanzen auf ihre Wirksamkeit zur Behandlung von Krankheiten prüfen. Oder wenn sie nach Unterschieden zwischen krankem und gesundem Gewebe fahnden und dabei in verschiedenen Körperzellen unterschiedliche Gene auf einmal überprüfen. Um die gesammelten Untersuchungsergebnisse anschließen sinnvoll zu interpretieren und wissenschaftliche Erkenntnisse daraus abzuleiten, sind enorme Computerkapazitäten notwendig, die die großen Datenmengen verarbeiten können.
„Unsere Aufgabe ist es, Computerkapazitäten für Forschende aus anderen Instituten zur Verfügung zu stellen, sowie Tools, um die Daten mithilfe von künstlicher Intelligenz zu analysieren“, sagt Navid Afkhami, der als Projektleiter mit einem Team der Corporate IT am Max Delbrück Center die technische Umsetzung des Projekts übernimmt. Dafür haben sie ein neues Hochleistungsrechnersystem etabliert, basierend auf Acht-Work-Nodes, die mit jeweils acht NIVIDA H100 GPUs ausgestattet sind. Diese Grafikprozessoren bilden die Grundlage für maschinelles Lernen von Modellen, die Prognosen erstellen, wie sich beispielsweise ein biologisches System unter gegebenen Bedingungen verhält.
„Mit HAICORE können wir Forschenden in der Helmholtz Foundation Model Initiative unmittelbaren Zugang zu Ressourcen bis zu 50.000 GPU-Stunden gewähren. Damit erleichtern wir die Entwicklung von neuen großen KI-Modellen signifikant,“ betont Professorin Dagmar Kainmueller, Leiterin der Arbeitsgruppe „Integrative Imaging Data Sciences“ und maßgebliche Initiatorin des Projekts am Max Delbrück Center.
Eine Lücke schließen
Aktuell nutzen acht Pilotprojekte der Helmholtz Foundation Model Initiative (HFMI), die speziell Projekte zu Modellen mit maschinellem Lernen unterstützt, die neue Plattform am Max Delbrück Center. Dabei handelt es sich um Forschung mit großem Mehrwert für die Allgemeinheit, wie Afkhami betont. „Bei den Projekten geht es zum Beispiel darum, neue Krebstherapien zu finden oder Werkzeuge für eine bessere individualisierte Medizin, damit sich Wirkstoffe und Therapien künftig maßgeschneidert auswählen lassen“, sagt er. Aber nicht nur die medizinische Forschung profitiere von den Möglichkeiten. „Derzeit betreuen wir auch ein Projekt, das Klimadaten auswertet und nach Möglichkeiten zur Reduktion des CO2-Ausstoßes sucht.“
Neben der Möglichkeit, das Hochleistungsrechnersystem für maschinelles Lernen und Simulation von Modellen zu nutzen, lassen sich Daten über die Plattform auch anderen Wissenschaftler*innen zur Verfügung stellen. „Auf diese Weise fördern wir auch den Austausch, der allen zugute kommt,“ sagt Afkhami.
„Die Bereitstellung solcher Plattformen für Forschende der Helmholtz-Gemeinschaft schließt die Lücke zwischen Großrechenzentren und eigener Infrastruktur“, ergänzt Karsten Häcker, Leiter der Abteilung Corporate IT am Max Delbrück Center. „Wir können so insbesondere Projekte, die nicht die Antragsprozesse für die Großrechenzentren durchlaufen können oder sollen, schnell und unbürokratisch unterstützen.“
Text: Stefanie Reinberger