Kernbereich „Computing in Science“
Die Universität Hamburg mit ihren Stärken sowohl in den Naturwissenschaften als auch in der Informatik bietet ein ausgezeichnetes Umfeld für interdisziplinäre Forschung und Lehre. Die Informationstechnologie ist heute in nahezu alle Bereiche des gesellschaftlichen Lebens vorgedrungen, in den Naturwissenschaften hat sie schon eine sehr lange Tradition. Nicht nur technologisch ausgefeilte Experimente sind auf Informationstechnologien angewiesen, auch wissenschaftliches Datenmanagement und weltweite Kommunikation sind zentrale Eckpfeiler in den Naturwissenschaften. Im Zentrum steht aber die Modellierung naturwissenschaftlicher Phänomene. Simulationen mit dem Computer leisten dadurch wichtige Beiträge für ein besseres Naturverständnis.
In den modernen Lebenswissenschaften ist die Informatik unter dem Schlagwort Bioinformatik omnipräsent. In der Genomforschung hat der Computer vor einigen Jahren eine Revolution eingeleitet. Dank hochmoderner Labortechnik und Methoden der Informatik ist es gelungen, erstmals das menschliche Genom mit einer Länge von 3,1 Milliarden Basenpaaren zu entschlüsseln. Heute stehen die Genome vieler Säugetiere, Pflanzen, Bakterien und Viren für die Forschung zur Verfügung. Durch die Weiterentwicklung der Technologie können individuelle genetische Informationen für ein besseres Verständnis der Abläufe in lebenden Organismen genutzt werden. Dies kommt insbesondere der modernen medizinischen Forschung zugute.
Forschungsschwerpunkt "Data Science"
Der Fachbereich Informatik arbeitet aktuell am Aufbau eines interdisziplinären Forschungsschwerpunkts Data Science, der die diversen Vorarbeiten im fakultären Potentialbereich Computing in Science aufgreift und auf weitere Disziplinen aufbauen soll. Hier sollen neue Methoden für die Informationsverarbeitung von Big Data entwickelt werden, für die herkömmliche Methode nicht funktinieren, weil die zu betrachtenden Daten zu groß, zu komplex, zu schnelllebig und zu schwach strukturiert sind..
In allen Naturwissenschaften fallen heute sehr große Datenmengen an. Sie entstehen in Tomographen, Sequenzierern, Mikroskopen und anderen technischen Geräten, aber auch als Ergebnisdaten in numerischen Simulationen. Insbesondere im Bereich der Klimaforschung werden diese Daten Jahrzehnte aufbewahrt. Sie füllen umfangreichen Plattenspeicher und Bandarchive, die effizient verwaltet werden müssen. Informatikkonzepte ermöglichen einen weltweiten Zugriff auf diese Daten, die nicht nur dem Erkenntnisgewinn im Bereich der Erdsystemforschung dienen, sondern auch z. B. mit Daten aus den Sozialwissenschaften zusammengeführt werden, um zu gänzlich neuen Einsichten, beispielsweise über gesellschaftliche Auswirkungen des Klimawandels, zu gelangen. Man spricht hier von datenintensiver Wissenschaft. Sie ist eine neue, eigenständige Komponente im Computing in Science. Informatik ermöglicht die effiziente Speicherung, Analyse und graphische Darstellung der Daten und verwandelt sie in Informationen und letztlich in neue wissenschaftliche Erkenntnisse.
Modellierung, Simulation und Visualisierung
Mittels modernster Spektroskopiemethoden können wir in den Strukturkosmos bis in das atomare Detail vordringen. Viele Tausend heute verfügbare Strukturen, insbesondere von den wesentlichen Funktionsträgern in lebenden Organismen, den Proteinen, bilden die Grundlage moderner molekularbiologischer Forschung. Computer spielen hier nicht nur eine wichtige Rolle in der Strukturaufklärung, sie werden vielfältig zur Modellierung, Simulation und Visualisierung eingesetzt. Beispielsweise charakterisieren Computermodelle die Flexibilität und Stabilität der Moleküle und ermöglichen die Vorhersage von Wechselwirkungen untereinander. So werden beispielsweise in der pharmazeutischen Forschung computergestützte Wirkstoffe für neue Medikamente entwickelt.
Wissenschaftliches Rechnen und Visualisierung
Die Simulation physikalischer Phänomene mit hoher zeitlicher und örtlicher Auflösung erfordert Rechenleistung, die nur durch den Einsatz paralleler Rechnerarchitekturen und Spezialprozessoren erbracht werden kann. Für die numerische Analyse und Visualisierung der resultierenden, stark wachsenden Ergebnisdatenmengen werden innovative Verfahren benötigt, die die massiv-parallele Rechnung nicht beeinträchtigen. Beispielsweise werden Techniken zur Extraktion von 3D-Grafiken aus räumlich verteilten Rohdaten – z. B. Temperatur, Luftfeuchtigkeit und Strömungen – entwickelt und gemeinsam mit der Simulation auf dem Supercomputer ausgeführt. Die so aufbereiteten Ergebnisse werden anschließend mittels Streaming-Verfahren als 3D-Film in einem Virtual-Reality-System bereitgestellt, in dem komplexe Zusammenhänge interaktiv erkundet werden können.
Maschinelles Lernen
Speziell in den Wissenschaften gibt es einen großen Bedarf an Methoden, die interessante Informationen in der Flut der anfallenden Daten mit komplexen Zusammenhängen entdecken können. Das maschinelle Lernen ist eine junge Disziplin, die Werkzeuge für diesen Zweck entwickelt. Es kombiniert Methoden aus der Informatik (Algorithmen zur Verarbeitung großer Datenmengen) mit Methoden aus der Statistik (Berechnung von Gütegarantien für die gefundenen Ergebnisse). Die so entwickelten Verfahren werden in zunehmendem Maße auch zur Analyse wissenschaftlicher Daten eingesetzt, zum Beispiel in der Biologie, den Neurowissenschaften, der Medizin oder der Physik.