Kernbereich „Human-Centered Computing“
Informationstechnik hat unsere Arbeitswelt und unseren Alltag durchdrungen. Wir schreiben E-Mails und recherchieren im Internet, benutzen Smartphones und Navigationsgeräte und pflegen unsere Freundschaften in Facebook. Komplexe Software-Systeme überwachen medizinische Geräte in Krankenhäusern, steuern Flugzeuge und kontrollieren Kernkraftwerke. Dabei fallen riesige Mengen an Daten an, die zwar gespeichert, aber ohne technische Unterstützung nur schwer von menschlichen Benutzern ausgewertet werden können. Daher wird es immer wichtiger, dass technische Systeme selbstständig Daten analysieren und auswerten können, in unerwarteten Situationen autonome Entscheidungen treffen können und ihre Strategien an sich verändernde Umstände anpassen können. Wir brauchen also einerseits „intelligente Systeme“, die weitgehend selbständig funktionieren. Andererseits muss es weiterhin Ziel sein, die Komplexität der Informatiksysteme durch adäquate Informationsvisualisierung und Interaktionsgestaltung für den Menschen beherrschbar zu machen.
Forschungsschwerpunkt "Kognitive Systeme"
Der Fachbereich Informatik hat einen interdisziplinären Forschungsschwerpunkt Cognitive Systems aufgebaut, in dem multisensorische Kognition, Lernen und Interaktion beim Menschen erforscht wird, um das Wissen darüber in technischen kognitiven Systemen, wie z.B. autonomen Systemen, Roboter- oder Sprachassitenz-Systemen, zu realisieren.
Um die zunehmende Komplexität von Informationstechnologien zukünftig beherrschen zu können, müssen die perzeptuellen, kognitiven und motorischen Fähigkeiten des Menschen bei der Gestaltung stärker berücksichtigt werden. Im Forschungsschwerpunkt "Human-Centered Computing (HCC)" forschen wir an intelligenten, adaptiven und kognitiven Systemen, die multisensorische Daten analysieren und autonom Entscheidungen treffen können. Gemeinsam mit unseren Kooperationspartnern aus der Psychologie, den Neurowissenschaften, sowie dem Universitätsklinikum Eppendorf entwickeln wir gebrauchstaugliche IT-Systeme und Informationstechnologien, die durch eine mensch-zentrierte Gestaltung die Benutzer in ihrer Problemlösung effektiv und effizient unterstützen.
Wissenstechnologie
Das Gebiet Wissenstechnologie erforscht Technologien für intelligente adaptive Systeme. Das Ziel ist, Mechanismen, die in der Natur gut funktionieren, für die Zusammenarbeit zwischen Mensch und Maschine zu nutzen. Wissenstechnologie vereint die Informatik mit den Kognitions- und Neurowissenschaften, um die nächste Generation von interaktiven und lernenden Systemen zu schaffen. Dazu werden von der Natur inspirierte, hybride Systeme entwickelt und erforscht, die sich insbesondere am Gehirn und an neuronalen Modellen orientieren. Grundlegende Eigenschaften solcher Systeme sind ein hoher Grad an Robustheit, eine möglichst natürliche Interaktion mit dem Menschen und Anpassungsfähigkeit, um sich in verschiedensten Situationen angemessen zu verhalten. Beispiele hierfür sind kognitive Roboter mit neuronalen Kontrollsystemen, die aus Eingaben verschiedener Sensormodalitäten lernen oder Systeme, die biologisch plausibel einen Bezug zwischen natürlicher Sprache und dem Kontext herstellen.
Sprachverarbeitung
Mit der natürlichen Sprache, sowohl in ihrer gesprochenen als auch in der geschriebenen Form, hat sich der Mensch ein extrem flexibles und universell einsetzbares Medium für die soziale Interaktion und die Wissensvermittlung geschaffen. Sprachlich vermittelte Information auch für die maschinelle Verarbeitung zugänglich zu machen, ist eine Notwendigkeit, die für die Informationssuche, ihre Aufbereitung und Vermittlung in zahlreichen alltäglichen Anwendungssituationen eine immer größere Bedeutung erlangt. Darüber hinaus besitzt die natürliche Sprache auch ein großes Potenzial für eine effiziente und problemnahe Kommunikation zwischen Menschen und Dingen, seien es assistive Hörhilfen, Smartphones, Roboter, Autos oder Haushaltgeräte. In diesem erweiterten Kontext sind die Natürlichkeit und die intuitive Benutzbarkeit nicht nur bei einer rein sprachlichen Kommunikation sondern auch in multi-modalen Anwendungsszenarien (einschließlich Zeigen und Gesten) wünschenswert. Zu den zu lösenden Problemen gehören zum einen neuartige Wortschöpfungen, der Umgang mit Sprechfehlern, ungrammatischen Äußerungen und Missverständnissen, und der externe Zeitdruck der durch den Anwendungskontext vorgegeben sein kann. Zum anderen aber auch der Umgang mit äußeren Einflüssen wie Störgeräuschen, konkurrierenden Sprechern und Nachhall.
Mensch-Computer-Interaktion
Im Bereich der Mensch-Computer-Interaktion (MCI) sorgen wir dafür, dass bei der Entwicklung von Systemen eine sinnvolle Aufgabenteilung zwischen Mensch und Computer erzielt wird und nicht einfach diejenigen Arbeitsaufgaben beim Menschen verbleiben, die (noch) nicht automatisierbar sind. Beispiele der Gestaltungsaufgaben mit denen wir uns beschäftigen reichen von der Touch-Interaktion mit Smartphones, über die Unterstützung von Profi-Photographen durch ein Hybridsystem aus Multi-Touch-Tisch und hochauflösenden Monitoren, bis hin zur Gestaltung sicherheitskritischer Mensch-Maschine-Systeme in den Bereichen Flugsicherung, Intensivmedizin und Rettungswesen. Egal ob Smartphone, Radarbildschirm oder Anästhesiegerät: Gutes Interaktionsdesign endet nie beim Aussehen, sondern immer bei der Frage, ob Nutzer mit dem System ihre Ziele effektiv, effizient und zufriedenstellend erreichen können. Dabei ist das Verhältnis von Zielen und Interaktionsanforderungen für verschiedene System- und Aufgabenklassen sehr heterogen. Die Gebrauchstauglichkeit eines Walk-Up-&-Use-Systems, wie z. B. eines Ticketautomaten wird hinsichtlich anderer Kriterien (Design-for-all) optimiert, als ein sicherheitskritisches System, wie z. B. ein Anästhesiemonitor (Design für Experten). Die MCI-Forschung erforscht und entwickelt für dieses breite Spektrum Analyse- und Gestaltungsmethoden, mit denen wir gebrauchstaugliche Systeme konzipieren, realisieren und evaluieren können.
Multimodalität in der Robotik
Das Ziel der Robotik ist es, Menschen zunehmend von Arbeiten zu befreien, die gefährlich, schwierig oder für sie sogar unmöglich sind, und Prozesse und Dienstleistungen zu automatisieren. Beispiele sind die Rettung aus Katastrophengebieten oder das Reinigen hoher Wände, aber auch die Betreuung junger, kranker oder alter Menschen. Roboter müssen wie der Mensch lernen, die Welt zu erfassen, sich in ihr zu bewegen, sie zu verstehen und mit ihr zu interagieren. Sie müssen ihre Umwelt und die Objekte darin multimodal, das heißt auf verschiedene und sich ergänzende Arten erfassen, durch Sehen und Fühlen, Greifen und Manipulieren. Sie müssen mobil sein und diese Mobilität muss angemessen und sicher zu steuern sein. Die technischen Aspekte der Entwicklung und Steuerung solcher multimodalen Systeme, ihrer Mobilität und Manipulation, der Implementierung simulierter und echter Roboter, der Konzeptionierung robotischer Erfahrungen, ihrer Architekturen und Sensoren bilden einen Schwerpunkt der Forschung im Bereich Human-Centered Computing.