Durchbrüche-2021

Wissenschaftliche Durchbrüche in Künstlicher Intelligenz

Im Förderprogramm Durchbrüche wurden 2021 insgesamt sechs Projekte bewilligt. In einem zweistufigen Verfahren wurden die Projekte von externen Fachgutachter*innen bewertet und im Anschluss von einer Auswahlkommission zur Förderung empfohlen. Die folgenden Projekte werden jeweils mit bis zu 5 Millionen Euro gefördert:

Albert-Ludwigs-Universität Freiburg
Responsible and Scalable Learning for Robots Assisting Humans (ReScaLe) 

Das Projekt erforscht neue Trainingsmethoden für KI-basierte Roboter. Innovative Machine Learning Methoden sollen den Robotern ermöglichen, von Menschen demonstrierte Aufgaben zu erlernen. Ähnlich dem menschlichen Lernen sollen die Roboter sich das korrekte Verhalten durch Kopieren von beobachtetem Verhalten und durch Interaktionen aneignen können. So sollen die Roboter in unterschiedlichen Umgebungen agieren, ohne für jede Situation neu programmiert werden zu müssen.
Gefördert wird das Projekt mit 4.999.000 Euro, Sprecher des Projekts ist Prof. Dr. Wolfram Burgard.

Ruprecht-Karls-Universität Heidelberg
Model-Based AI: Physical Models and Deep Learning for Imaging and Cancer Treatment

Wie kann Wissen aus einem bestimmten Themengebiet wie beispielsweise der Krebsforschung in Deep Learning Methoden implementiert werden, um eine effektivere Bearbeitung oder Problemlösung zu erzielen? Zu diesen und ähnlichen Fragen wird im Projekt der Aufbau eines Zentrums zu modell-basierter Künstlicher Intelligenz geplant. Der Fokus des Forschungsprojekts liegt dabei auf der konkreten Anwendung in der Behandlung von Krebs. Ein interdisziplinäres Team aus den Fachbereichen Informatik, Mathematik, Physik und Medizin analysiert dazu verschiedene Fragestellungen in der KI-Forschung, unter anderem zu Verlässlichkeit von Lerndaten, Objekterkennung sowie zur Qualität der Datenspeicherung und -auswertung.
Gefördert wird das Projekt mit 5.000.0000 Euro, Sprecher des Projekts ist Prof. Dr. Jürgen Hesser.

Friedrich-Schiller-Universität Jena
Interactive Inference

Schlüsse aus Daten zu ziehen ist eine Kernaufgabe der KI. Schlussfolgern erlaubt es intelligenten Lebewesen und KIs, Entscheidungen aufgrund von Beobachtungen zu treffen. Für gute Entscheidungen müssen mögliche Unsicherheiten in Daten und Modellen berücksichtigt werden. Das Schlussfolgern unter Unsicherheit ist ein algorithmisch herausforderndes Problem. Ziel des Projekts ist es, Algorithmen zu entwickeln, die das Schließen aus großen Datenmengen und für komplexe Modelle möglich machen.  Dazu soll eine Graduiertenkolleg eingerichtet werden, in dem das Schlussfolgern unter Unsicherheit erforscht wird.
Gefördert wird das Projekt mit 4.905.000 Euro, Sprecher des Projekts ist Prof. Dr. Joachim Giesen.

Technische Universität Kaiserslautern
Sustainable Embedded AI: Energie- und Datensparsame Methoden für Umgebungswahrnehmung in eingebetteten KI-Systemen am Fallbeispiel von Smart Factory und Smart Farming Anwendungen

Ziel des Projekts ist es die Umgebungswahrnehmung in KI-Systemen zu verbessern. Im Projekt werden dazu verschiedene KI-Systeme beispielsweise zur Beobachtung, Pflege oder Wartung in verschiedenen Anwendungsgebieten untersucht. Durch vorprogrammierte Kenntnisse in bestimmten Themenfeldern sollen sie die gewonnenen Informationen effektiver verarbeiten. Reduzierte Datenmengen und eine effektivere Verarbeitung in KI-Systemen könnten eine dezentrale Verarbeitung im sogenannten Edge Computing begünstigen. Im Projekt wird dies in den Anwendungsfeldern „Smart Factory“ und „Smart Farming“ erforscht.
Gefördert wird das Projekt mit 4.987.000 Euro, Sprecher des Projekts ist Prof. Dr. Paul Lukowicz.

Johannes Gutenberg-Universität Mainz 
TOPML: Trading Off Non-Functional Properties of Machine Learning

Ziel des Projekts ist die Einrichtung eines interdisziplinären Forschungszentrums für Machine Learning an der Johannes Gutenberg-Universität Mainz. Hier sollen Wechselwirkungen und Abhängigkeiten von verschiedenen Eigenschaften des Maschinellen Lernens analysiert und abgewogen werden. Untersucht werden Entscheidungen von Algorithmen mit Hinblick auf Transparenz und Fairness sowie Datenschutz und eine effiziente Nutzung von Ressourcen wie beispielsweise Strom. Im Fokus stehen dabei konkurrierende Bedürfnisse, beispielsweise: Wie dezentral können Daten gespeichert und verarbeitet werden, um die Privatsphäre zu schützen, inwieweit hat das Auswirkungen auf den Energieverbrauch? Verschiedene Zielkonflikte werden identifiziert und charakterisiert, um tragfähige Kompromisse für die Anwendung zu schaffen. Ethische und rechtliche Aspekte sollen mitgedacht werden. In einem AI-Lab der Hochschule Mainz sollen die gefundenen Lösungen zum Einsatz gebracht werden.
Gefördert wird das Projekt mit 4.995.000 Euro, Sprecher des Projekts ist Prof. Dr. Stefan Kramer.

Eberhard Karls Universität Tübingen
Certification and Foundations of SafeMachine Learning Systems in Healthcare

Moderne Deep Learning Systeme im Gesundheitswesen haben das Potential, Diagnoseentscheidungen von ähnlicher Qualität wie behandelnde Ärzte zu treffen. Allerdings gibt es Bedenken hinsichtlich deren Transparenz, Robustheit, Fairness und Verlässlichkeit. Ziel des Projekts ist es diese Probleme zu beheben und dabei die Abhängigkeiten und potentiellen Zielkonflikte verschiedener Aspekte (Fairness, Genauigkeit, Interpretierbarkeit und Privacy) als auch deren ethische Implikationen an konkreten Anwendungen im Gesundheitsbereich zu erforschen. Dabei sollen Leitlinien für eine Zertifizierung solcher Systeme aufgestellt und dadurch ein sicherer Einsatz in der Medizin ermöglicht werden.
Gefördert wird das Projekt mit 5.000.000 Euro, Sprecher des Projekts ist Prof. Dr. Matthias Hein.