Wie können digitale Systeme ihr Verhalten exakt und zugleich verständlich erklären? Diese Frage steht im Mittelpunkt von CAUSE – Concepts and Algorithms for, and Usage of Self-Explaining Digitally Controlled Systems – der von der DFG seit November 2024 geförderten Graduiertenschule mit Beteiligung dreier Institutionen – der Technischen Universität Hamburg, der Universität Bremen und der Universität Oldenburg.
Nahezu jedes technische System wird heute digital gesteuert, was seine Intelligenz steigert. Allerdings bleibt die Funktionsweise für Entwickler*innen, Nutzer*innen und kooperierende Systeme oft unverständlich, was zu falschen Schlussfolgerungen, Ineffizienz und sogar Fehlreaktionen führen kann. Das Graduiertenkolleg CAUSE geht diese Probleme an, indem es daran arbeitet, digital gesteuerte Systeme für Entwickler, Nutzer und andere Systeme selbsterklärend zu gestalten.
Im Rahmen von CAUSE kooperieren seit November 2024 Forscher*innen. Gemeinsam arbeiten sie daran Selbst-Erklärung am Beispiel von Energienetzwerken und Windparks zu untersuchen. Eine übergreifende Formalisierung des Begirffs „Erklärung“ ähnlich zu einer epistemischen Logik erlaubt es die Sichten unterschiedlicher Systeme zu vergleichen, den Bedarf an Erklärungen zu ermitteln und Erklärungen zu liefern.
Mit einem Symposium an der Technischen Universität Hamburg (TUHH) trat CAUSE in die Öffentlichkeit. In seiner Begrüßungsrede betonte TUHH-Präsident Andreas Timm-Giel die strategische Bedeutung von CAUSE für die Stärkung der regionalen Zusammenarbeit zwischen den Partnerinstitutionen und die Weiterentwicklung technisch fundierter Ansätze zur Systemtransparenz. Prof. Görschwin Fey, Sprecher von CAUSE, und Prof. Martin Fränzle, Co-Sprecher aus Oldenburg, skizzierten die Vision der Graduiertenschule: die Entwicklung von algorithmischen Prinzipien, formalen Ansätzen und Ingenieur-Methoden für Systeme, die aussagekräftige, kontextbezogene Erklärungen für ihr eigenes Verhalten liefern können.
Die Keynotes am Morgen gaben den Ton für die technische Tiefe des Tages an. Prof. Erika Abraham (RWTH Aachen) eröffnete mit einem Vortrag über formale Verifikationsmethoden als Grundlage für selbsterklärende Steuerungssysteme und betonte die Rolle logischer Strukturen für Rückverfolgbarkeit und Vertrauen. Ihr folgte Andreas Sommer (WEINMANN Emergency Medical Technology), der aus Branchensicht darlegte, wie Erklärbarkeit im Systementwurf die Entwicklung medizinischer Geräte fördern kann.
Die anschließenden Präsentationen stellten aktuelle Forschungsrichtungen innerhalb von CAUSE vor. Die Vorträge reichten von grundlegenden Herausforderungen cyber-physischer Systeme (Prof. Heiko Falk) und empfängerspezifischen Erklärungsmodellen (Prof. Verena Klös) bis hin zu algorithmischen Entscheidungsverfahren (Moritz Buhr) und ausführbaren Erklärungen (Ulrike Engeln). Beiträge von Ivo David Oliveira und Caroline Dominik zeigten, wie kontextsensitive Selbsterklärung in adaptive Software und virtuelles Prototyping integriert werden kann.
In der abschließenden Postersession präsentierten alle Promovierenden von CAUSE ihre Forschungsthemen und verdeutlichten die Themenvielfalt und die bereits laufenden interdisziplinären Kooperationen. Diese Session bot Raum für einen detaillierten fachlichen Austausch zu Anknüpfungspunkten, die die Entwicklung des Programms prägen werden.