Constitutive Artificial Neural Networks (CANNs)

 

Zahlreiche Fortschritte in der experimentellen Mechanik, den bildgebenden Verfahren und der Prozessdatenerfassung haben dazu geführt, dass uns heute Daten in einer Größe und Menge zur Verfügung stehen, wie man sie vor wenigen Dekaden noch für undenkbar gehalten hätte. Inwiefern diese Daten für die Modellierung des mechanischen Verhaltens von Materialien verwendet werden können, ist eine der zentralen Fragen, die wir uns stellen.

Im Rahmen unserer Forschungsarbeiten haben wir daher ein neuartiges maschinelles Lernverfahren für die datengetrieben Modellierung des mechanischen Verhaltens von Werkstoffen entwickelt (s. Abbildung 1). Diese als constitutive artificial neural networks (CANNs) bezeichnete Architektur vereint theoretische Grundlagen der klassischen Materialtheorie mit maschinellen Lernverfahren, in diesem Fall künstlichen neuronalen Netzen. Die Vereinigung dieser beiden Modellierungsansätze birgt mehrere Vorteile. Während in der Vergangenheit viel Mühe aufgebracht wurde, die experimentell ermittelten Spannungs-Dehnungsbeziehung funktional zu beschreiben, übernehmen nun CANNs diese mühselige Aufgabe. Weiterhin können neben diesen Spannungs-Dehnungsdaten beliebige andere relevante Informationen genutzt werden. Parameter des Herstellungsprozesses, z.B. Temperatur oder Druck, oder mikrostrukturelle Deskriptoren von Verbundwerkstoffen, z.B. Inklusionsgröße oder -volumenanteil, können solche relevanten Informationen darstellen. Da es prinzipiell keine Einschränkungen für diese Deskriptoren gibt, können sie sich auch über mehrere Längenskalen erstrecken, so dass CANNs die klassische Multiskalenmodellierung ebenfalls mit abdecken. Darüber hinaus können CANNs ohne großen Aufwand in gängige Simulationssoftware, z.B. Finite-Elemente-Simulationen, implementiert werden. Aufgrund der theoretischen Fundierung der CANNs ist die benötigte Datenmenge auch für komplexe und anisotrope Materialien geringer als bei vergleichbaren Modellierungsansätzen, welche rein datengetrieben sind (s. Abbildung 2). Eine weitere Besonderheit von CANNs ist ihre Fähigkeit das Materialverhalten in Parametergebiete, für welche keine Daten vorliegen, zu extrapolieren.

Eine detaillierte Beschreibung der CANNs ist in dem Fachzeitschriftartikel [1] nachzulesen. Der dazugehörige Quellcode für die CANN-Architektur sowie die in [1] verwendeten Datensätze sind frei zugänglich unter github.com/ConstitutiveANN/CANN.

 

Abbildung 1: CANN Architektur (nach Abbildung 1a, Linka et al. (2021) [1]).

 

 

Abbildung 2:  Bereits mit wenigen Datenpunkten, jeweils 15 pro Lastfall (uniaxialer Zug, equi-biaxialer Zug, reine Scherung), liegt der relative Fehler in der Verzerrungsenergie (links) und nominellen Spannung (rechts) überall im einstelligen Prozentbereich, überwiegend sogar unter 1 %. Die Fehlerplots verdeutlichen, dass CANNs nicht nur eine gute Verallgemeinerbarkeit aufweisen, sondern auch über die Trainingsdaten hinaus extrapolieren können (übernommen von Abbildung 3c und 3d, Linka et. al. (2021) [1]).

 

 

Literatur:

[1] Linka K, Hillgärtner M, Abdolazizi KP, Aydin RC, Itskov M, Cyron CJ (2021) Constitutive artificial neural networks: a fast and general approach to predictive data-driven constitutive modeling by deep learning. Journal of Computational Physics, Volume 437. (DOI= 10.1016/j.jcp.2020.110010)