Design of experiment wahrscheinlich. Variiere X Parameter (Layup, Geometrie...) stufenweise um Wert Y, checke alle Permutationen und schaue, was passiert. Die Chose wird ausgewertet und ein Optimum gesucht.
Um das mal zu entzaubern:
Ein Opimierungsalgorithmus wie z.B. Tosca optimiert mit "Moving Asymptotes" so lange rum bis ein lokales Optimum erreicht wurde. Der schießt entlang der Grenzen anfangs mal in jede Ecke und vergleicht die Ergebnisse. Danach wird iterativ bis ans Optimum rumgerechnet, bis das Ergebnis immer weiter konvergiert. Aussehen tut sowas so:
Das ist kein Hexenwerk, sondern einfach nur rechnergestützte Mathematik. Man braucht auch keinen Supercomputer. Ein Server mit dick Ram und halbwegs schnellem CPU reicht. Das teure ist die Software. Eine Jahreslizenz bei z.b. Dassault für sowas kostet ziemlich schnell einen niedrigen bis mittleren 6 stelligen Betrag. Aber solche Projekte laufen meist per "pay by use" oder wenn die total schlau sind klauen die sich einen Studenten, der ne kostenlose Lizenz hat und fragt Dassault/Siemens mal ganz freundlich ob die dem Studenten kurzfristig mehr als die 300-400k FEM Knoten erlaubt. Oder man vereinfacht es halt vorher. Da muss man aber wissen was man tut.
Gibt man dem Algo nix vor, dauert das ewig und steht sinnbildlich für keine Ahnung von dem haben was man da eigentlich macht oder für die Tatsache, dass man für die Berechnung nix bezahlt. Das sieht dann eher so aus:
Hier meine absolut erste Topologieoptimierung eines Fahrradvorbaus.
Gibt man ihm relativ strikte Grenzen ist die Geschichte zügig durchgefrühstückt. Die Grenzen sollte man im Fahrradbau mittlerweile ganz gut kennen. Ein Diamantrahmen ist ein Diamantrahmen. Beim Layup von Kohlefasern gibt es ja auch Grenzen. Klar kann man in der Theorie behaupten dass ein unknventioneller Lagenaufbau funktionieren KÖNNTE. Die Praxis hat aber in den letzten Jahrzehnten oft genug nein gesagt. Quasi.
100k Varianten klingt nach sehr viel. Teilt man den Rahmen in 7 Rohre (Steuer-, Ober-, Unter-, Sitzrohr + die Streben) auf und bedenkt dass ne durchschnittliche Optimierung 50-100 Iterationen brauchen kann um ein halbwegs brauchbares Optimum auszuspucken kommt man schnell drauf, dass da gar nicht soviele Optimierungen gelaufen sein müssen um die 100k Varianten (Die ja auch alle Kombinationen der schlechten Ergebnisse beinhalten) vollzumachen.
Wenn ich das so rechne hat mein oller Vorbau damals auch 96*50 Iterationen gebraucht. Dass ich am Ende aus diversen Varianten das beste zusammengebastelt habe lässt die mögliche Anzahl an Varianten auch in fantastische Höhen schnellen.