Dieses Projekt untersucht die Anwendung generativer Diffusionsmodelle – insbesondere BrepGen – zur Entwicklung neuartiger architektonischer 3D-Darstellungen. Durch die hierarchische Kodierung von Geometrie und Topologie wird erforscht, wie solche Modelle den architektonischen Entwurfsraum über deterministische Paradigmen hinaus erweitern können. Dabei entstehen kontextunabhängige Geometrien, die konzeptionelle Explorationen in frühen Entwurfsphasen unterstützen. Anhand von Experimenten mit parametrischen Datensätzen und sequentiellen Denoising-Prozessen bewertet das Projekt die Fähigkeit des Modells, aussagekräftige architektonische Formen zu generieren, und identifiziert zentrale Herausforderungen sowie zukünftige Perspektiven für die Integration KI-gestützter Geometriegenerierung in architektonische Arbeitsabläufe.
Die Integration generativer künstlicher Intelligenz in den architektonischen Entwurf eröffnet neue Möglichkeiten kreativer Exploration, insbesondere in den frühen Phasen der Formfindung und konzeptionellen Entwicklung. Diffusionsmodelle haben sich dabei als leistungsfähige Methode erwiesen, die durch die iterative Verfeinerung von Zufallsrauschen zu strukturierten Mustern qualitativ hochwertige und vielfältige Ergebnisse erzeugt. Im Gegensatz zum konventionellen Building Information Modeling (BIM), das auf deterministischen Komponenten und vordefinierter Logik basiert, ermöglichen Boundary Representations (B-Reps) einen flexibleren und kontextunabhängigen Zugang zur Geometrie. Dadurch lassen sich komplexe Formen generieren, die nicht durch funktionale oder strukturelle Vorgaben beschränkt sind. Diese Studie untersucht das Potenzial von BrepGen, einem von Autodesk entwickelten generativen Diffusionsmodell (Xu, X. et al., 2024), zur Erzeugung architektonischer 3D-Darstellungen, die die Grenzen traditioneller CAD-basierter Generierungssysteme überwinden.
Zeitgenössische generative Modelle im rechnergestützten Entwerfen arbeiten in der Regel mit vereinfachten Verfahren wie Skizzieren und Extrudieren, wodurch die Vielfalt und Komplexität der resultierenden Geometrien von vornherein eingeschränkt sind. Zwar haben Modelle wie SolidGen die direkte Generierung von B-Reps versucht, ihre Ergebnisse bleiben jedoch auf einfache Formen beschränkt und bieten keine Unterstützung für Freiformgeometrien oder komplexe topologische Beziehungen. BrepGen überwindet diese Einschränkungen, indem es Geometrie und Topologie in einer hierarchischen Baumstruktur kodiert, wobei der Wurzelknoten das solide B-Rep repräsentiert und die Kindknoten den Faces, Edges und Vertices entsprechen. Diese Architektur ermöglicht es dem Modell, komplexe räumliche Konfigurationen zu erfassen und zu reproduzieren, was es besonders für architektonische Anwendungen geeignet macht.
Die Systemarchitektur von BrepGen besteht aus drei Hauptkomponenten: der Geometrienormalisierung und Datenaufbereitung, der Kodierung von Flächen und Kanten mithilfe variationaler Autoencoder (VAEs) sowie einem sequentiellen Denoising-Prozess. Die VAEs dienen zur Reduktion der Dimensionalität geometrischer Merkmale, indem Kurvenpunkte in ein zweidimensionales Array und Oberflächen-UV-Punkte in ein dreidimensionales Array kodiert werden. Nach dieser Kodierung wendet das Modell vier Diffusionsprozesse an, um den Geometriebaum schrittweise zu denoisen. Die Generierung erfolgt dabei top-down: Zunächst werden die globalen Positionen der Flächen bestimmt, anschließend werden die Flächenmerkmale in Abhängigkeit von diesen Positionen erzeugt. Danach werden die Kantenpositionen auf Basis der Flächenmerkmale generiert, und schließlich entstehen die Kantenmerkmale unter Berücksichtigung sowohl der Kantenpositionen als auch der Flächendaten. Nach Abschluss der Denoising-Sequenz werden Duplikate entfernt, Paarungsbeziehungen identifiziert und die Topologie rekonstruiert, sodass ein solides B-Rep entsteht.
Erkundungen und Ergebnisse
Zur Bewertung der Leistungsfähigkeit des Modells im architektonischen Kontext wurden zwei experimentelle Datensätze entwickelt. Der erste bestand aus vereinfachten Darstellungen moderner Fallstudienhäuser, wobei jedes Haus als solid B-Rep modelliert wurde, mit maximal 45 Flächenund 25 Kanten pro Fläche. Insgesamt wurden 740 Beispiele erzeugt und über zwei Epochen zum Training des Modells verwendet. Während das Modell die Generierung von Flächen- und Kantenmerkmalen erfolgreich abschloss, traten Schwierigkeiten während der Nachbearbeitung auf, insbesondere bei der Erkennung gemeinsamer Vertices, die für die Rekonstruktion der B-Rep-Topologie erforderlich sind. Die Visualisierung der Denoising-Schritte zeigte einen Mangel an Konvergenz, vermutlich bedingt durch die begrenzte Trainingsdauer.
Aufbauend auf diesen Erkenntnissen wurde ein zweiter Datensatz erstellt, der ausschließlich aus parametrischen Modellen mit rechteckigen Flächen bestand. Dieser Datensatz umfasste 1.000 Variationen, jeweils mit maximal 40 Flächen. Das Training wurde auf fünf Epochen, mit einer Batchgröße von 32, erweitert, während andere Parameter unverändert blieben. Obwohl das Modell während der Validierung niedrige Mean Squared Error (MSE)-Werte erzielte, verschlechterte sich die Leistung in den späteren Denoising-Schritten, wobei die MSE-Werte gegen Ende des Prozesses 1,0 überstiegen. Trotz dieser Herausforderungen zeigten die Ergebnisse erkennbare Muster in den generierten Geometrien. Insbesondere begannen die Positionen der Oberflächen, horizontale Bounding Boxes zu bilden, die auf Platten und Dächern hinweisen, während die Positionen der Edges sich von zufälligen Verteilungen zu orthogonalen Rastern entwickelten, die Wandstrukturen ähneln. Diese Beobachtungen deuten darauf hin, dass das Modell selbst bei begrenztem Training beginnt, architektonische Logik und räumliche Zusammenhänge zu internalisieren. Eine weiterführende Analyse des Denoising-Prozesses umfasste das Speichern von Zwischenoutputs und die Untersuchung der Entwicklung geometrischer Merkmale über die verschiedenen Stadien hinweg. In den frühen Schritten zeigten sich chaotische Verteilungen, die sich allmählich zu strukturierten Formen zusammenfügten. Horizontale Elemente dominierten die Bounding Boxes, während vertikale Linien diese kreuzten, was die im Datensatz enthaltene Platten-Wand-Dach-Typologie widerspiegelt. Rotatorische Variationen führten zu zusätzlicher Komplexität und unterstreichen die Sensitivität des Modells gegenüber Eingabeparametern sowie die Bedeutung sequentieller Konditionierung für konsistente Ergebnisse.
Die Forschung erzielte mehrere bemerkenswerte Ergebnisse, darunter die Erstellung parametrischer architektonischer Datensätze im solid B-Rep-Format, das erfolgreiche Training und Sampling aus mehreren Datensätzen (DeepCAD, Furniture B-Rep und ABC) sowie die Visualisierung des Denoising-Prozesses zur Analyse des Modellverhaltens. Gleichzeitig bestehen jedoch weiterhin erhebliche Herausforderungen, insbesondere in der Nachbearbeitung, bei der die Rekonstruktion von B-Reps aufgrund der fehlenden Erkennung gemeinsamer Vertices scheiterte. Zur Überwindung dieser Einschränkungen wird sich die zukünftige Arbeit darauf konzentrieren, die Trainingsdauer zu verlängern, Transfer-Learning-Techniken einzusetzen, die Datensatzgröße zur Erhöhung der Variabilität zu erweitern und architektonische Typologien einzubeziehen, um dem Modell das Erlernen charakteristischer räumlicher Merkmale zu ermöglichen.
Fazit
Abschließend zeigt diese Studie die Herausforderungen und das Potenzial generativer Diffusionsmodelle für die Unterstützung frühphasiger Entwurfs- und Konzeptionsprozesse im architektonischen Design auf. Durch die Nutzung der hierarchischen Struktur und der sequentiellen Generierungsfähigkeiten von BrepGen lassen sich kontextunabhängige Geometrien erzeugen, die neue Formen und räumliche Anordnungen inspirieren. Trotz bestehender technischer Herausforderungen sind die ersten Ergebnisse vielversprechend und bilden die Grundlage für weiterführende Forschungen an der Schnittstelle von künstlicher Intelligenz und architektonischer Innovation.
Betreuer*innen:
Max Zorn, Anni Dai, Ali Nakhaee, und Renan Prandini.
Citations:
Xu, X. et al., 2024. BrepGen: A B-rep Generative Diffusion Model with Structured Latent Geometry. ACM Transactions on Graphics, 43(4), p.119. Available at: https://arxiv.org/abs/2401.15563.