Author:
Carsten Jantzen
Search for other papers by Carsten Jantzen in
Current site
Google Scholar
PubMed
Close
Open Access

Gespräch zwischen Carsten Jantzen, bis 2021 Volke Entwicklungsring SE Wolfsburg / seit 2022 ITE, Digitale Baufabrikation, TU Braunschweig und Philipp Reinfeld, geführt per Videomeeting zwischen Berlin und Braunschweig am 15.11.2021.

Das VR-Design-Programm Cloud Modelling (CM) ist eine von der Volke Entwicklungsring SE entwickelte virtuelle Umgebung, die in unterschiedlichen Phasen von Designprozessen in der Fahrzeugindustrie Anwendung finden kann. Bis zu zehn Nutzer:innen können hier gleichzeitig und standortunabhängig in Echtzeit dreidimensionale CAD-Modelldaten erstellen und verändern. Beim Tragen von Virtual-Reality-Brillen kann mit Hilfe zweier Hand-Controller im virtuellen Raum entweder frei gezeichnet oder können mittels Präzisionswerkzeugen Oberflächen und Kurven hergestellt beziehungsweise geändert werden.

***

Reinfeld: Carsten, du hast 2009 dein Architekturstudium an der Bergischen Universität Wuppertal mit einer Arbeit zu parametrischen Formfindungsprozessen abgeschlossen, einem damals auch im akademischen Umfeld noch recht neuen Feld architektonischer Entwurfsmethodik. Wie kam es dazu, dass du einige Jahre später eine Tätigkeit in der Fahrzeugindustrie aufgenommen hast?

Jantzen: Bevor ich im Sommer 2015 bei Volke angefangen habe, war ich eine Zeit lang Wissenschaftlicher Mitarbeiter an der Bergischen Universität Wuppertal bei Ulrich Königs (Lehrstuhl Konstruieren und Entwerfen). Als 2011 Holger Hoffmann den Lehrstuhl Darstellungsmethodik und Entwerfen übernahm und damit das Thema digitales Entwerfen an die Fakultät mitbrachte, war das ein für meine Interessen sehr fruchtbares Umfeld. Karl Schwalbenhofer, der damals den Lehrstuhl Tragwerkslehre und Baukonstruktion vertrat, brachte mich schließlich zu einer intensiveren Auseinandersetzung mit den mathematischen Hintergründen parametrischer Formfindung. Zu verstehen, wie eng Entwerfen und Mathematik im Programmieren zusammenhängen, kam für mich in gewisser Weise einer Offenbarung gleich. Wenn man einen neuen Algorithmus zur Verfügung hat oder sogar selbst entwickelt, dann öffnen sich kreative Universen, aus denen man immer neue Ideen schöpfen kann. Weil derartige Fähigkeiten und Interessen außerhalb des akademisch-wissenschaftlichen Kontextes in der praktischen Architekturproduktion in den Büros damals noch weniger gefragt waren, habe ich mit diesen speziellen Kenntnissen in der mir bis dahin völlig fremden Automobilbranche, konkret bei der Auto-Zulieferfirma Volke in Wolfsburg eine Beschäftigung aufgenommen. Sie suchten seinerzeit jemanden, der sich mit Geometrie auskennt und mit dem 3D-Programm Rhinoceros sowie der darin implementierten visuellen Programmierumgebung Grashopper umgehen kann, um komplexe Oberflächenstrukturen und Muster herzustellen.

Reinfeld: Das VR-Programm Cloud Modelling bzw. die Frage nach dem Entwerfen und Arbeiten in VR war demnach zunächst noch nicht Teil deiner Arbeit dort. Kam die Idee bzw. Initiative einer Hinwendung zu VR und zur Entwicklung dieses Programms von dir?

Jantzen: Nein, die initiale Idee dazu kam eindeutig von Daniel Volke, dem Abteilungsleiter. Die Firma hatte eine Microsoft HoloLens – damals noch vom US-Markt importiert –, um zu sehen, ob diese Technik irgendwie für die Arbeit der Firma erschlossen werden könnte. Für diese HoloLens habe ich eine kleine App geschrieben um diese, damals technisch noch eher auf dem Stand eines Mockups befindliche, Brille für uns nutzbar zu machen. Ich saß also als Architekt mit einer brandneuen HoloLens in Wolfsburg in einem Automobil-Zulieferbetrieb und habe programmiert – eine durchaus seltsame, aber gleichzeitig extrem spannende Situation. Aufgrund der bildlichen Defizite der Technik wurde schnell klar, dass ein professionelles Arbeiten mit dieser AR-Brille eher unbefriedigend bleiben würde. Wir erhielten dann 2016 die ersten HTC Vive VR-Brillen und haben unsere Versuche in dieser viel leistungsstärkeren Umgebung vertieft. Schon bald konnten wir frei bewegbare Flächen erzeugen und im virtuellen 3D-Raum ganz intuitiv mit einem Controller in der Hand an den Kontrollpunkten einer Fläche angreifen, um diese präzise zu verschieben. Da wurde allen Projektbeteiligten das Potenzial dieser Entwicklung schlagartig bewusst.

Reinfeld: War von Beginn an klar, dass ihr in der Virtuellen Realität aktiv Dinge verändern und modellieren können wollt? Es hätte doch mit beträchtlich weniger Aufwand zunächst auch nahegelegen, digital entworfene Objekte in VR nur zu visualisieren, um sie eins zu eins sichtbar zu machen.

Jantzen: Daniel Volke hatte vom ersten Moment an den Wunsch, Dinge in VR nicht nur ansehen, sondern auch verändern zu können. Das liegt wahrscheinlich an der innovativen Ausrichtung des Betriebs auf die Entwicklung neuer technischer Lösungen. Die Frage nach Veränderung und Verbesserung steht immer im Raum. Was diese Idee einer notwendigerweise äußerst präzisen virtuellen Modellierungsumgebung dann im Einzelnen an Arbeit und Herausforderung bedeuten würde, das haben wir zu Beginn, man muss rückblickend sagen zum Glück, noch nicht überrissen. Wir haben einfach euphorisch losgelegt.

Reinfeld: Um die hierbei im Zentrum stehenden, spezifischen Anforderungen verstehen zu können, wäre es hilfreich, grundsätzlich etwas über die Arbeitswerkzeuge und den Gestaltungsprozess im Automobildesign zu erfahren. Kannst du kurz erläutern was so anders und ungewohnt war gegenüber den Arbeitsmethoden, die du aus der Architekturpraxis kanntest?

Jantzen: Architekturbüros sind im Vergleich zu Industriebetrieben, wie sie im Kontext der Fahrzeugproduktion zu finden sind, meistens um ein Vielfaches kleinere Einheiten. Weil wichtige Entscheidungen nicht in großen, hierarchisch organisierten Teams getroffen werden, sondern von einzelnen Personen, lastet auf den Beteiligten eines Architekturbüros eine große Verantwortung. Gegenüber der Planung und Ausführung eines Gebäudes ist der Herstellungsprozess eines Automobils zudem unglaublich ausdifferenziert.

Reinfeld: Es gibt also viele kleine Inselbereiche mit hochinnovativen Abteilungen, aber der Austausch zwischen ihnen, der aufgrund des gemeinsamen Ziels der Herstellung eines Fahrzeugs notwendig ist, ist eher sperrig und überraschend schwergängig?

Jantzen: Ja, an den Schnittstellen geht viel verloren. Das bedeutet heute auch, dass sehr viele unterschiedlich hergestellte CAD-Daten zwischen verschiedenen spezialisierten Abteilungen ausgetauscht werden müssen, was selten konflikt- und verlustfrei erfolgt. Diese digitale Schnittstellenproblematik ist aus Programmiersicht eigentlich erstaunlich. Denn CAD-Programme sind im Grunde sehr einfach aufgebaut – ein paar Zahlen, ein paar Vektoren und noch ein paar Metadaten, das ist es im Groben. Gleichzeitig benutzen die meisten Anwender:innen die Programme, indem sie auf Knöpfe drücken und Befehle ausführen, ohne auch nur ansatzweise zu wissen, was dabei algorithmisch im Hintergrund passiert. Die Programmierung der User-Schnittstellen wiederum ist technisch aufwendig und komplizierter als der so ausgelöste, eigentliche Befehl. Zudem sind Softwareanwender:innen oft überraschend konservativ – die Bereitschaft, etablierte Programmumgebungen und erlernte Routinen zu verlassen, ist eher gering. Das ist vergleichbar mit dem früheren Unwillen, vom analogen Zeichnen und Entwerfen mit Bleistift und Papier in den digitalen Entwurfs- und Arbeitsraum von CAD zu wechseln. Heute wollen viele Leute bei der ihnen vertrauten Software bleiben. In einem kleinen Architekturbüro reicht manchmal schon der Impuls einer einzelnen Mitarbeiterin, um neue Softwareumgebungen auszuprobieren. Demgegenüber ist es in einem Unternehmen mit Tausenden Mitarbeiter:innen und zahlreichen Abteilungen viel schwieriger, die etablierten Arbeitsmittel infrage zu stellen.

Reinfeld: Eine solche althergebrachte Software im Automobildesign ist z.B. ICEM Surf der Firma Catia, die in den 1980er Jahren entwickelt wurde. Mit diesem Programm lassen sich sogenannte „Class A Surfaces“, wegen ihrer Lichtreflexion besonders ästhetisch anmutende Bézierflächen, gestalten. Wenngleich sowohl auf Hardware-, als auch Softwareseite seither weitreichende Entwicklungen stattgefunden haben, werden solche für die Innen- und Außenflächen von Automobilen wichtigen Gestaltungsbereiche noch heute mit dieser, nicht gerade intuitiv zu bedienenden, Software bearbeitet. Kannst du erläutern, warum diese Software und die mit ihr verbundene Arbeitsweise gewissermaßen als Antipode zur Idee von Cloud Modelling gesehen werden kann?

Jantzen: Um das zu erklären, muss ich ein wenig ausholen. Bézierflächen haben Kontrollpunkte. Wenn ich einen Kontrollpunkt bewege, dann ändert sich die Geometrie der gesamten Fläche. Anders verhält es sich mit sogenannten B-Splines, die aus zusammengesetzten Bézier-Kurvenstücken bestehen. Das hat den Vorteil, dass die Änderung an einem Kontrollpunkt keine Änderung an anderen Teilen der Kurve zur Folge hat. B-Splines sind allerdings geometrisch und programmiertechnisch komplizierter als Bézierflächen, weil die Anschlussstellen der Kurvenstücke aufwendig zu berechnen sind. Für heutige Computer ist das kein Problem, und dennoch hat sich mit dem Programm ICEM Surf eine eigentlich anachronistische Arbeitsweise mit Bézierflächen erhalten. Sogenannte Straker (ein Begriff, der auf die Technik der Flächenherstellung von Schiffsrümpfen zurückgeht) bewerten noch heute anhand der abstrakten Darstellung eines Bézier-Kontrollpunktgitters, ob eine Fläche gut aussehen wird. Eine regelrechte Kunst, für die viel Wissen und Erfahrung notwendig ist. Das ist einerseits faszinierend, andererseits scheint diese Arbeitsweise heute, da ganze Autos problemlos in Echtzeit gerendert dargestellt werden können, wie aus der Zeit gefallen. Wenn man an Stelle der schwierig zu handhabenden Bézierflächen mit B-Spline bzw. NURBS-Flächen arbeitet, was wegen der einfacheren Geometrie-Kontrolle viel nutzer:innenfreundlicher und intuitiver ist, dann muss man in der Lage sein, die Qualität der entstehenden Flächen visuell sehr genau zu bewerten, weil die Übergänge zwischen den einzelnen Kurvenabschnitten unsauber werden können. Genau das ist nun in einer VR-Umgebung wie Cloud Modelling besonders gut möglich. Wir können hier mathematisch komplexe Nurbs-Flächen in Echtzeit dreidimensional betrachten und intuitiv verändern. Das wäre an einem flachen Bildschirm derart nicht umsetzbar.

Reinfeld: Welche Vorteile bringt Cloud Modelling im Kontext der Fahrzeugproduktion zusätzlich? Du hast die ausgeprägte und sehr ausdifferenzierte Arbeitsteilung genannt.

Jantzen: Wie ich eingangs erwähnt habe, bestand neben der Absicht, die Dinge in VR direkt zu bearbeiten, von Beginn an der zweite, fast ebenso wichtige Wunsch, gemeinschaftlich in VR arbeiten und diskutieren zu können. Hierdurch haben wir in gewisser Weise gleich mit zwei Traditionen des Automobildesigns gebrochen: Es ist in CM nicht nur möglich, komplexe Flächen intuitiv und einfach zu erstellen und zu bearbeiten; sondern es können sich mehrere Beteiligte über die Qualität der Ergebnisse unmittelbar austauschen oder selbst eingreifen und Änderungen vornehmen. Die Motor- oder Getriebeentwickler:innen sind in der Lage in VR direkt zu erkennen, ob ihre Planungen in den Motorraum eines Fahrzeugentwurfs hineinpassen, und die Gestalter:innen können unmittelbar sehen und mit den beteiligten Fachingenieuren besprechen, welche Auswirkungen es für das Design hätte, wenn ein Batterie-Pack mehr oder weniger eingebaut würde. Solche Fragen, auch über Abteilungsgrenzen hinweg, sind plötzlich offen und dynamisch verhandelbar und nicht mehr in den Kommunikationsumgebungen der einzelnen Abteilungen eingeschlossen. Das ist wie bei einem Flurgespräch unter Kolleg:innen, das oftmals produktiver ist als eine Teamsitzung. Entscheidungen, die normalerweise Tage oder Wochen dauern, fallen plötzlich in Minuten, weil alle alles gleichzeitig sehen, bewerten und im Prinzip auch ändern können: „Diese Stelle muss anders!“ – Punkt etwas runter – „So?“ – „Ja genau!“

Reinfeld: Deinen Berichten zufolge war besonders die Zusammenarbeit zwischen Designer:in und dem sogenannten Clay Modeller, der normalerweise die Eins-zu-eins-Modelle von Fahrzeugentwürfen herstellt, in der virtuellen Arbeitsumgebung von Cloud Modelling sehr produktiv.

Jantzen: Der Modellbauer ist es gewohnt, in körperlicher Dynamik an Eins-zu-eins-Objekten im Raum zu arbeiten. Das ist eine sehr haptische und handwerkliche Arbeit im wahrsten Sinne des Wortes.

Reinfeld: Man könnte denken, dass VR doch das komplette Gegenteil davon ist, also keine Haptik, keine physischen Dinge.

Jantzen: Bis auf das Haptische ist es genau das Gleiche. Wie mit einer Dachlatte, die man im Baumarkt kauft, und die der Länge nach vors Auge gehalten wird um bewerten zu können, ob sie gerade ist. Dabei geht es nicht um die Haptik des Holzes, sondern um die körperlich-intuitive Geste, eine Entscheidung mittels visueller Kontrolle zu treffen. Genau das ist in VR möglich. Man kann die Qualität von Oberflächen, von Bögen und Kurven im Ansehen bewerten. Und das macht ein Modellbauer in Cloud Modelling besonders gekonnt und intuitiv.

Reinfeld: Das ist ein Beispiel für besonders gutes Gelingen der Designarbeit in VR. Aber es gab doch sicherlich auch Probleme und Überforderung bei Anwender:innen, die erstmals in dieser Umgebung konstruieren und entwerfen sollten.

Jantzen: Ja, auf jeden Fall. Wir erleben auch viel Skepsis gegenüber dem Arbeiten in dieser virtuellen Designumgebung. Wir sehen uns mit Missverständnissen konfrontiert, die aus den Routinen des Arbeitens am Monitor herrühren, z.B. mit der häufig gestellten Frage, mit welchem Werkzeug das Objekt rotiert werden kann. Wenn ich dann antworte, „Sie müssen das Objekt nicht drehen, Sie können einfach darum herumlaufen“, führt das manchmal zu unwilligem Staunen. Oder die für mich anfangs irritierende Frage nach der Maßstäblichkeit in einer offensichtlich eins zu eins angelegten Designumgebung. Oder die fragende Feststellung, dass alle Linien schief sind, weil spontan nicht verstanden wird, dass es sich um einen dynamisch-perspektivischen Raum handelt und nicht um orthogonale oder parallele Bildschirmprojektionen des 3D-Modells.

Reinfeld: Da zeigt sich die tiefe Verwurzelung dieser berufsbedingt erlernten Abstraktionsmethoden des zweidimensionalen Umgangs mit dreidimensionalen Sachverhalten, die eben auch Einschränkungen im Denken und Tun nach sich ziehen.

Jantzen: Ich bewundere deine akademische Präzision und Ausdauer, mit der du diese Themen verfolgst, aber für mich war das damals einfach sehr hinderlich und anstrengend. Ich hätte jemanden wie dich gebraucht, um über diese Beobachtungen und Probleme sprechen zu können und um zu verstehen, warum einige Leute teilweise schwer damit zurechtkommen. Gleichzeitig sind das natürlich Umstände und Aspekte, auf die in der weiteren Entwicklung eines solchen Programms eingegangen werden muss. Wir haben dann z.B. die Möglichkeit eingeführt, unterschiedliche Maßstäbe anzeigen zu können.

Reinfeld: Aber ist das nicht verrückt? Du redest ja nicht über Personen, die vorher nie etwas mit CAD zu tun hatten. Es geht hier nicht um die Neuerfindung des 3D-Raums im Digitalen. Dieser ist alles andere als fremd, er ist seit mindesten zwanzig Jahren Arbeits- und Entwurfsraum von Architekt:innen und Designer:innen. Aber das Novum, ihn körperlich betreten zu können und nicht mit Maus, Tastatur und Monitor an Bildern zu arbeiten, ist offenbar eine wirklich kategoriale Änderung, auch wenn es so naheliegend und einfach klingt.

Jantzen: Der CAD-Raum mit seinen verschiedenen Programmen bedingt eine gewisse Arbeits-Choreographie. Die Softwareentwickler geben mit der Programmarchitektur und den zur Verfügung gestellten Arbeitswerkzeugen zu einem beträchtlichen Teil vor, wie entworfen wird – das wird häufig noch immer zu wenig reflektiert. Speziell bei CAD kommt, wie du schon sagst, hinzu, dass der Monitor als flache Vermittlungsebene des 3D-Raums die eigentliche Räumlichkeit der Arbeitsumgebung fast vollständig unterdrückt, obwohl mathematisch gesehen der VR- und der klassische CAD-Arbeitsraum das gleiche sind. Aber diese Bildschirmlogik hat unter anderem zu der fast immer vorhandenen Festlegung geführt, dass Dinge in CAD nur rechtwinklig zur Sichtachse oder der sogenannten Konstruktionsebene bewegt werden können.

Reinfeld: Diese Gewohnheit geht natürlich auch auf die vordigitale Zeit zurück, in der auf Papier gearbeitet wurde, und in der der zugehörige Raum nur im Kopf der Entwerfer:innen vorhanden war. Wobei ich sagen muss, dass die Vorstellungskraft des 3D-Raums durch das Arbeiten mit VR bei mir einen unglaublichen Schub erhalten hat. Die Grenzen des Raum-Imaginierens, die ich bis dahin noch manchmal als ein Defizit erfahren habe, sind durch das Arbeiten im virtuellen 3D-Raum, wo ich Dinge intuitiv anfassen, bewegen und verändern kann, fast völlig aufgelöst.

Jantzen: Ich habe auch mit klassischer CAD schon immer in der Perspektivansicht gearbeitet. Viele machen das ja eher in den orthogonalen Projektionsansichten. Wie eingangs erläutert, war das früher mangels Grafikleistung der Computer nicht möglich, weil es mathematisch aufwendig ist, eine dynamische Perspektivansicht zu berechnen. Aber deshalb befreit die heutige Rechnerkapazität und vor allem die Verwendung von 3D-Entwurfsumgebungen in VR von dieser einschränkenden Notwendigkeit, sich 2D-Artefakte in 3D vorstellen zu müssen. Das ist insbesondere auch in Bezug auf die Kommunikation mit Nicht-Fachleuten ein großer Vorteil.

Reinfeld: Wenn ich mit Studierenden Entwurfsaufgaben mit VR umsetze, dann gilt fast immer die Vorgabe, dass ausschließlich innerhalb des digitalen 3D-Raums der VR gezeichnet und modelliert werden darf und nicht mit Abstand vor einem Monitor. Am Ende lasse ich dann aber die erstellten Arbeiten bewusst wieder in klassische architektonische Darstellungsformen überführen, also in Ansichten, Grundrisse und Schnitte. Wenn Personen, die nicht an der Projektarbeit beteiligt waren oder sich gar weigern, eine VR-Brille überhaupt aufzusetzen (weil sie meinen, die Projekte auch in der 2D-Übertragung eines Kontrollmonitors verstehen zu können), die Ergebnisse des Entwurfs dann z.B. in einer Grundriss-Projektion sehen, verstehen sie erst, wie anders und ungewohnt der in VR entworfene Raum auch strukturell geworden ist. In den klassischen Darstellungsformen wird der Effekt der geänderten Entwurfsmethode auf die Ergebnisse des Entwerfens besonders sichtbar.

Jantzen: Ich verstehe absolut was du meinst. Das Arbeiten im 3D-Raum gibt auch unheimlich Kapazitäten im Kopf frei, weil ich keine Gedanken verschwenden muss auf die Transferleistung ins Räumliche, weil ich alles dreidimensional vor mir sehe. So kann ich mich vollkommen auf die Gestaltungsfragen konzentrieren und schneller den nächsten Schritt tun oder etwas Neues ausprobieren. Das hat sich übrigens auch beim Konzipieren und Umsetzen der Arbeitstools von Cloud Modelling gezeigt. Viele logisch erdachte Werkzeuge stellten sich bei der Anwendung in VR als ungeeignet heraus. Wir haben dann viel mehr und direkter alles in VR ausprobiert und durchgespielt, um dort die Entscheidungen zu treffen, meistens zugunsten viel einfacherer Lösungen, als wir sie aus den klassischen CAD-Anwendungen kennen.

Reinfeld: Häufig wird in Zusammenhang mit VR-Gestaltung von ‚Erfahrungen‘ gesprochen. Cloud Modelling ist aber ja vorrangig entwickelt worden, um darin Artefakte zu designen und zu konstruieren, die später physische Realität werden. Doch auch hier ist die (Entwurfs-)Realität selbst bereits eine Form von immersiver Erfahrung, die in ihren körperlichen und mentalen Auswirkungen die Intensität des Arbeitens vor einem Bildschirm weit übertrifft. Gleichzeitig wird unsere Realität in unterschiedlichsten Bereichen zunehmend um virtuelle Anteile erweitert. Sei es in virtuellen Spielewelten oder bei virtuellen Zusammenkünften, die längst nicht mehr nur via Monitor erfolgen, sondern auch in VR-Meetingräumen stattfinden. Liegt in solchen virtuellen Umgebungen nicht das eigentliche, genuine Anwendungsfeld von VR-Entwurfsumgebungen, weil hier keine Widerständigkeit gegenüber fortlaufender entwurflicher Veränderung mehr besteht? Es entfällt die dem Entwurfsprozess eigentlich widerstrebende Notwendigkeit, einen finalen Zustand zu erreichen, den die physische Materialisierung erzwingt.

Jantzen: Man muss heute tatsächlich keine Science-Fiction-Romane mehr lesen um solche Ansätze zu sehen. Mindestens im Stadium von Mockups existieren genügend Beispiele, in denen diese virtuellen Erweiterungen des Lebensraums bereits erprobt werden. Auch wenn dabei viele technische Fragen noch nicht gelöst sind, bin ich überzeugt, dass die Art unseres Zusammenarbeitens sich vollkommen ändern wird. Tendenziell wird hierbei die AR-Technik die Oberhand gewinnen, sobald sie von der Leistung und der Bildqualität her ein anderes Niveau erreicht hat. Es wird sich dann eine starke Überlagerung von virtueller und realer Welt einstellen. Allerdings ist es schwer, sich diese Art des Kommunizierens und Arbeitens vorab vorzustellen. Wie bei den Smartphones, deren ganzes Potenzial sich erst durch ihre massenhafte Anwendung wirklich zeigte, werden wir erst dann sehen was folgt, sobald wir unsere Handys zur Seite gelegt haben – weil wir sie nicht mehr benötigen, wenn wir mittels AR und VR viel intuitiver und raumgebundener kommunizieren können.

Reinfeld: Ich denke, es wird nicht auf reine AR im Sinne einer Überlagerung bzw. Anreicherung der Realität mit virtuellen Informationen hinauslaufen, sondern es wird auch ‚Türen‘ geben in vollkommen virtuelle Bereiche, die den Zutritt in gänzlich andere, von der physischen Realität unabhängige Welten öffnen.

Jantzen: Das meinte ich mit der bislang fehlenden technischen Qualität von AR-Brillen. Wenn diese zusätzlich vollkommen virtuelle Bildräume darstellen können, wie es gegenwärtig nur reine VR-Brillen bieten, dann wird es genau diese Überlagerung zwischen virtuellen und physischen Räumen geben, mit gleitenden Übergängen zwischen beiden Welten.

Reinfeld: Siehst du in diesen Themen eine mögliche Aufgabe für dich als Entwickler? Also VR-Umgebungen nicht bloß im Entwurfsprozess künftiger Produkte zu nutzen, wie es in Cloud Modelling gegeben ist, sondern auch Fragen der Produktion von Virtualität selbst zu adressieren?

Jantzen: Das hieße in gewisser Weise, Spiele- und Bauindustrie zusammenzubringen. Ich bin ziemlich sicher, dass so etwas kommen wird. Spannend daran wäre für mich wiederum die Programmierfrage, also wie so ein Ansatz technisch überhaupt umsetzbar wäre.

Reinfeld: Spätestens seit Facebook-Gründer Marc Zuckerberg unter dem Stichwort Metaverse eine virtuell erweiterte Lebens- und Arbeitswelt in Aussicht stellt, sehe ich die Notwendigkeit, dass sich auch Architekt:innen Fragen der Konzeption und Gestaltung dieser virtuellen Lebensräume ernsthaft annehmen sollten.

Jantzen: Microsoft, Meta, Google und Apple wollen den Massenmarkt erreichen und deshalb kommen ziemlich unspezifische Umwelten, wie es früher Second Life einmal war, heraus, wenn hier virtuelle Welten aufgesetzt werden. Je spezialisierter die Anwendungsfelder aber werden, desto größer werden die Anforderungen an virtuelle Umgebungen. Gleichzeitig wird der Markt dafür radikal kleiner, was ein Entwicklungshemmnis darstellt. Das führt zu technisch hochkomplexen virtuellen Umgebungen, die am Ende nur wenige Leute benutzen können bzw. wollen. Das ist auch der Grund weshalb ich der Meinung bin, dass die einzelnen Disziplinen selbst aufgefordert sind, in die Entwicklung jeweils passender virtueller Arbeitsumgebungen einzutreten. Da gibt es in vielen Branchen einen großen Nachholbedarf. Denn diese global agierenden Digitalfirmen werden mit aller Wahrscheinlichkeit am Ende vor allem virtuelle Marktplätze für ihre Produkte und Anwendungen hervorbringen, auf denen sie zusätzlich einen stärker individualisierten Werbemarkt erschließen können. Das macht mir auch ein mulmiges Gefühl, weil eben klar ist, wie hier die Interessen gelagert sind.

Reinfeld: Ein Plädoyer dafür, die Frage nach der Ausrichtung virtueller Welten nicht allein den Global Playern wie Apple oder Meta zu überlassen, sondern sich selbst im Kleinen aktiv an der Ausgestaltung und Spezifizierung dieser Umgebungen zu beteiligen?

Jantzen: Ja, und aus diesem Grund muss die Entwurfskompetenz von Architekt:innen in Zukunft darüber hinausgehen, ästhetische, bauliche und betriebliche Kenntnisse zu besitzen, sondern die Werkzeuge ihres Handelns, welche immer mehr digitale sein werden, auch auf einer tieferen Ebene zu verstehen, um so deren Evolution mitbestimmen zu können. Das ist ein Grundthema der Digitalisierung: nicht, dass jede:r programmieren können muss, aber das sich jede:r ein tiefgreifendes Verständnis für digitale Prozesse aneignet. Erst mit einem gewissen Grundverständnis kann dann mit diesen Techniken und Methoden spielerisch umgegangen und so ihr Potenzial ausgeschöpft werden. Auch, um sich aus dem Korsett der Softwareindustrie zumindest ein Stück weit zu befreien.

Reinfeld: Das ist für mich vor allem ein Plädoyer, die nötigen Grundkenntnisse für eine derartige Expertise noch viel weitreichender in der Ausbildung von Architekt:innen zu verankern. Vielen Dank für die äußerst interessanten Einblicke und Anregungen.

  • Collapse
  • Expand