Im Rahmen dieser Arbeit wurde eine Demonstrator-Infrastructur entwickelt, welches als
Konzeptachweises den Prozess eines «Firmware updadates over the air» in einem LoRaWAN
Netzwerk an mehrere «Nodes» gleichzeitig aufzeigen kann. Neben einer selbst entwickelten
Hardware, die jene Nodes im Feld simuliert, und einem FirmwareOverTheAirUpdate-server (FUOTA),
wurde ein Protokoll erarbeitet, das mit Hilfe von vordefinierten Spezifikationen der LoRa-Alliance
ermöglicht, Firmware Patches parallel an eine Gruppe von Nodes zu senden. Ein speziell entwickelter
Bootloader kann diesen Patch dann mit der aktuellen Firmware zu einer neuen Firmwareversion
zusammenführen. Der schlussendlich entwickelte Demonstrator umfasst einen FUOTA-server,
LoRaWAN Netzwerkserver, Gateway und eine LoRaWAN node. Der Demonstrator ist einer der ersten
kompletten Beispielimplementierung des Konzepts «Firmware update over the air» in einem
LoRaWAN Netzwerk und kann für zukünftige Entwicklungen und Recherchen als Anleitung dienen.
In the scope of this thesis, a demonstrator infrastructure was developed as a proof-of-concept, which
can demonstrate the process of a firmware update over the air in a LoRaWAN network to several
nodes simultaneously. Besides a self-developed hardware, which simulates the nodes in the field and
a FirmwareOverTheAirUpdate-server (FUOTA), a protocol was developed that allows to send firmware
patches in parallel to a group of nodes using predefined specifications of the LoRa-Alliance. A
specially developed bootloader can then merge these patches with the current firmware to create a
new firmware version. The final version of the developed demonstrator includes a FUOTA server,
LoRaWAN network server, gateway and a LoRaWAN node. The demonstrator is one of the first
complete example implementations of the concept of firmware update over the air in a LoRaWAN
network and can serve as a basis for future developments and research.
Adsorptionsprozesse gehören zu den wichtigsten verfahrenstechnischen Methoden für die großindustrielle
Gastrennung und -reinigung. Jüngste Entwicklungen in der Trenntechnik haben neue Verfahrenskonzepte
und neue Adsorbentien hervorgebracht, die attraktive Eigenschaften hinsichtlich Energiebedarf, Durchsatz,
Regeneration des Adsorbens und Reinheit des Produkts bieten. Für optimal ausgelegte Adsorptionsprozesse
werden zunehmend mathematisch-physikalische Modelle und Simulationssoftware eingesetzt. Im Rahmen
dieser Masterarbeit wurde eine auf Open Source basierte Anwendung für die Auslegung, Simulation und
Analyse von Mehrkomponenten-Gasadsorptionsprozessen in Festbettkolonnen entwickelt. Das speziell
entwickelte Adsorptionsmodell wurde anhand eines gemessenen Referenzfalles für die Abtrennung von CO2
und N2 aus He an Aktivkohle erfolgreich validiert. Das Modell kombiniert Massen-, Energie- und Impulsbilanzen
mit einem linear-driving-force Ansatz für den Stoff- und Wärmetransport. Die Gleichgewichtsbeladungen
wurden mit der erweiterten Langmuir-Gleichung modelliert und die beladungsabhängigen
Adsorptionsenthalpien mittels der isosteren Methode berechnet. Basierend auf einem erstellten Konzept
wurde die Anwendersoftware mit grafischen Benutzeroberflächen in Python implementiert. Der derzeitige
Funktionsumfang der Software erlaubt im Wesentlichen die Eingabe aller definierten Parameter und Messdaten,
die Modellierung von Adsorptionsgleichgewichten, die Simulationsdurchführung des entworfenen
Adsorptionsprozesses sowie die grafische Auswertung der Simulationsergebnisse anhand von Massentransferzonen
und Durchbruchskurven.
Adsorption processes are among the most important process engineering methods for large scale gas
separation and purification tasks in industry. Recent developments in separation technology have included
new process designs and new adsorbents which offer attractive characteristics regarding energy demand,
throughput, regeneration of the adsorbent and purity of the product. For optimum designed adsorption
processes, mathematical-physical models and simulation software are increasingly used. Within this master
thesis, an open-source based application was developed for the design, simulation and analysis of multicomponent
gas adsorption processes in fixed bed columns. The specially developed adsorption model was
successfully validated using a measured reference case for the separation of CO2 and N2 from He on activated
carbon. The model combines mass, energy and momentum balances with a linear driving force approach for
mass and heat transport. The equilibrium loadings are modelled with the extended Langmuir equation and the
loading dependent enthalpies of adsorption are calculated via the isosteric method. Based on a created
concept, the user software with graphical user interfaces was implemented in Python. The current functional
framework of the software basically allows the input of all defined parameters and measurement data, the
modelling of adsorption equilibria, the simulation execution of designed adsorption process as well as the
graphical evaluation of simulation results based on mass transfer zones and breakthrough curves.
Bildverarbeitungs-Applikationen mit Machine-Learning und neuronalen Netzwerken sind sehr rechenintensiv
und verbrauchen viel Energie sowie Bandbreite, wenn die Daten an einen zentralen Server übermittelt
werden.
Neue ARM Cortex M7 Microcontroller sind in der Lage diese anspruchsvollen Applikationen auszuführen.
Es gibt für die STM32H7 Controller von STMicroelectronics das Open Source Bildverarbeitungsframework
OpenMV. Bildverarbeitung auf Microcontroller-Basis ermöglichen kleine, energiesparend Edge-Computing-
Device. Da die Bildverarbeitung direkt im Controller «on-the-Edge» durchgeführt wird, werden keine
sensitiven Daten übertragen. Dies führt zu weniger Privacy-Bedenken und Bandbreitenvorteilen.
Die neue Microcontrollerfamilie i.MX RT von NXP mit ARM Cortex M7 Core ermöglicht Clockfrequenzen
bis 1GHz. Um die i.MX RT Controller zu evaluieren wurde OpenMV portiert. Es wurden Performance und
Energiemessungen durchgeführt, die komplexe Speicherarchitektur wurde analysiert und es wurden
Vergleiche zu OpenMV auf dem STM32H7 gezogen. Da OpenMV auf MicroPython basiert, wurde dieses,
unter Verwendung der NXP SDK, für die i.MX RT Familie portiert. Die Software wurde in einer Linux
Umgebung mit VisualStudio Code und GCC Compiler entwickelt. Für die Entwicklungs-Plattform (Seeed-
Arch-Mix Board mit i.MX RT1052) wurde ein PCB designt um verschiedene Hardware-Erweiterungen
anzuschliessen (Kameras, LCD, Servos und Erweiterungsheaders).
Es wurde ein vollständiger OpenMV Port für den i.MX RT1052 erstellt. Verschiedene Kameras werden
unterstützt, so können auch Thermobilder mit einer FLIR Lepton Kamera ausgewertet werden. OpenMV auf
dem i.MX RT1052 verbraucht 0.5W und hat eine vergleichbare Performance wie auf dem STM32H7. Die
Geschwindigkeit von OpenMV auf dem i.MX RT1052 wird durch die externe Anbindung des Flashmemorys
negativ beeinflusst, da die L1 Caches des i.MX RT1052 in dieser Anwendung nicht ausreichen, um die
Flashzugriffe zu buffern. Die entwickelte Hard- und Software ermöglicht eine vollumfängliche OpenMV
Plattform auf der Basis des i.MX RT1052 und kann als alternative zu STM32H7-OpenMV für
weiterführende Arbeiten eingesetzt werden.
Image processing applications with machine learning and neural networks are very computationally intensive
and consume a lot of energy and bandwidth when the data is transferred to a central server.
New ARM Cortex M7 microcontrollers are capable of running these demanding applications. The open
source image processing framework OpenMV is available for the STM32H7 controllers from
STMicroelectronics. Microcontroller-based image processing enables small, energy-saving edge computing
devices. Since image processing is performed "on-the-edge" directly in the controller, no sensitive data is
transmitted. This leads to less privacy concerns and bandwidth advantages.
The new microcontroller family i.MX RT by NXP with ARM Cortex M7 Core allows clock frequencies up to
1GHz. To evaluate the i.MX RT controllers OpenMV was ported. Performance and power measurements
were performed, the complex memory architecture was analyzed and comparisons were made to OpenMV on
the STM32H7. Since OpenMV is based on MicroPython, it was ported to the i.MX RT family using the NXP
SDK. The software was developed in a Linux environment with VisualStudio code and GCC compiler. For
the development platform (Seeed-Arch-Mix Board with i.MX RT1052) a PCB was designed to connect
various hardware extensions (cameras, LCD, servos and extension headers).
A complete OpenMV port for the i.MX RT1052 was created. Different cameras are supported, even thermal
images can be evaluated with a FLIR lepton camera. OpenMV on the i.MX RT1052 consumes 0.5W and has
a performance comparable to the STM32H7. The speed of OpenMV on the i.MX RT1052 is negatively
affected by the external connection of the flash memory, as the L1 caches of the i.MX RT1052 are not
sufficient to buffer the flash accesses in this application. The developed hardware and software enable a
comprehensive OpenMV platform based on the i.MX RT1052 and can be used as an alternative to
STM32H7-OpenMV for further work.
Das Ziel dieser Masterarbeit ist es, ein aktuelles YOLO V5 Model zu trainieren, um Personnen in
omnidirektionalen Bildern zu erkennen. Um die Genaugkeit des Models in realen Anwendunsfällen zu
verbessern, verwenden wir Transfer Learning und trainieren bestimmte Schichten des Modells mit
einer sorgfältig ausgewählten Mischung aus synthetischen und realen Bilddaten.
Wir zeigen, dass dieser Ansatz das Problem des „Catastrophic Interference“ entschärft und die
„Domain Gap“ zwischen synthetischen und realen Daten überbrückt, was zu einer signfikanten
Leistungsverbesserung gegenüber dem vortrainierten YOLO V5 führt.
The goal of the Thesis was to train a state-of-the-art YOLO V5 model to detect persons in
omnidirectional image frames. To improve model accuracy in real use cases, we use transfer learning
and train certain layers of the model on a carefully selected mixture of synthetic and real images
data.
We show that this approach mitigates the problem of catastrophic interference and bridges the
domain gap between synthetic and real world data, resulting in a significant performance
improvement over the pre-trained YOLO V5.
Das Ziel dieser Arbeit ist, ein neuer Deckenaufbau zu entwickeln, welcher bezüglich der Nachhaltigkeit besser ist als der konventionelle Deckenaufbau. Der neue Deckenaufbau wird bei einem Referenzobjekt angewendet, um die Dimensionen gemäss der Projektstufe Bauprojekt zu bestimmen. Zusätzlich wird für das Referenzobjekt der Abtrag von horizontaler Einwirkung konzeptionell gelöst. Das betrachtete Gebäude ist mit der Nutzungskategorie C3 gemäss der SIA-Norm 261 [1] definiert.
Der neue Deckenaufbau sieht vor, dass der Unterlagsboden statisch mitwirkt und nicht wie bei der konventionellen Decke nur als Auflast eingerechnet wird. Im Gegensatz zum konventionellen Deckenaufbau sollen im neuen die Leitungen nicht in der Stahlbetondecken verlegt werde, sondern im Unterlagsboden. Durch die Mitwirkung des Unterlagsbodens kann die bisherige Dicke der Stahlbetondecke reduziert werden und somit Baumaterialien gespart werden. Eine Mitwirkung des Unterlagsboden bedingt eine Verbindung zwischen der Stahlbetondecke und des Betons vom Unterlagsboden (Unterlagsbeton). Durch die Verbindung kann die Decke als gekoppelter Biegeträger betrachtet werden. Der Unterlagsbeton soll aus vorfabrizierten Elementen hergestellt werden, damit diese bei Umbauten entfernt werden können und falls erwünscht die Leitungen ersetz werden können.
Die Verbindung zwischen der Stahlbetondecke und dem Unterlagsbeton (Kopplungsträger) sind schrittweise ermittelt worden. Die Differentialgleichung des Systems ergab erst Erkenntnisse der Wirkung vom System, welche dann mit zweidimensionalen Berechnungen verifiziert worden sind. Die Dimensionen der einzelnen Bauteile sind mit den Auswirkungen einer dreidimensionalen Berechnung ermittelt. Beim Kopplungsträger sind zwei Varianten untersucht worden. Die erste Variante sieht eine Stahlverbindung vor und die zweite eine Stahlbetonverbindung. Für die Dimensionierung sind die verschiedenen Bauphasen (Bauzeit, Endzustand und Umbau) in Betracht gezogen worden.
Wenn nur die statisch wirkenden Bauteile in der Nachhaltigkeitsberechnung miteinbezogen werden, dann ist der neue Deckenaufbau nicht nachhaltiger. Wenn die Dämmung in die Betrachtung einfliesst, kann der neue Deckaufbau nachhaltiger sein als der konventionelle Deckenaufbau.
Das neue Deckensystem kann je nach Kriterien eines Projektes ein guter Lösungsansatz sein. Damit dieser umgesetzt werden kann, müsste aufbauend auf dieser Arbeit eine Detailbemessung erfolgen und falls möglich sollten Versuche mit dem neuen Deckenaufbau durchgeführt werden. Der Deckenaufbau muss noch durch einen Bauphysiker kontrolliert und bearbeitet werden, damit die bauphysikalischen Werte im Vergleich zum konventionellen Deckenaufbau nicht verschlechtert werden.
Mehr als die Hälfte des Endenergieverbrauchs in der Schweizer Industrie wird für Prozesswärme verwendet.
Zudem werden viele industrielle Prozesse nicht kontinuierlich betrieben, was zu zusätzlichen Komplikationen
für die Ausschöpfung von Energieeinsparpotenzialen in diesem Sektor führt. Wärmepumpen werden national
und international als eine Schlüsseltechnologie zur Steigerung der Energieeffizienz von Industrieprozessen
gesehen. Die Integration von Wärmepumpen zusammen mit thermischen Energiespeichern ermöglicht die
Ausschöpfung des Energieeinsparpotenzials in nicht kontinuierlichen Prozessen mittels
Wärmerückgewinnung. Diese Integration bringt jedoch neue Herausforderungen hinsichtlich der Regelung des
Systems mit sich, da durch die Kopplung mehrerer Prozessströme neue Abhängigkeiten entstehen. Die
Prozessströme unterliegen dabei Schwankungen hinsichtlich ihres Zeitplans und des Heiz- bzw. Kühlbedarfs.
Diese Arbeit untersucht das Mehrgrössen-Regelungsproblem von Wärmepumpen in Verbindung mit
Schichtspeichern zur Wärmerückgewinnung in Industrieprozessen. Es wird ein dynamisches Modell des
Systems beschrieben, das die Evaluierung der Regelstrategie ermöglicht. Darüber hinaus wird das
Regelungsproblem analysiert und eine Regelungsstrategie vorgeschlagen, die aus einer zweistufigen
Regelungshierarchie besteht. Die beiden Ebenen trennen die übergeordnete Energieverwaltungsaufgabe und
die untergeordnete Echtzeit-Regelung. Die Regelungsstrategie wird anschliessend durch verschiedene
Variationen eines Fallbeispiels evaluiert. Die Echtzeitregelung wird mit Standard-Industriereglern (z.B. PID)
realisiert. Für die Energiemanagementaufgabe wird ein prädiktiver Regler (MPC) entwickelt. Dieser
ermöglicht den Einsatz der Wärmepumpe zu maximieren und gleichzeitig die Funktionsfähigkeit des Systems
durch den minimalen Einsatz von externen Utility sicherzustellen. Der prädiktive Regler nutzt die Vorhersage
von Störungen des Speichersystems, welche aus dem Produktionsplan bekannt sind. Die Verwendung einer
ein/aus-geregelten Wärmepumpe, welche vom prädiktiven Regler angesteuert wird, führt zu einem gemischtganzzahligen
quadratischen Optimierungsproblem (MIQP). Die mit dem Testfall durchgeführte
Simulationsstudie beweist die Funktionsfähigkeit der kombinierten Regelstrategie mit den Low- und High-
Level-Reglern für alle vier Variationen. Es wird gezeigt, dass der MPC in der Lage ist, unbekannte Störungen
durch die Planung der optimalen Steuergrössen, die zur Aufrechterhaltung des Systembetriebs erforderlich
sind, auszuregeln.
More than half of the end-energy consumption in the swiss industrial sector is used for process heat.
Furthermore, many industrial processes are not operated continuously which implies additional complications
for the exploitation of energy saving potentials in the sector. Heat pumps are nationally and internationally
identified as a key technology for the increase of the energy efficiency of industrial process. Integration of heat
pumps together with thermal energy storage systems allows for the exploitation of the saving potential in noncontinuous
processes through heat recovery. However, this integration implies new challenges regarding the
control of the system as there are new dependencies occurring through the coupling of multiple process streams.
The process streams are thereby subject to fluctuations in terms of their schedule and heat load. This work
investigates the multivariable control problem of heat pumps coupled to stratified thermal energy storages for
the heat recovery in industrial processes. A dynamic model of the system allowing for the evaluation of the
control strategy is described. Furthermore, the control problem is analyzed and a control strategy consisting of
a two level control hierarchy is proposed. The two levels separate the high-level energy management task and
the low-level real-time control task. The control strategy is subsequently evaluated through different variations
of a test case which demonstrates the performance of the strategy. The low-level task can be handled with
distributed industry standard controllers (e.g. PID). For the high-level task, model predictive control (MPC) is
applied to maximize the heat recovery through the use of the heat pump, while ensuring the operability of the
system through the minimal use of external utility. The MPC includes the prediction of disturbances known
from the production schedule and the handling of an on/off controlled heat pump, leading to a mixed integer
quadratic optimization problem (MIQP). The simulation study performed with the test case proves operability
of the combined control strategy with the low- and high-level controllers for all four cases. It is shown that the
MPC is able to reject unknown disturbances through planning of the optimal inputs necessary to maintain the
system operational.
Die vorliegende Masterthesis befasst sich mit modernen Methoden der Erdbebenbemessung
von Hochbauten. Für die Bemessung wird ein Referenzgebäude
gewählt, welches mit einem Untergeschoss, einem Erdgeschoss, vier Obergeschossen
und je sechsWohnungen pro Geschoss einem gewöhnlichen Hochbau
entspricht. Für den gewählten Standort existiert eine öffentliche spektrale Mikrozonierungsstudie,
die für die Bestimmung der Erdbebeneinwirkung verwendet wird.
Das Tragwerkskonzept sowie die Tragwerksanalyse werden nach den heutigen
Normen der SIA 260 ff. erstellt. Für die Erdbebenbemessung werden zwei Berechnungsmodelle
angewendet. Einerseits ein Plattenstapelmodell, welches im
Programm Cedrus-8 modelliert und danach mit dem Programm Statik-8 in ein
Stabmodell umgewandelt wird und andererseits Ersatzstabmodelle, welche das
Bauwerk als Mehr- oder Einmassenschwinger abbilden.
Die erste Erdbebenbemessung erfolgt nach dem Ersatzkraftverfahren. Zuerst
werden verschiedene moderne Methoden der Erdbebenbemessung vorgestellt
und die Grundlagen und Voraussetzungen behandelt. Danach wird das Ersatzkraftverfahren
am Referenzgebäude durchgeführt, gefolgt von der Kapazitätsbemessung
an einer ausgewählten Stahlbetontragwand. Die Bemessung ergibt eine
nach Kapazitätsbemessung korrekte konstruktive Durchbildung der ausgewählten
Stahlbetontragwand.
Die zweite Erdbebenbemessung baut mit der «Kapazitätsspektrum-Methode»
(Capacity Spectrum Method) auf der Kapazitätsbemessung auf. Die Pushover-
Kurve wird mit dem nichtlinearen Finite Element (nlFE) Programm IDEA StatiCa
Detail für die ausgewählte Stahlbetontragwand bestimmt, in eine Kapazitätskurve
umgewandelt und mit dem elastischen Bemessungsspektrum überlagert. Die
grafische Bemessung ergibt, dass der Nachweis der Standsicherheit erfüllt ist.
Um den Einfluss von Öffnungen in Erdbebenwänden auf das Verformungsverhalten
des Tragwerks unter Erdbebenbeanspruchung zu untersuchen, werden
der ausgewählten Stahlbetontragwand Öffnungen zugefügt und danach die Kapazitätsspektrum-
Methode durchgeführt. Es resultiert eine doppelt so grosse
Verformung der Stahlbetontragwand infolge Öffnungen.
This master thesis deals with modern methods of seismic design of buildings.
For the design, a reference building is chosen, which corresponds to an ordinary
building with a basement, a first floor, four upper floors and six apartments per
floor. A public spectral microzonation study exists for the selected site, which is
used to determine the earthquake action.
The structural concept as well as the structural analysis are prepared according
to the current standards of SIA 260 ff. Two calculation models are used for the
earthquake design. On the one hand, a plate stack model, which is modeled in the
program Cedrus-8 and then converted into a member model using the program
Statik-8, and on the other hand, equivalent member models, which represent the
structure as a multi- or single-mass oscillator.
The first seismic design is performed using the equivalent force method. First,
different modern methods of seismic design are presented, and the fundamentals
and prerequisites are discussed. Then, the equivalent force method is performed
on the reference building, followed by the capacity design on a selected reinforced
concrete bearing wall. The design results in a correct structural design of the
selected reinforced concrete bearing wall according to the capacity design.
The second seismic design builds on the capacity design using the «Capacity
Spectrum Method». The pushover curve is determined using the nonlinear finite
element (nlfe) program IDEA StatiCa Detail for the selected reinforced concrete
bearing wall, converted into a capacity curve, and superimposed with the elastic
design spectrum. The graphical design shows that the verification of stability is
fulfilled.
To investigate the influence of openings in earthquake walls on the deformation
behavior of the structure under earthquake loading, openings are added
to the selected reinforced concrete bearing wall and then the capacity spectrum
method is performed. The result is a double deformation of the reinforced concrete
bearing wall due to openings.
Der Markt hat eine Zunahme von Produkten mit Power-Profiling-Funktionalität erlebt, die es einfach
machen, den Stromverbrauch von Low-Power-Geräten zu debuggen und zu optimieren.
Diese Thesis analysierte die verfügbaren Lösungen auf dem Markt, evaluierte Features, identifizierte
unerfüllte Bedürfnisse und fehlende Funktionalitäten.
Die wichtigste Erkenntnis war, dass die meisten Profiling-Lösungen, die den Code-
Ausführungszustand mit Leistungsmessungen verknüpfen, dies mittels Single Wire Output (SWO)
tun, welches nicht auf allen Arm-Mikrocontroller-Architekturen verfügbar ist, insbesondere nicht auf
dem Cortex-M0(+), der häufig in Low-Power-Anwendungen verwendet wird.
Um diese Lücke zu schließen, wurde ein Proof of Concept entwickelt, das elementares Power-Profiling
implementiert und den Ausführungszustand des Codes mit Strommessungen verknüpft. Die Lösung
nutzt den Debug Access Port (DAP), der auf allen Cortex-M-Cores verfügbar ist und über die
standardmäßige Single Wire Debug (SWD) Verbindung zugänglich ist. Das bedeutet, dass die Lösung
mit jedem System kompatibel sein sollte, das einen Cortex-M-Kern, Debug-Funktionalität über SWD
und eine zugängliche Stromversorgung implementiert.
The market has seen a rise in products with power profiling functionality, which makes it easy to
debug and optimize power usage of low-power devices.
This thesis analyzed the available solutions on the market, evaluating their features, identifying
unmet needs and missing functionality.
The key finding was that most profiling solutions that link execution state to power measurement do
so using Single Wire Output (SWO). SWO is not available on all Arm microcontroller architectures,
particularly the Cortex-M0(+), commonly used in low power applications.
To address this gap, a proof of concept was developed implementing elementary power profiling,
linking the code's execution state to a power measurement. The solution utilizes the Debug Access
Port (DAP) available on all Cortex-M cores and is accessed over the standard Single Wire Debug
(SWD) link. This means that the solution should be compatible with any system implementing a
Cortex-M core, debug functionality through SWD, and an accessible power input.
In der Strömungsmechanik gibt viele Problemstellungen, bei denen verschiedene Fluide
vorkommen. Bei Mehrphasenströmungen weist das Fluid mehrere Phasen auf oder es kommt
zu einem Phasenwechsel. Bei Multikomponentenströmungen setzt sich das Fluid aus
verschiedenen Fluiden zusammen, die unterschiedliche Stoffeigenschaften haben, wobei die
einzelnen Fluide zusätzlich noch mehrere Phasen aufweisen können. In dieser Arbeit wird ein
multikomponenten Modell erarbeitet, welches die Modellierung nicht mischbarer Strömungen
ermöglicht, wie sie zum Beispiel in Spray Anwendungen zu finden sind. Das Modell basiert auf
der Lattice Boltzmann Methode (LBM), welche ihren Ursprung in der molekular Kinetik hat und
1940 erstmals von Stanislaw Ulam und John von Neumann publiziert wurde. Im Gegensatz zu
herkömmlichen Computational Fluid Dynamics (CFD), welche die makroskopischen
Bilanzgleichungen direkt lösen, behilft sich die LBM an der Boltzmann Gleichung. Die Lösung
kann verwendet werden um die makroskopischen Feldgrössen wie Geschwindigkeit, Dichte
und Druck zu berechnen. Die LBM hat in den letzten zwei Jahrzehnten massiv an Popularität
gewonnen und ist immer noch ein sehr aktives Forschungsgebiet. Verschiedene Multiphasenund
Multikomponentenmodelle existieren heute und kämpfen um die Vorherrschaft.
Das in dieser Arbeit entwickelte Modell basiert auf einem bereits bekannten
Multikomponentenmodell von Rothmann-Keller (RK), welches 1988 erstmals publiziert wurde.
Das RK Modell wurde im Laufe der Jahre weiterentwickelt und hat entscheidende Vorteile:
zum Beispiel ein scharfes Interface zwischen den Komponenten und die Kontrolle der
Oberflächenspannung mittels einem Parameter. Es existieren zudem verschiedene Ansätze
für Simulationen mit variablen Dichten. Da Allgemein bekannt ist, dass LB Simulationen
instabil sind, wenn die Strömung turbulent wird, gibt es verschiedene Möglichkeiten die
Simulation zu stabilisieren. Da eine Erhöhung der Auflösung des Domains oft aufgrund der
limitierten Rechenkapazität nicht in Frage kommt, behilft man sich mit sogenannten Multi-
Relaxation-Time (MRT) Modellen. Diese erlauben es die verschiedenen Moments unabhängig
voneinander zu entspannen. Somit ist es möglich die LB Simulation zu stabilisieren, ohne die
Auflösung zu erhöhen. Die Schwierigkeit besteht oft darin, die richtigen Parameter zu
ermitteln. Das MRT von Karlin, Bösch und Chikatamarla (KBC) ermittelt diese Parameter
selbst.
Der Hauptteil dieser Arbeit ist die Kombination eines aktuellen RK mit dem KBC Modell, da
diese bis dato noch nicht erarbeitet wurde. Das Ziel ist ein Multikomponenten Modell zu
entwickeln, das kein Vorwissen bezüglich MRT Einstellparameter erfordert und somit einfach
in der Anwendung ist. Das Modell wurde mit verschiedenen Test Simulationen, wie das
Simulieren eines statischen Tropfens oder der Rayleigh-Taylor Instabilität Simulation getestet.
Desweiteren wurden erste Spray-Simulationen durchgeführt und die entwicklung des
Interfaces wurde mit Daten aus der Literatur verglichen. Es stellte sich heraus, dass das
Modell bei sehr geringen Viskositäten stabil ist und sehr kleine Tropfen, deren Durchmesser
nur wenige Zellen breit sind, simulieren kann. Jedoch, wird das Modell instabil, wenn das
Dichteverhältnis grösser als 10 ist. Darum ist eine Weiterentwicklung des Modells notwendig.
Many industrial fluid problems involve more than one fluid and are called multiphase problems,
when the fluid consists of more than one phase or a change phase occurs. Multicomponent
flow problems occur, if the fluid is a mixture of multiple fluids with individual properties. Of
course, a combination of both cases is also possible. In this work, a multicomponent model is
developed to simulate immiscible flow problems as they are found for example in spray
applications. The model is based on the Lattice Boltzmann Method (LBM) which has its root in
the molecular kinetic and was first published in 1940 by Stanislaw Ulam and John von
Neumann. Compared to conventional computational fluid dynamics (CFD), which solve the
macroscopic governing equations directly. The LBM uses the Boltzmann equation and the
solution can be used to find the macroscopic field variables such as velocity, density and
pressure. The LBM has gained a lot of popularity in the last two decades and is still a very
active research field. As a result, many multiphase and or multicomponent models exist and
fight for supremacy.
The present work is based on the model first published by Rothmann-Keller (RK) in 1988. The
RK model, also called the Color-Gradient (CG), was improved over the last few years and has
crucial advantages, like a sharp interface between the components, the control of surface
tension by single parameter and multiple approaches to handle simulations with variable
density ratios. It is well known in the LB community that simulations tend to become unstable
as soon as the flow is turbulent. The simplest approach is to refine the grid resolution, however
in most cases this is not feasible due to the limitation of computational resources. Thus socalled
Multi-Time-Relaxation (MRT) schemes are developed to allow the relaxation of each
individual moment at its appropriate rate. These countermeasures make the LB simulation
stable without refining the grid resolution. Unfortunately, the problem is often to find suitable
relaxation rates, since they depend on the problem at hand. The model developed by Karlin,
Bösch and Chikatamarla (KBC) circumvents this issue, and is able to find suitable parameters
during the simulation and adjust them if needed.
The core of this work is to combine RK and KBC model, as this has not been investigated
previously. The target is to achieve a model which does not depend on prior knowledge and is
easy to use for different cases. The model was tested by multiple simulations like the static
droplet test or the Rayleigh-Taylor instability test. Further, first jet break-up simulations were
carried out and the evolution of the interface was compared against experimental data
available in the literature. It turned out, that this model is stable for very low viscosity and can
capture tiny droplets, with a diameter of a few nodes. Unfortunately, the model is unstable for
density ratios greater than 10 and when the velocity grows. Further, research is needed to
enhance the stability for LB simulations at high density ratios.
This paper addresses the role of digital technologies in the development of business ecosystems through smart services based on a single case study of a multinational manufacturing company which is developing a global field service solution. The research bridges the gap by focusing on enabling platforms and the empowerment of the field service technician highlighting the role of technology as an enabler for value creation. It takes the field service solution back reporting package and through the lens of service design tools such as service blueprint analyses the experience and pain points of the technicians. In addition, the maturity of the digital services and the smartness of the business ecosystem were assessed based on (West et al., 2018; Neuhüttler et al., 2018), the field service engineer’s experience was improved and the role of technology and IT to achieve a smart state was defined. It was found that smart in terms of technology cannot be considered smart services if they do not take into account the adoption of those by the customers/users. For that, both the business and the IT department should work together. It was found that digitalization strategy is usually creating value for IT and the global business while it often does not have a correlation with value creation for the customers. The research question is:
“How to innovate the field service technician experience in the business ecosystem through smart digital services”
Data-driven Modellierungsmethoden erhalten einen immer höheren Stellenwert in der Wissenschaft und der
Industrie. Computational Fluid Dynamics erweist sich als ein exemplarisches Gebiet, um solche Methoden zu
entwickeln und anzutreiben. Im Zentrum dieser Thesis steht der spezifische Prozess Field Inversion and
Machine Learning (FIML), entwickelt von Parish und Duraisamy [1], Duraisamy et al. [2, 3] und Singh et al.
[4]. FIML strebt an, bestehende RANS Turbulenzmodelle mithilfe von Messdaten oder hoch qualitativen
Simulationsdaten zu optimieren.
Die Feld Inversion wird mittels einer Zielfunktion formuliert, welche die Differenz zwischen dem Base
Model und dem Truth Model ausdrückt. Zusätzlich wird die Zielfunktion durch einen Tikhonov Term
regularisiert. Diese Funktion wird anschliessend mit einem Optimierungsalgorithmus und der diskreten
Adjoint Methode iterativ minimiert, um ein Diskrepanzfeld zu erhalten, welches den Unterschied zwischen
dem Base und Truth Model wieder gibt. Ein Machine Learning Algorithmus lernt anschliessend die
Beziehung zwischen dem Diskrepanzfeld und selektierten Features des Base Models. Das trainierte Model
wird in einem finalen Schritt an das Base Turbulenzmodel gekoppelt, welches somit das optimierte Model
darstellt.
Ziel dieser Arbeit ist es, den FIML Prozess innerhalb des Druck-gekoppelten CFD Solvers coupledNumerics
[5] anzuwenden. Mit dem proof of concept wird der Prozess an einem U-Rohr validiert. Dies, indem das
Spalart-Allmaras Turbulenzmodell (Base Model) optimiert wird, um die gleichen Resultate wie das Spalart-
Allmaras Model mit Rotations- und Krümmungskorrektur (Truth Model) zu erzielen. In einem zweiten
Schritt wird die Generalisierungsfähigkeit des FIML Verfahrens auf verschiedene Reynolds Zahlen und
Rohrgeometrien getestet. Als letztes wird der Prozess an wenig vorhandenen realen Messdaten angewendet.
Hierfür wird der zwei dimensionale Hump als Geometrie verwendet, welcher einen hohen Druckgradienten
erzeugt.
Der proof of concept zeigt, dass der FIML Prozess fähig ist, das Diskrepanzfeld zu extrahieren und
anschliessend die inherente Beziehung zwischen diesem Feld und den Features in neuen Simulation
wiederzugeben. Der Random Forest Algorithmus erzeugte konsistentere Resultate mit weniger Aufwand im
Vergleich zu einem simplen Neuralen Netzwerk. Die Genauigkeit des Machine Learning Models basiert auf mehreren Faktoren, reduziert aber in jedem Fall die Genauigkeit des Diskrepanzfeldes von der
vorhergehenden Feld Inversion. Der Generalisierungstest zeigt, dass das optimierte Turbulenzmodell auf
unterschiedlichen Reynolds Zahlen und Geometrien anwendbar ist, solange diese genügende Ähnlichkeiten
aufweisen. Die Verwendung von gemessenen Reibungskoeffizienten für die Feld Inversion zeigte, dass das
Resultat einen under- oder overfit zu den Truth Daten erzeugen kann.
Data-driven modelling has gained momentum in science and engineering and computational fluid dynamics
is an exemplary field to explore this approach. Central to this thesis is the specific framework of Field
Inversion and Machine Learning (FIML) developed by Parish and Duraisamy [1], Duraisamy et al. [2, 3] and
Singh et al. [4] to improve existing RANS turbulence models using measurement or high-fidelity simulation
data.
Key of the paradigm is the field inversion, where an objective function is formulated in terms of the
difference between the base model and the truth model. This thesis uses a formulation with Tikhonov
regularization. The objective function is then iteratively minimized using an optimization algorithm with a
discrete adjoint method to extract the spatial discrepancy of the model. A machine learning algorithm is
employed to learn the relationship between this discrepancy field and selected features of the base model.
The machine learning model is linked to the base model, capable of conducting simulations resembling the
truth model.
The goal of this thesis is to apply the proposed FIML framework within the pressure-coupled solver
coupledNumerics [5]. The proof of concept aims to validate the FIML procedure: The Spalart-Allmaras
turbulence model (base model) is optimized to equal the Spalart-Allmaras rotation and curvature correction
model (truth model) using a U-turn pipe as geometry. In a second step, the generalization capabilities of the
FIML procedure are verified by training and predicting on varying Reynolds numbers and pipe geometries. In
a final step, the FIML paradigm is applied to an adverse pressure gradient case, using the 2-dimensional wall
mounted hump geometry and sparse experimental values only as truth model.
The proof of concept shows that the FIML paradigm is capable of inferring the discrepancy field via an
inverse problem using full-field data and that machine learning tools are able to recreate this field for new
simulations. The random forest algorithm showed more consistent results with less effort than a simple neural
network implementation. The accuracy of the machine learning model depends on many factors such as the
selected hyperparameters and features but can never perfectly reproduce the field inversion results,
diminishing therefore the overall accuracy of FIML. The generalization test proofs that the paradigm is
capable of being applied to different flows and geometries, as long as they are similar. Using the friction
coefficient as sparse data to inform the objective function for the hump, it is found that difficulties arise to
obtain a result which neither under- nor overfits the truth model data during the field inversion.
This thesis is conducted together with the Soldati AG. Soldati is a producer and manufacturer
of specialized machinery for production packaging and the food industry. Besides
this Soldati also produces air motors for special applications. The goal of Soldati in this
project is to automate the assembly of a pin, seal, roll and piston of this air motor to
reduce the labor intensity during production. The current production of these piston assemblies
is done with an assembly station into which the parts get fed by hand. Another
goal is to generate knowledge on object detection with computer vision and the integration
of a vision system with an industrial robot. In this project, a system was developed
to get the bulk goods of the four parts and separate them to pick them with a robot. The
piston assembly consists of four parts: a roll, pin, piston and seal. These parts must all be
separated and picked with the same system. The parts are, with a characteristic length of
15 mm, rather small compared to other parts for which vision systems are used. For this
separation, a concept was developed from the delivered of bulk parts to the assembly of
the parts. This concept was evaluated and the critical aspects were tested. The separation
was developed with a vibration feeding bunker which distributes and doses the parts on
a conveyor. The conveyor moves them under a monocular camera. The camera detects
the parts with a developed algorithm and calculates the exact location and orientation in
the image. The calibrated image can then be used to reference an industrial robot to it.
With the industrial robot, the parts can then be picked and placed in a blister. From the
blister, they can then be fed into the existing assembly station. The designed system was
able to perform the detection and picking of the parts and therefore verified the concept.
In a next step, the system could be integrated into the work environment. There would be
the need for some adaptations since the tests made were only to verify a proof of concept.