Abstract Deutsch
Im Rahmen des Projekts «neuer Campus Horw» wird untersucht, wie die thermischen Spitzenlasten
der Gebäude des neuen Campus gedeckt werden können. Das Konzept sieht vor den Campus an das
Seewassernetz anzuschliessen und so thermisch zu versorgen. Im Sommer kann das Seewasser
direkt zum Kühlen genutzt werden, im Winter dient es als Quelle für die Wärmepumpe. Als
thermische Spitzenlastdeckung wird eine Speicherlösung gesucht, damit man von fossilen
Brennstoffen und auch von anderen zusätzlichen Energieträgern unabhängig ist.
Basierend auf den Wettbewerbsunterlagen des Projekts «Gravity» wird ein Gebäudemodell erstellt,
welches für eine thermische Simulation des Campus dient. Als Klimadaten sind dabei drei
Klimaszenarien hinterlegt; ein aktuelles Szenario basierend auf Daten aus der jüngeren
Vergangenheit und zwei Zukunftsszenarien für den Zeitraum rund um 2060. Eines dieser
Zukunftsszenarien stellt dabei ein Jahr dar, bei dem der Klimaschutz konsequent durchgesetzt wird
und stetig die CO2-Ausstösse reduziert werden. Das andere Zukunftsszenario stellt ein Jahr dar, bei
dem keine Klimaschutzmassnahmen umgesetzt werden und der jährliche CO2-Ausstoss stetig steigt.
Die Ergebnisse zeigen, dass mit aktuellen Klimadaten ein hoher Heizwärmebedarf und ein mittlerer
Klimakältebedarf anfällt. In Zukunft wird der Heizwärmebedarf sinken und der Klimakältebedarf
steigen. Die Intensität dieser Tendenz ist abhängig davon, wie stark die Klimaschutzmassnahmen ab
dem heutigen Zeitpunkt global umgesetzt werden.
Diese Ergebnisse werden in einem Modell hinterlegt, welches die Energieströme des Systems
simuliert und optimiert. Das Ziel dieser Simulation ist es, den nötigen Energieinhalt des Speichers für
die thermische Spitzenlastdeckung in Abhängigkeit der Erzeugerleistung zu ermitteln. Die
energetische Betrachtung zeigt auf, dass für die Bestimmung der Speichergrösse das normale
Klimaszenario im Heizfall ausschlaggebend ist, im Kühlfall ist es das Zukunftsszenario ohne
Klimaschutzmassnahmen. Des Weiteren ist ab einer Wärmepumpenleistung von 150 kW lediglich ein
Speicher notwendig, da es keine Überschneidung zwischen dem Heiz- und Kühlbetrieb gibt.
Um die volumetrische Grösse und die Geometrie eines solchen Speichers zu bestimmen, wird eine
Speichersimulation durchgeführt. Dazu wird das notwendige Volumen eines sensiblen
Wasserspeichers in Abhängigkeit der Erzeugerleistung und der Speicherhöhe ermittelt. Ein Speicher
mit der Höhe von maximal 2.5 m und einem maximalen Volumen von 5'000 m³ könnte im bereits
bestehenden Bunker unterhalb der Mensa untergebracht werden. Somit müsste kein zusätzliches
Volumen für den Speicher geschaffen werden. Durch die Speichersimulation wird ersichtlich, dass ein
reiner Wasserspeicher mit einem Volumen von rund 1'675 m³ in Kombination mit einer
Wärmepumpenleistung von 300 kW und einer Speicherhöhe von 2.5 m den Heiz- wie auch den
Kühlfall ideal abdeckt. Bei gleicher Höhe und einer Wärmepumpenleistung von 250 kW würde es für
den ausschlaggebenden Heizfall einen 4’400 m³ grossen Speicher benötigen. Dieses Volumen könnte
durch die Integration eines Phase-Change-Materials, welches seinen Schmelzpunkt bei ca. 35 °C hat,
reduziert werden. Eine erste rechnerische Abschätzung zeigt auf, dass ein Speicher mit einem Volumen von rund 2'400 m³ und einer Speicherhöhe von 2.5 m in Kombination mit einer
Wärmepumpe von 250 kW sich für den Heiz- und Kühlfall eignet. Dementsprechend gäbe es zwei
verschiedene Lösungen, wie ein Speicher in den Bunker integriert werden kann.
Der Entscheid auf welche Klimaszenarien der Speicher ausgelegt werden soll, ist noch offen. Zudem
bietet sich eine Systemerweiterung mit der Integration des Brauchwarmwassers an, um die
Energieeffizienz des Systems weiter zu erhöhen.
As part of the project "Neuer Campus Horw", an investigation is being carried out into how the
thermal peak loads of the buildings on the new campus can be covered. The concept is to connect
the campus to the lake water network and thus supplying it with thermal energy. In summer, the
lake water can be used directly for cooling, in winter it serves as a source for the heat pump. As a
thermal peak load coverage, a storage solution is sought so that the campus is independent of fossil
fuels and also of other additional energy sources.
Based on the competition documents of the project "Gravity" a building model is created, which is
used for a thermal simulation of the campus. Three climate scenarios are used as climate data; a
current scenario based on data from the recent past and two future scenarios for the period around
the year 2060. One of these future scenarios represents a year in which climate protection is
consistently implemented and CO2-emissions are constantly reduced. The other future scenario
represents a year in which no climate protection measures are implemented and annual CO2
emissions steadily increase. The results show that with current climate data there is a high heating
demand and a medium cooling demand. In the future, the heating demand will decrease and the
cooling demand will increase. The intensity of this trend depends on the extent to which climate
protection measures are implemented globally from the present time.
These results are stored in a model that simulates and optimizes the energy flows of the system. The
goal of this simulation is to determine the necessary energy content of the storage system for
thermal peak load coverage as a function of the generated thermal power. The energetic
consideration shows, that the normal climate scenario in the heating case is decisive for the
determination of the storage size, in the cooling case it is the future scenario without climate
protection measures. Furthermore, from a heat pump capacity of 150 kW only one storage tank is
necessary, since there is no overlap between the heating and cooling operation.
In order to determine the volumetric size and the geometry of such a storage tank, a storage
simulation is carried out. For this purpose, the necessary volume of a sensible water storage is
determined as a function of the generated thermal power and the storage height. A storage tank with
a maximum height of 2.5 m and a maximum volume of 5'000 m³ could be accommodated in the
already existing bunker below the canteen. Thus, no additional volume would have to be created for
the storage tank. The storage simulation shows that a pure water storage tank with a volume of
about 1'675 m³ in combination with a heat pump capacity of 300 kW and a storage height of 2.5 m
ideally covers the heating as well as the cooling case. With the same height and a heat pump
capacity of 250 kW, a 4’400 m³ storage tank would be required for the decisive heating case. This
volume could be reduced by integrating a phase change material, which has its melting point at
approx. 35 °C. A first mathematical estimation shows that a storage tank with a volume of about
2'400 m³ and a storage height of 2.5 m in combination with a heat pump of 250 kW is suitable for
the heating and cooling case. Accordingly, there would be two different solutions how to integrate a
storage tank into the bunker.
The decision on which climate scenarios the storage tank should be designed for is still open. In
addition, a system extension with the integration of the domestic hot water is an option to further
increase the energy efficiency of this system.
In der Strömungsmechanik gibt viele Problemstellungen, bei denen verschiedene Fluide
vorkommen. Bei Mehrphasenströmungen weist das Fluid mehrere Phasen auf oder es kommt
zu einem Phasenwechsel. Bei Multikomponentenströmungen setzt sich das Fluid aus
verschiedenen Fluiden zusammen, die unterschiedliche Stoffeigenschaften haben, wobei die
einzelnen Fluide zusätzlich noch mehrere Phasen aufweisen können. In dieser Arbeit wird ein
multikomponenten Modell erarbeitet, welches die Modellierung nicht mischbarer Strömungen
ermöglicht, wie sie zum Beispiel in Spray Anwendungen zu finden sind. Das Modell basiert auf
der Lattice Boltzmann Methode (LBM), welche ihren Ursprung in der molekular Kinetik hat und
1940 erstmals von Stanislaw Ulam und John von Neumann publiziert wurde. Im Gegensatz zu
herkömmlichen Computational Fluid Dynamics (CFD), welche die makroskopischen
Bilanzgleichungen direkt lösen, behilft sich die LBM an der Boltzmann Gleichung. Die Lösung
kann verwendet werden um die makroskopischen Feldgrössen wie Geschwindigkeit, Dichte
und Druck zu berechnen. Die LBM hat in den letzten zwei Jahrzehnten massiv an Popularität
gewonnen und ist immer noch ein sehr aktives Forschungsgebiet. Verschiedene Multiphasenund
Multikomponentenmodelle existieren heute und kämpfen um die Vorherrschaft.
Das in dieser Arbeit entwickelte Modell basiert auf einem bereits bekannten
Multikomponentenmodell von Rothmann-Keller (RK), welches 1988 erstmals publiziert wurde.
Das RK Modell wurde im Laufe der Jahre weiterentwickelt und hat entscheidende Vorteile:
zum Beispiel ein scharfes Interface zwischen den Komponenten und die Kontrolle der
Oberflächenspannung mittels einem Parameter. Es existieren zudem verschiedene Ansätze
für Simulationen mit variablen Dichten. Da Allgemein bekannt ist, dass LB Simulationen
instabil sind, wenn die Strömung turbulent wird, gibt es verschiedene Möglichkeiten die
Simulation zu stabilisieren. Da eine Erhöhung der Auflösung des Domains oft aufgrund der
limitierten Rechenkapazität nicht in Frage kommt, behilft man sich mit sogenannten Multi-
Relaxation-Time (MRT) Modellen. Diese erlauben es die verschiedenen Moments unabhängig
voneinander zu entspannen. Somit ist es möglich die LB Simulation zu stabilisieren, ohne die
Auflösung zu erhöhen. Die Schwierigkeit besteht oft darin, die richtigen Parameter zu
ermitteln. Das MRT von Karlin, Bösch und Chikatamarla (KBC) ermittelt diese Parameter
selbst.
Der Hauptteil dieser Arbeit ist die Kombination eines aktuellen RK mit dem KBC Modell, da
diese bis dato noch nicht erarbeitet wurde. Das Ziel ist ein Multikomponenten Modell zu
entwickeln, das kein Vorwissen bezüglich MRT Einstellparameter erfordert und somit einfach
in der Anwendung ist. Das Modell wurde mit verschiedenen Test Simulationen, wie das
Simulieren eines statischen Tropfens oder der Rayleigh-Taylor Instabilität Simulation getestet.
Desweiteren wurden erste Spray-Simulationen durchgeführt und die entwicklung des
Interfaces wurde mit Daten aus der Literatur verglichen. Es stellte sich heraus, dass das
Modell bei sehr geringen Viskositäten stabil ist und sehr kleine Tropfen, deren Durchmesser
nur wenige Zellen breit sind, simulieren kann. Jedoch, wird das Modell instabil, wenn das
Dichteverhältnis grösser als 10 ist. Darum ist eine Weiterentwicklung des Modells notwendig.
Many industrial fluid problems involve more than one fluid and are called multiphase problems,
when the fluid consists of more than one phase or a change phase occurs. Multicomponent
flow problems occur, if the fluid is a mixture of multiple fluids with individual properties. Of
course, a combination of both cases is also possible. In this work, a multicomponent model is
developed to simulate immiscible flow problems as they are found for example in spray
applications. The model is based on the Lattice Boltzmann Method (LBM) which has its root in
the molecular kinetic and was first published in 1940 by Stanislaw Ulam and John von
Neumann. Compared to conventional computational fluid dynamics (CFD), which solve the
macroscopic governing equations directly. The LBM uses the Boltzmann equation and the
solution can be used to find the macroscopic field variables such as velocity, density and
pressure. The LBM has gained a lot of popularity in the last two decades and is still a very
active research field. As a result, many multiphase and or multicomponent models exist and
fight for supremacy.
The present work is based on the model first published by Rothmann-Keller (RK) in 1988. The
RK model, also called the Color-Gradient (CG), was improved over the last few years and has
crucial advantages, like a sharp interface between the components, the control of surface
tension by single parameter and multiple approaches to handle simulations with variable
density ratios. It is well known in the LB community that simulations tend to become unstable
as soon as the flow is turbulent. The simplest approach is to refine the grid resolution, however
in most cases this is not feasible due to the limitation of computational resources. Thus socalled
Multi-Time-Relaxation (MRT) schemes are developed to allow the relaxation of each
individual moment at its appropriate rate. These countermeasures make the LB simulation
stable without refining the grid resolution. Unfortunately, the problem is often to find suitable
relaxation rates, since they depend on the problem at hand. The model developed by Karlin,
Bösch and Chikatamarla (KBC) circumvents this issue, and is able to find suitable parameters
during the simulation and adjust them if needed.
The core of this work is to combine RK and KBC model, as this has not been investigated
previously. The target is to achieve a model which does not depend on prior knowledge and is
easy to use for different cases. The model was tested by multiple simulations like the static
droplet test or the Rayleigh-Taylor instability test. Further, first jet break-up simulations were
carried out and the evolution of the interface was compared against experimental data
available in the literature. It turned out, that this model is stable for very low viscosity and can
capture tiny droplets, with a diameter of a few nodes. Unfortunately, the model is unstable for
density ratios greater than 10 and when the velocity grows. Further, research is needed to
enhance the stability for LB simulations at high density ratios.
Frühere Projekte haben gezeigt, dass Liquid Time-Constant Networks (LTC) sehr gute Performance
bei verschiedenen Aufgaben des maschinellen Lernens (ML) erzielen können. Zudem kann die
Modellarchitektur kompakter gehalten werden als bei anderen Modelltypen. Es hat sich jedoch als
schwierig erwiesen, die Echtzeitanforderungen zu erfüllen, wenn die Software auf einem
eingebetteten Softprozessor mit geringem Energieverbrauch implementiert ist.
Das Ziel dieses Projekts ist es, einen eng-gekoppelten Coprozessor zu entwickeln und zu
implementieren, um die Verarbeitung von LTC zu beschleunigen. Der Coprozessor wird als
Erweiterung einer RISC-V CPU implementiert. Der in Chisel implementierte Rocket-Chip-Generator
wird als Basis für dieses Projekt verwendet.
In einem ersten Schritt wird eine optimierte Software-Implementierung entwickelt und analysiert.
Dies zeigt, welche Berechnungen am meisten zur Gesamtverarbeitungszeit beitragen. Basierend auf
diesen Erkenntnissen werden dann die Hardware-Komponenten entworfen. Der implementierte
Coprozessor ist vollständig konfigurierbar. Dies ermöglicht verschiedene Modellgrößen und einen
variablen Grad an Paralellisierung. Das Design kann mit den Rocket-Chip Komponenten für ein MPF-
300 Field Programmable Gate Array (FPGA) mit einer Clockfrequenz von 100 MHz synthetisiert
werden.
Mit dem fertigen Coprozessor wird die Verbesserung der Verarbeitungszeit evaluiert. Dabei zeigt sich,
dass bei den beschleunigten Berechnungen bis zu 1000 mal schneller gerechnet werden können. Die
erreichbare Gesamtbeschleunigung hängt von der jeweiligen Modellarchitektur ab. Es kann jedoch
gezeigt werden, dass ein bestimmtes Modell aus einem früheren Projekt nun die
Echtzeitanforderungen erfüllen kann. Schlussendlich könnte die Beschleunigung eines größeren Teils
der Berechnungen eine deutlich höhere Gesamtbeschleunigung für einige Modelle bringen. Dafür ist
schlussendlich eine kleine Erweiterung der aktuellen Implementierung hier vorgeschlagen.
Previous projects have shown that Liquid Time-Constant Networks (LTC) can achieve very good
performance on various machine learning (ML) tasks. Additionally, the model architecture can be
kept more compact than those of other model types. Still, it has proven to be difficult to fulfill realtime
requirements if the software is implemented on a low-power embedded soft processor.
The aim of this project is to design and implement a tightly-coupled coprocessor to accelerate the
processing of LTC. The coprocessor is implemented as an extension of a RISC-V CPU. The Rocket-
Chip generator, implemented in Chisel, is used as a basis for this project.
In a first step, an optimized software implementation is developed and analyzed. This shows what
computations contribute most to the overall processing time. The hardware componentes are then
designed based on those insights. The implemented coprocessor is fully configurable to allow
different model sizes and a variable degree of paralellization. The design can be synthesized with the
Rocket-Chip components for a MPF-300 Field Programmable Gate Array (FPGA) with a clock
frequency of 100 MHz.
Finally, the improvement of the runtime is evaluated. This shows that a massive speedup of up to
1000x can be achieved for the accelerated computations. The achievable overall speedup depends on
the particular model architecture. But it can be shown that a specific model from a previous project
can now fulfill the real-time requirements. Finally, accelerating a larger portion of the computations
could again bring further runtime improvements and a significantly larger overall speedup for some
models. Thus, a small extension to the current implementation is proposed here.
Elemental microanalysis of lunar analog materials with laserinduced breakdown spectroscopy (LIBS) and laser-induced XUV spectroscopy (LIXS) under vacuum conditions.
Name that can easily go onto 2 lines
Author that can easily go onto 2 lines as well
Titel
Elemental microanalysis of lunar analog materials with laserinduced breakdown spectroscopy (LIBS) and laser-induced XUV spectroscopy (LIXS) under vacuum conditions.
Laserinduzierte weiche Röntgenstrahl und extrem ultraviolette (XUV) Spektroskopie bietet eine alternative
Bestimmungsmethode zum laserinduzierte Plasmaspektroskopie (LIBS).
Experimente mit LIXS werden, aufgrund der kleinen Wellenlängen, im Vakuum ausgeführt. Dadurch ist
diese Methode insbesondere für die Umweltbedingungen auf dem Mond gut geeignet. Diese Arbeit
untersucht die Fähigkeiten von LIXS, mit dem Motiv, LIXS später als Ersatz oder Begleitung von LIBS in
Weltraumforschungen einzusetzen. Zunächst wird über die Vorteile und Anwendungen von LIBS, vor allem
auf dem Mars, berichtet. Gefolgt wird dies von Vergleichen zwischen XUV Emissionen, detektiert mit LIXS,
und Emissionen im ultravioletten zu sichtbaren (UV-VIS) Wellenlängen Bereich, detektiert mit LIBS. Beide
Emissionen geschehen dabei im Vakuum. Untersucht werden Mond analoge Proben, die Variationen in ihrer
Zusammensetzung aufzeigen. Das Verhalten der Emissionsspektren sowie Emissionsintensitäten werden
angeschaut. Daraufhin werden drei prominente Emissionslinien jeweils in LIBS und LIXS auserwählt und
auf ihre Wiederholgenauigkeit und Reproduzierbarkeit untersucht. Denn die Wiederholgenauigkeit und
Reproduzierbarkeit sind Eigenschaften von LIBS, die zu ihren wesentlichen Nachteilen gehören. Danach
werden die Emissionslinien, falls möglich, ihren Elementen zugeteilt. Zudem wird die Wiederholgenauigkeit
und Reproduzierbarkeit für das gleiche Element mit beiden Bestimmungsmethoden untersucht. Die
Messungen mit LIXS weisen bessere Wiederholgenauigkeiten und Reproduzierbarkeiten auf als die
Messungen mit LIBS für Aluminium. Allerdings ist die elementare Zuordnung der Emissionslinien zu ihren
Elementen noch nicht praktisch wie mit LIBS, da eine Verschiebung der Wellenlängen zu erkennen ist. Dies
ist möglicherweise auf die hohen Plasmatemperaturen zurückzuführen, die zur Doppler-verschiebung
beitragen. Daher sind weitere Untersuchungen notwendig, um die Plasmatemperaturen zu bestimmen.
Laser-induced soft X-ray and extreme ultraviolet (XUV) spectroscopy (LIXS) provides an alternative
detection method to Laser-induced plasma breakdown spectroscopy (LIBS). The application of LIXS
measurements is in vacuum due to small wavelengths. In this way, it is well suited for the environmental
conditions on the moon. This thesis studies the potential of LIXS, with the intention to substitute or
accompany LIBS on space explorations. Therefore, the advantages and applications of LIBS, especially on
mars, are explained, followed by comparison of the XUV emission from LIXS with the ultraviolet to visible
wavelength range (UV-VIS) emission yield by LIBS under vacuum conditions. Lunar analogue samples,
which exhibit variations in their compositions, are examined. The emission spectra and emission intensities
are investigated. Then, three prominent emission lines in each LIBS and LIXS are examined on repeatability
and reproducibility, features that demonstrate the main drawbacks of LIBS. This is followed by attribution of
emission lines to their elements, if possible. In addition, the repeatability and reproducibility is measured for
the same element by both methods. The measurements with LIXS exhibit better repeatability and
reproducibility than the measurements with LIBS for aluminum. However, the attribution of the emission
lines to their elements is still not convenient as with LIBS due to shifts in wavelengths. A possible reason
could be high plasma temperatures contributing to Doppler shifts. Therefore, further investigations are
necessary, to measure the plasma temperature.
Die vorliegende Arbeit befasst sich mit der Umsetzung eines Bewertungsverfahren für den Vergleich von
Energiemanagementsystemen zur Eigenverbrauchsoptimierung (EMS). Sie ist der dritte und letzte Teil
meiner Masterarbeit, in der dieses Bewertungsverfahren entwickelt wurde.
Ein EMS optimiert den Eigenverbrauch, indem es Verbraucher dann einschaltet, wenn die PV-Anlage mehr
Energie produziert als das Gebäude verbraucht. Umgekehrt schaltet das EMS Verbraucher aus, wenn Energie
vom Netzbetreiber gekauft werden muss.
Der Markt für EMS ist in der Schweiz noch jung und verändert sich laufend. Das macht es schwierig den
Überblick zu behalten. Mit dem Bewertungsverfahren sollen die EMS unter jeweils gleichen und
reproduzierbaren Bedingungen geprüft werden können. Die Testergebnisse sollen die Auswahl eines EMS
erleichtern.
Das Bewertungsverfahren beschränkt sich auf EMS, die für den Einsatz in Einfamilienhäusern vorgesehen
sind. Geprüft wird, wie hoch der Eigenverbrauchsanteil und der Autarkiegrad ausfallen. Die Energiekosten
werden ebenfalls berechnet.
In der Arbeit werden die Modelle der Verbraucher und der PV-Produktion zuerst theoretisch beschrieben und
dann in der Simulationssoftware Simulink umgesetzt. Das EMS wird als «Hardware in the Loop» in den
Prüfaufbau eingebaut.
Bei der Umsetzung der Schnittstellen S0 und UDP sind einige Probleme aufgetaucht, die im Rahmen dieser
Arbeit nicht mehr behoben werden konnten.
Mit dem Referenzablauf (Simulation ohne EMS) konnte das Bewertungsverfahren trotzdem getestet werden.
Darin konnten auch alle Modelle umgesetzt werden.
Die Resultate lassen darauf schliessen, dass dieses Bewertungsverfahren funktioniert und dass die EMS so
geprüft und bewertet werden können.
This paper presents the implementation of an assessment method for the comparison of energy management
systems for self-consumption optimization (EMS). It is the last of three parts in which this assessment
method was developed.
An EMS optimizes self-consumption by switching on consumers when the PV system produces more energy
than the building consumes or switches them off when energy has to be purchased from the network operator.
The EMS market in Switzerland is still young and constantly changing. That makes it difficult to keep track
of things. This evaluation procedure allows testing of various EMS under the same and reproducible
conditions. This simplifies the selection of the most suited EMS for the PV system.
The assessment method is limited to EMS, which are intended for use in single-family homes. The method
checks the self-consumption share and degree of self-sufficiency. Furthermore, it calculates the energy costs.
This thesis describes the consumer models and PV production theoretically. In a later step these models are
implemented in a simulation using the software Simulink. The EMS is built into the test setup as «hardware
in the loop».
In the implementation of the interfaces S0 and UDP, problems occurred which could not be solved before the
deadline.
The reference process (simulation without EMS) could be used to test the assessment method. Furthermore,
all models could be implemented.
The result suggests that this assessment method works, and the EMS can be tested and assessed using this
method.
Der Entwurf einer Brücke erfordert ein hohes Mass an Kreativität verknüpft mit einem breiten
Fachwissen. Nur so lässt sich ein ganzheitlich funktionierendes, ästhetisch ansprechendes und
trotzdem ökonomisch und ökologisch sinnvolles Tragwerk entwickeln. Viele Faktoren wie die
Randbedingungen, geometrische Anordnungen, Steifigkeiten und Materialität haben Einfluss auf den
Entwurf und sind oft direkt oder indirekt miteinander verknüpft und beeinflussen sich gegenseitig. Ein
Entwurf ist somit ein stark iterativer Prozess, wobei eine perfekte Lösung nicht existiert, es aber
trotzdem erwünscht ist, ein der Ideallösung nahes Resultat zu erhalten.
Die vorliegende Arbeit folgt im Grundsatz den Projektphasen gemäss der SIA Norm 260. Das Ziel
dabei ist es, eine alternative Variante zur bereits bestehenden Chinegga-Brücke zu entwerfen.
Das Kapitel 2 beinhaltet die Grundlage des Entwurfs in Form einer Nutzungsvereinbarung. Darin
enthalten sind die wichtigsten Randbedingungen und Anforderungen an das zu planende Bauwerk.
Im Kapitel 3 wird eine Variantenstudie durchgeführt. Vorgängig werden die Randbedingungen und
Bewertungskriterien für die Varianten analysiert und diskutiert. Anschliessend werden vier
unterschiedliche Brückenstrukturen aufgezeigt: Ein Durchlaufträger im Freivorbau, eine
Sprengwerkbrücke, eine Bogenbrücke mit untenliegendem Tragwerk und eine Schrägkabelbrücke.
Dabei werden jeweils die Linienführung, die Haupttragstruktur, das Bauverfahren und die wichtigsten
Querschnitte aufgezeigt. Der Abschluss des Kapitels beinhaltet die Diskussion der Varianten und eine
begründete Wahl des Tragwerkes: Die Brücke soll mit einem Bogentragwerk durchgeführt werden.
Im vierten Kapitel ist anschliessend das gewählte Tragwerk der Bogenbrücke als erstes zu optimieren
und anzupassen. In der Linienführung, sowie in der Geometrie des Bogens und der Anordnung der
Stützen sind noch Verbesserungen vorzunehmen. Da eine Brücke stark abhängig vom Bauverfahren
ist, werden im Entwurf auch die Bauphasen und die Verfahrenstechniken untersucht und
anschliessend gewählt. Sobald die Lagerung der Brücke definiert ist, können mit den festgelegten
Feldlängen und Bogengeometrien die Querschnittsabmessungen bestimmt werden. Die Fahrbahn
wird als Spannbeton geplant, wozu hier auch ein Vorspannkonzept entwickelt wird.
Das fünfte Kapitel beinhaltet einige Nachweise im Grenzzustand der Tragsicherheit sowie der
Gebrauchstauglichkeit. Der Fahrbahnträger und der Bogen werden an den massgebenden Stellen auf
Biegung bemessen, wobei auch die Bogenstabilität miteinbezogen wird. Im Fahrbahnträger wird
zudem ein Querkraftnachweis erbracht. Ein weiterer Nachweis wird im Grenzzustand der
Gebrauchstauglichkeit geführt. Es wird eine Vorlandstütze auf ihr Verformungsvermögen überprüft.
Abrundend zu den Nachweisen werden Hinweise zur konstruktiven Durchbildung am
Verbindungspunkt zwischen Stütze und Fahrbahn gemacht.
Abschliessend werden im Kapitel 6 die Arbeit zusammengefasst und die Erkenntnisse und
Folgerungen aufgezeigt.
The design of a bridge requires a high degree of creativity combined with broad expertise. Only in
this way a holistically functioning, aesthetically pleasing and yet economically and ecologically
sensible structure can be developed. Many factors such as the boundary conditions, geometric
arrangements, stiffnesses and materiality have an influence on the design and are often directly or
indirectly linked and influence each other. A design is thus a highly iterative process, where a perfect
solution does not exist, but it is still desirable to obtain a result close to the ideal solution.
In principle, the present work follows the project phases according to the SIA standard 260. The aim
here is to design an alternative variant to the already existing Chinegga-Bridge.
Chapter 2 contains the basis of the design in the form of a user agreement. This contains the most
important boundary conditions and requirements for the structure to be designed.
In chapter 3, a variant study is carried out. First, the boundary conditions and evaluation criteria for
the variants are analyzed and discussed. Subsequently, four different bridge structures are
presented: a continuous girder in free cantilever construction, a rigid-frame bridge, an arch bridge
with the supporting structure below, and a cable-stayed bridge. In each case, the street-alignment,
the main support structure, the construction method and the main cross sections are shown. The
chapter concludes with a discussion of the variants and a justified choice of the supporting structure:
the bridge is to be built with an arched supporting structure.
In the fourth chapter, the selected structure of the arch bridge is to be optimized and adapted first.
Improvements are still to be made in the alignment, as well as in the geometry of the arch and the
arrangement of the supports. Since a bridge is strongly dependent on the construction method, the
construction phases and the process techniques are also examined in the design and subsequently
selected. Once the bearing of the bridge is defined, the section dimensions can be determined with
the field lengths and arch geometries established. The carriageway is planned as prestressed
concrete, for which a prestressing concept is also developed here.
The fifth chapter contains some verifications in the ultimate limit state and the serviceability limit
state. The carriageway girder and the arch are designed for bending at the relevant points, whereby
the arch stability is also included. In addition, a shear force check is performed in the carriageway
girder. A further check is performed in the serviceability limit state. The deformation capacity of an
edge support is checked. To round off the verifications, information is provided on the design of the
connection point between the column and the carriageway.
Finally, chapter 6 summarizes the work and highlights the findings and conclusions.
A critical assessment of lifecycle emission estimation methods including the impact of circularity approaches :A case study analysis of beverage cup materials.
Name that can easily go onto 2 lines
Author that can easily go onto 2 lines as well
Titel
A critical assessment of lifecycle emission estimation methods including the impact of circularity approaches :A case study analysis of beverage cup materials.
Die Ermittlung von Lebenszyklusemissionen hat in letzter Zeit deutlich an Bedeutung gewonnen. Die Ansätze zur Durchführung dieser Ökobilanzen müssen noch verbessert werden, um die Zuverlässigkeit und Vergleichbarkeit der erzielten Ergebnisse zu gewährleisten. Zusätzlich haben die Ansätze und Indikatoren für die Kreislaufwirtschaft an Relevanz gewonnen. Desshalb wird der derzeitige Ansatz kritisch bewertet, inklusive einer Fallstudie über Einweg-Plastikbecher, um die Praktikabilität und die Grenzen der bestehenden Methoden zu untersuchen. Es wurde festgestellt, dass die Bandbreite der Ergebnisse vor allem auf unterschiedliche Annahmen und Systemgrenzen zurückzuführen ist. Um dieses Problem zu lösen, wurde der Bedarf an standardisierten Frameworks festgestellt. Dies führte zur Formulierung von Best Practices für künftige Bewertungen von Einwegplastikbechern und die Anwendung von Indikatoren für zirkuläre Prozesse.
The assessment of life cycle emissions has recently gained significant importance. The approaches to conducting these life cycle assessments still need improvement to ensure the reliability and comparability of the obtained results. Additionally, the circularity approaches and metrics have gained increased attention. This thesis critically evaluates the current framework, including a case study on single-use plastic cups, to examine the practicality and limitation of the existing methodologies. The key issues that drive the range within the results were found to be differing assumptions and system boundaries within the same assessment framework. To address this issue, the need for standardised frameworks has been identified. It has led to the formulation of best practices for future assessments aimed at single-use plastic cups and the application of circular metrics. By integrating stricter rules and defined approaches, the reliability and comparability of future life cycle assessment results can be improved and contribute towards a more reliable and widespread use of sustainability practices within the industry.
Akustische Signalverarbeitung benutzt meistens adaptive Filtermethoden und Anpassungen der Parameter,
um eine optimale Audioqualität für bestimmte Anwendungen zu erreichen. In Bezug auf Anwedungen mit
Hörgeräten wird eine optimale Sprachverständlichkeit und Wahrnehmung der akustischen Umgebung
angestrebt. Weil akustische Szenen und Geräuschkulissen in der Realität kontinuierlich ändern, müssen
Parameteranpassungen in Hörgeräten in Echtzeit erfolgen. In dieser Thesis wird ein System vorgestellt
welches in der Lage ist, mit Hilfe von künstlicher Intelligenz (KI) verschiedene akustische Umgebungen
kontinuierlich erfassen zu können. In diesem Fall wurde ein Deep Convolutional Neural Network (CNN)
benutzt, während der Fokus auf einer Echtzeit-Implementierung lag. Als Grundlage der CNN Architektur
dient VGGNet-16, welches zu einem multi-label multi-output Modell modifiziert wurde. Dies ermöglicht es,
dieselbe Struktur zur Informationsentnahme für zwei Ausgänge zu nutzen und dabei gleichzeitig alle
möglichen Kombinationen von akustische Szenen und Geräuschkulissen zu klassifizieren. Für das Training
des CNN wurde ein eigener Datensatz erfasst welcher aus 23.8h von hochqualitativen, binauralen Audiodaten
besteht. Dazu wurden im Voraus fünf Klassen pro Label festgelegt, welche von Menschen klar
unterscheidbar sind. Mittels eine Grid Search Methode konnten drei optimierte Modelle gefunden werden
welche sich in ihrer Komplexität deutlich unterscheiden und es somit ermöglichen, eine Auswahl zwischen
Genauigkeit und Durchsatz zu treffen. Alle Modelle wurden im Anschluss mit 8 Bit quantisiert, welches zu
einer durchschnittlichen Genaugkeit von 99.07% führte. Nachdem die Anzahl Multiply-Accumulate (MAC)
Operationen und Parameter mit Faktoren von 154x resp. 18x reduziert wurde, war das System immer noch in
der Lage eine Genauigkeit von 94.82% zu erreichen. Dies ermöglicht es, eine Echtzeit-Anwendung auf der
Ebene von Mikrokontrollern zu realisieren welche eine Taktfrequenz von 10 MHz vorweisen und eine
Klassifikation pro Sekunde produzieren können.
Processing of acoustic signals is often accompanied by adaptive filtering and parameter adjustments in order
to achieve optimal audio quality for specific tasks. In terms of hearing aids, the intention is an optimal speech
intelligibility and environmental audio perception. Since acoustic scenes and soundscapes are constantly
changing during operation, adjustments in parameters for hearing devices have to be executed in real-time.
We introduce a system which is able to continuously recognize acoustic environments using Artificial
Intelligence (AI) in the form of a Deep CNN (Convolutional Neural Networks) with focus on real-time
implementation. Inspired by VGGNet-16, the CNN architecture was modified to a multi-label multi-output
model which is able to predict combinations of scene and soundscape labels simultaneously while sharing the
same feature extraction. For training we acquired a custom dataset consisting of 23.8h of high-quality
binaural audio data including five classes per label which are clearly distinguishable by humans. Using a
manual Grid Search method, we were able to optimize three models with respect to different complexity
metrics for choosing a trade-off between accuracy and throughput. CNNs were then post-quantized to 8-bit
which achieved an overall accuracy of 99.07% in the best case. After reducing the number of Multiply-
Accumulate (MAC) operations by a factor 154x and parameters by 18x, the classifier was still able to detect
scenes and soundscapes with an acceptable accuracy of 94.82% which allows real-time inference at the edge
on discrete low-cost hardware with a clock speed of 10 MHz and one inference per second.