Convolutional Neural Networks, kurz CNNs, sind eine Art Deep-Learning-Algorithmen, welche
heutzutage häufig für die Bewältigung von Aufgaben wie beispielsweise der Bildklassifizierung,
Objekterkennung oder der Sprachverarbeitung verwendet werden. Da CNNs rechenintensiv sind,
werden häufig FPGA-SoCs eingesetzt, um diese mittels paralleler Verarbeitung zu beschleunigen.
Das Hauptziel dieser Arbeit ist demnach die Entwicklung und Implementierung eines flexiblen CNNBeschleunigungsframeworks BinAccel für die effiziente, proprietäre BinArray-Methode, welche in
vorangehender Forschungsarbeit entwickelt wurde.
Das vorgestellte Beschleunigungsframework umfasst Anwendungen zur Optimierung, Konvertierung,
Quantisierung und Kompilierung eines CNN in ein ausführbares Modellformat sowie die Schritte zum
Aufbau einer FPGA-SoC-Plattform mit einem integrierten Beschleuniger.
Die Hauptbestandteile des Frameworks werden implementiert und in einer Beispielanwendung
eingesetzt: Eine Deep-Learning-Anwendung, welche Verkehrszeichen in einem live Videostream
identifizieren kann. Die Konfigurierbarkeit des Beschleunigungsframeworks wird demonstriert, indem
die Designschritte für mehrere Punkte des Entwurfsraums durchlaufen werden. Insbesondere wird
das CNN-Modell für verschiedene Konfigurationen des Beschleunigers quantisiert und kompiliert.
Um die Performance zu steigern, werden verschiedene Optionen evaluiert, um die Parallelität im
Beschleuniger zu erhöhen. Dies ist insbesondere für rechenintensive CNNs entscheidend.
Die Ergebnisse des Anwendungsbeispiels zeigen, wie die Genauigkeit, der Durchsatz und die
Ressourcennutzung auf der Zielplattform vom Benutzer durch die Konfigurationsoptionen des
Frameworks beeinflusst werden können. Ein Vergleich der Performance mit einer nichtbeschleunigten Version der Anwendung zeigt, dass der Durchsatz der Modellinferenz durch die
Beschleunigung der Convolutional Layer um den Faktor 1,4 erhöht werden kann. Es werden
Vorschläge gemacht, wie die Gesamtleistung der Anwendung weiter gesteigert werden kann. Es wird
aufgezeigt, dass die Erweiterung des Beschleunigers durch Input-Channel-Parallelisierung die
BinArray-Methode konkurrenzfähig mit kommerziellen Frameworks macht.
Convolutional Neural Networks (CNNs) are a type of deep learning algorithm that are state-of-the-art
to perform tasks such as image classification, object detection, and natural language processing.
Because CNNs are computationally intensive, FPGA-SoCs are widely used to accelerate CNNs by
providing parallel processing capabilities. Therefore, the main objective of this study is to design and
implement a flexible CNN acceleration framework BinAccel for the efficient proprietary BinArray
method, which has been developed in previous work.
The presented acceleration framework concept includes tools to optimize, convert, quantize and
compile a CNN into a deployable model format, as well as the steps to build an FPGA-SoC platform
with an integrated accelerator for binary approximated CNNs.
Main parts of the framework are implemented and applied on an example use-case: A deep-learning
based traffic sign recognition application on live input data. The configurability of the acceleration
framework is demonstrated by going through the design steps for multiple points of the design
space. Specifically, the CNN model is quantized and compiled for different hardware accelerator
configurations.
To improve processing performance, different options are analyzed and evaluated to increase
parallelism in the accelerator, which is crucial for large CNN models that require more computational
power.
The results on the example use-case show how the accuracy, throughput, and resource utilization
can be influenced by the user through the configuration options of the framework. A comparison of
the processing performance with a non-accelerated version of the application shows that by only
accelerating the convolutional layers of the model, the inference can be speeded up by a factor of
1.4. Suggestions are provided to further enhance the overall performance of the application.
Furthermore, it is shown that extending the accelerator using input channel parallelization makes the
BinArray method competitive with commercial frameworks.
Akustische Signalverarbeitung benutzt meistens adaptive Filtermethoden und Anpassungen der Parameter,
um eine optimale Audioqualität für bestimmte Anwendungen zu erreichen. In Bezug auf Anwedungen mit
Hörgeräten wird eine optimale Sprachverständlichkeit und Wahrnehmung der akustischen Umgebung
angestrebt. Weil akustische Szenen und Geräuschkulissen in der Realität kontinuierlich ändern, müssen
Parameteranpassungen in Hörgeräten in Echtzeit erfolgen. In dieser Thesis wird ein System vorgestellt
welches in der Lage ist, mit Hilfe von künstlicher Intelligenz (KI) verschiedene akustische Umgebungen
kontinuierlich erfassen zu können. In diesem Fall wurde ein Deep Convolutional Neural Network (CNN)
benutzt, während der Fokus auf einer Echtzeit-Implementierung lag. Als Grundlage der CNN Architektur
dient VGGNet-16, welches zu einem multi-label multi-output Modell modifiziert wurde. Dies ermöglicht es,
dieselbe Struktur zur Informationsentnahme für zwei Ausgänge zu nutzen und dabei gleichzeitig alle
möglichen Kombinationen von akustische Szenen und Geräuschkulissen zu klassifizieren. Für das Training
des CNN wurde ein eigener Datensatz erfasst welcher aus 23.8h von hochqualitativen, binauralen Audiodaten
besteht. Dazu wurden im Voraus fünf Klassen pro Label festgelegt, welche von Menschen klar
unterscheidbar sind. Mittels eine Grid Search Methode konnten drei optimierte Modelle gefunden werden
welche sich in ihrer Komplexität deutlich unterscheiden und es somit ermöglichen, eine Auswahl zwischen
Genauigkeit und Durchsatz zu treffen. Alle Modelle wurden im Anschluss mit 8 Bit quantisiert, welches zu
einer durchschnittlichen Genaugkeit von 99.07% führte. Nachdem die Anzahl Multiply-Accumulate (MAC)
Operationen und Parameter mit Faktoren von 154x resp. 18x reduziert wurde, war das System immer noch in
der Lage eine Genauigkeit von 94.82% zu erreichen. Dies ermöglicht es, eine Echtzeit-Anwendung auf der
Ebene von Mikrokontrollern zu realisieren welche eine Taktfrequenz von 10 MHz vorweisen und eine
Klassifikation pro Sekunde produzieren können.
Processing of acoustic signals is often accompanied by adaptive filtering and parameter adjustments in order
to achieve optimal audio quality for specific tasks. In terms of hearing aids, the intention is an optimal speech
intelligibility and environmental audio perception. Since acoustic scenes and soundscapes are constantly
changing during operation, adjustments in parameters for hearing devices have to be executed in real-time.
We introduce a system which is able to continuously recognize acoustic environments using Artificial
Intelligence (AI) in the form of a Deep CNN (Convolutional Neural Networks) with focus on real-time
implementation. Inspired by VGGNet-16, the CNN architecture was modified to a multi-label multi-output
model which is able to predict combinations of scene and soundscape labels simultaneously while sharing the
same feature extraction. For training we acquired a custom dataset consisting of 23.8h of high-quality
binaural audio data including five classes per label which are clearly distinguishable by humans. Using a
manual Grid Search method, we were able to optimize three models with respect to different complexity
metrics for choosing a trade-off between accuracy and throughput. CNNs were then post-quantized to 8-bit
which achieved an overall accuracy of 99.07% in the best case. After reducing the number of Multiply-
Accumulate (MAC) operations by a factor 154x and parameters by 18x, the classifier was still able to detect
scenes and soundscapes with an acceptable accuracy of 94.82% which allows real-time inference at the edge
on discrete low-cost hardware with a clock speed of 10 MHz and one inference per second.
A critical assessment of lifecycle emission estimation methods including the impact of circularity approaches :A case study analysis of beverage cup materials.
Name that can easily go onto 2 lines
Author that can easily go onto 2 lines as well
Titel
A critical assessment of lifecycle emission estimation methods including the impact of circularity approaches :A case study analysis of beverage cup materials.
Die Ermittlung von Lebenszyklusemissionen hat in letzter Zeit deutlich an Bedeutung gewonnen. Die Ansätze zur Durchführung dieser Ökobilanzen müssen noch verbessert werden, um die Zuverlässigkeit und Vergleichbarkeit der erzielten Ergebnisse zu gewährleisten. Zusätzlich haben die Ansätze und Indikatoren für die Kreislaufwirtschaft an Relevanz gewonnen. Desshalb wird der derzeitige Ansatz kritisch bewertet, inklusive einer Fallstudie über Einweg-Plastikbecher, um die Praktikabilität und die Grenzen der bestehenden Methoden zu untersuchen. Es wurde festgestellt, dass die Bandbreite der Ergebnisse vor allem auf unterschiedliche Annahmen und Systemgrenzen zurückzuführen ist. Um dieses Problem zu lösen, wurde der Bedarf an standardisierten Frameworks festgestellt. Dies führte zur Formulierung von Best Practices für künftige Bewertungen von Einwegplastikbechern und die Anwendung von Indikatoren für zirkuläre Prozesse.
The assessment of life cycle emissions has recently gained significant importance. The approaches to conducting these life cycle assessments still need improvement to ensure the reliability and comparability of the obtained results. Additionally, the circularity approaches and metrics have gained increased attention. This thesis critically evaluates the current framework, including a case study on single-use plastic cups, to examine the practicality and limitation of the existing methodologies. The key issues that drive the range within the results were found to be differing assumptions and system boundaries within the same assessment framework. To address this issue, the need for standardised frameworks has been identified. It has led to the formulation of best practices for future assessments aimed at single-use plastic cups and the application of circular metrics. By integrating stricter rules and defined approaches, the reliability and comparability of future life cycle assessment results can be improved and contribute towards a more reliable and widespread use of sustainability practices within the industry.
Der Entwurf einer Brücke erfordert ein hohes Mass an Kreativität verknüpft mit einem breiten
Fachwissen. Nur so lässt sich ein ganzheitlich funktionierendes, ästhetisch ansprechendes und
trotzdem ökonomisch und ökologisch sinnvolles Tragwerk entwickeln. Viele Faktoren wie die
Randbedingungen, geometrische Anordnungen, Steifigkeiten und Materialität haben Einfluss auf den
Entwurf und sind oft direkt oder indirekt miteinander verknüpft und beeinflussen sich gegenseitig. Ein
Entwurf ist somit ein stark iterativer Prozess, wobei eine perfekte Lösung nicht existiert, es aber
trotzdem erwünscht ist, ein der Ideallösung nahes Resultat zu erhalten.
Die vorliegende Arbeit folgt im Grundsatz den Projektphasen gemäss der SIA Norm 260. Das Ziel
dabei ist es, eine alternative Variante zur bereits bestehenden Chinegga-Brücke zu entwerfen.
Das Kapitel 2 beinhaltet die Grundlage des Entwurfs in Form einer Nutzungsvereinbarung. Darin
enthalten sind die wichtigsten Randbedingungen und Anforderungen an das zu planende Bauwerk.
Im Kapitel 3 wird eine Variantenstudie durchgeführt. Vorgängig werden die Randbedingungen und
Bewertungskriterien für die Varianten analysiert und diskutiert. Anschliessend werden vier
unterschiedliche Brückenstrukturen aufgezeigt: Ein Durchlaufträger im Freivorbau, eine
Sprengwerkbrücke, eine Bogenbrücke mit untenliegendem Tragwerk und eine Schrägkabelbrücke.
Dabei werden jeweils die Linienführung, die Haupttragstruktur, das Bauverfahren und die wichtigsten
Querschnitte aufgezeigt. Der Abschluss des Kapitels beinhaltet die Diskussion der Varianten und eine
begründete Wahl des Tragwerkes: Die Brücke soll mit einem Bogentragwerk durchgeführt werden.
Im vierten Kapitel ist anschliessend das gewählte Tragwerk der Bogenbrücke als erstes zu optimieren
und anzupassen. In der Linienführung, sowie in der Geometrie des Bogens und der Anordnung der
Stützen sind noch Verbesserungen vorzunehmen. Da eine Brücke stark abhängig vom Bauverfahren
ist, werden im Entwurf auch die Bauphasen und die Verfahrenstechniken untersucht und
anschliessend gewählt. Sobald die Lagerung der Brücke definiert ist, können mit den festgelegten
Feldlängen und Bogengeometrien die Querschnittsabmessungen bestimmt werden. Die Fahrbahn
wird als Spannbeton geplant, wozu hier auch ein Vorspannkonzept entwickelt wird.
Das fünfte Kapitel beinhaltet einige Nachweise im Grenzzustand der Tragsicherheit sowie der
Gebrauchstauglichkeit. Der Fahrbahnträger und der Bogen werden an den massgebenden Stellen auf
Biegung bemessen, wobei auch die Bogenstabilität miteinbezogen wird. Im Fahrbahnträger wird
zudem ein Querkraftnachweis erbracht. Ein weiterer Nachweis wird im Grenzzustand der
Gebrauchstauglichkeit geführt. Es wird eine Vorlandstütze auf ihr Verformungsvermögen überprüft.
Abrundend zu den Nachweisen werden Hinweise zur konstruktiven Durchbildung am
Verbindungspunkt zwischen Stütze und Fahrbahn gemacht.
Abschliessend werden im Kapitel 6 die Arbeit zusammengefasst und die Erkenntnisse und
Folgerungen aufgezeigt.
The design of a bridge requires a high degree of creativity combined with broad expertise. Only in
this way a holistically functioning, aesthetically pleasing and yet economically and ecologically
sensible structure can be developed. Many factors such as the boundary conditions, geometric
arrangements, stiffnesses and materiality have an influence on the design and are often directly or
indirectly linked and influence each other. A design is thus a highly iterative process, where a perfect
solution does not exist, but it is still desirable to obtain a result close to the ideal solution.
In principle, the present work follows the project phases according to the SIA standard 260. The aim
here is to design an alternative variant to the already existing Chinegga-Bridge.
Chapter 2 contains the basis of the design in the form of a user agreement. This contains the most
important boundary conditions and requirements for the structure to be designed.
In chapter 3, a variant study is carried out. First, the boundary conditions and evaluation criteria for
the variants are analyzed and discussed. Subsequently, four different bridge structures are
presented: a continuous girder in free cantilever construction, a rigid-frame bridge, an arch bridge
with the supporting structure below, and a cable-stayed bridge. In each case, the street-alignment,
the main support structure, the construction method and the main cross sections are shown. The
chapter concludes with a discussion of the variants and a justified choice of the supporting structure:
the bridge is to be built with an arched supporting structure.
In the fourth chapter, the selected structure of the arch bridge is to be optimized and adapted first.
Improvements are still to be made in the alignment, as well as in the geometry of the arch and the
arrangement of the supports. Since a bridge is strongly dependent on the construction method, the
construction phases and the process techniques are also examined in the design and subsequently
selected. Once the bearing of the bridge is defined, the section dimensions can be determined with
the field lengths and arch geometries established. The carriageway is planned as prestressed
concrete, for which a prestressing concept is also developed here.
The fifth chapter contains some verifications in the ultimate limit state and the serviceability limit
state. The carriageway girder and the arch are designed for bending at the relevant points, whereby
the arch stability is also included. In addition, a shear force check is performed in the carriageway
girder. A further check is performed in the serviceability limit state. The deformation capacity of an
edge support is checked. To round off the verifications, information is provided on the design of the
connection point between the column and the carriageway.
Finally, chapter 6 summarizes the work and highlights the findings and conclusions.
In der Bildverarbeitung sind neuronale Netze aufgrund ihrer hohen Klassifikationsgenauigkeit kaum mehr
wegzudenken. Obschon der hohe Berechnungsaufwand solcher Netze zu verringern versucht wird, verhindert
die stark limitierte Rechenleistung bei eingebetteten low-power Systemen nach wie vor die Ausführung moderner
CNN-Netze in Echtzeit. Die vorliegende Arbeit präsentiert BinArray, einen Hardware-Beschleuniger
der auf Basis von binär-approximierten CNNs (BACNNs) einen anwendungsspezifischen Kompromiss
zwischen der Genauigkeit, dem Ressourcenverbrauch und der Rechenkomplexität des Netzes erlaubt. Die
systolische Array-Architektur ist skalierbar für verschiedene Grössen von BACNNs, von kleineren GTSRBCNNs
bis zu grossen MobileNets. Die Arbeit zeigt, dass die Beschleunigung durch BinArray auf einem
Xilinx Zynq FPGA ohne Genauigkeitsverlust einen Durchsatz von 92.1 FPS ermöglicht, verglichen mit 7.9
FPS auf einem Mikrokontroller. Der Logikverbrauch liegt dabei unter 2% bei einem mittelgrossen FPGA.
Deep Convolutional Neural Networks (CNNs) have become indispensable for computer vision tasks due to
their high accuracy. While large efforts are made to confine the high computational costs of CNNs, low
power embedded devices struggle to achieve a real-time frame rate. In this work, we present BinArray, a
hardware accelerator for Binary Approximated Convolutional Neural Networks (BACNNs), which provide a
configurable trade-off between accuracy and complexity. BinArray translates this trade-off into a task
specific compromise between area, throughput and accuracy depending on the given constraints. Its Systolic
Array (SA)-architecture is scalable for different sizes of BACNNs ranging from a GTSRB CNN to large
MobileNets. We implemented BinArray on a Xilinx Zynq FPGA. Without loosing accuracy, an accelerated
BACNN achieves a throughput of up to 92.1 FPS on GTSRB compared to a CPU with only 7.9 FPS.
BinArray accomplishes this while using less than 2% of the logic available on a mid-sized FPGA.
Rapid urbanization and the increasing environmental footprint of urban areas have resulted in recognising the
importance of cities in achieving environmental targets. Certification schemes, such as the Energiestadt label,
start becoming more common and provide guidance for local level action. Energiestadt specifically, certifies
cities and municipalities which commit to a sustainable energy and climate policy. By now, the label is wellestablished
and it currently counts more than 460 certified cities in Switzerland. The thesis investigates the
overall structure of Energiestadt label and critically analyses the effectiveness of its indicators by assessing
three areas: the design of the indicators’ system and how this compares to other similar labels; the alignment
of the indicators with the national strategy; and the performance of a municipality against certain
Energiestadt indicators. The results suggest that the label’s indicators are well-aligned with the direction of
the national energy strategy. However, improvements can be made with respect to the number of qualitative
indicators, as well as the way the label assesses municipalities which are more advanced with regard to their
energy and climate policy.
Wasser ist für unsere Existenz von grundlegender Bedeutung und ist durch das steigende
Bevölkerungswachstum, Urbanisierung, Agrarwirtschaft und den Klimawandel zunehmend unter Druck
geraten; all dies wirkt sich auf die Quantität und Qualität unserer Wasserressourcen aus. Die Forschung hat
gezeigt, dass die Wasserversorgungsunternehmen vor Herausforderungen bei der Bereitstellung von
sauberem, sicherem Trinkwasser stehen angesichts einer alternden, kostspieligen Infrastruktur, eines
Wasserpreises, der seinen wahren Wert nicht widerspiegelt, und der Belastbarkeit in einer Zeit, in der die
Gefahr von Überschwemmungen und Dürren allgegenwärtig ist. Mit dem weit verbreiteten linearen Ansatz
der Take-Use-Discharge kann unsere Wasserressourcen nicht länger erhalten, wenn das Abwasser nur
aufbereitet wird, um in die Wasserstraßen zurückgeleitet zu werden (in einigen Fällen verschmutzen sie) und
vor dem Trinken erneut zur Aufbereitung extrahiert zu werden. Dieses lineare Modell ist kostspielig,
energieintensiv und umweltschädlich. Die Kreislaufwirtschaft hat in der Wasserindustrie mehr
Aufmerksamkeit erhalten, um diesen Teufelskreis durch die Schließung von Wasserkreisläufen zu
durchbrechen. Diese Studie bietet eine systemische Sicht auf die Kreislaufwirtschaft im Wasser, indem sie
fragt: Welche wirtschaftlichen und betrieblichen Systemeffekte hat die Kreislaufwirtschaft auf die
Wasserversorgungsunternehmen? In diesem Zusammenhang geht die Kreislaufwirtschaft von der Ellen
MacArthur-Definition als ein industrielles System aus, das durch Absicht und Gestaltung wiederherstellend
oder regenerativ ist. Sie ersetzt das "End-of-Life"-Konzept durch Restauration, verlagert sich auf die Nutzung
erneuerbarer Energien, eliminiert die Verwendung toxischer Chemikalien, die die Wiederverwendung
beeinträchtigen und zielt auf die Beseitigung von Abfall durch die überlegene Gestaltung von Materialien,
Produkten, Systemen und, innerhalb dieses Rahmens, von Geschäftsmodellen ab.
Auf der Grundlage einer Literaturübersicht wird eine ökonomische Sichtweise des städtischen
Wassersystems qualitativ modelliert, auf die mit zusätzlichem Input aus Experteninterviews und Fallstudien
ein Kreislaufwirtschaftssystem modelliert wird. Es wurde festgestellt, dass die Digitalisierung, die
Wasserwiederverwendung und die Rückgewinnung von Ressourcen die wichtigsten Instrumente sind, die die
Kreislaufwirtschaft im Wassersektor unterstützen und durch Effizienz und ein gesteigertes Ertragspotenzial
überzeugende betriebliche Vorteile bieten. Allerdings verlangsamen Fragen der Investitionen, der nicht
kostendeckenden Wasserpreisgestaltung und ein fehlender rechtlicher Rahmen die Akzeptanz. Auf dieser
Grundlage wird die Kreislaufwirtschaft sowohl als Herausforderung als auch als Chance für die
Wasserindustrie gesehen. Es wird empfohlen, die Wassertarifstrukturen neu zu gestalten. Da zirkuläre
Lösungen kontextspezifisch sind, werden weitere Untersuchungen erforderlich sein, um das
Systemverhalten unter Berücksichtigung des lokalen Kontextes quantitativ besser zu
verstehen.
Water is fundamental to our existence and has increasingly been put under pressure by
soaring population growth, urbanisation, agricultural farming and climate change; all of
which impact the quantity and quality of our water resources. Research has shown that
water utilities are faced with challenges in providing clean safe drinking water against a
backdrop of an ageing costly infrastructure, a price of water that is not reflective of its true
value and remaining resilient in a time when the threats of floods and droughts are
pervasive. The widely practiced, linear take-use-discharge approach no longer can sustain
our water resources where wastewater is treated only to be returned to waterways (in some
cases polluting them) and extracted again for treating before drinking. This linear model is
costly, energy intensive and environmentally unsound. Circular economy has been getting
more attention in the water industry to tackle this vicious cycle by closing water loops. This
study provides a systemic view on circular economy in water by asking: What are the
economic and operational system effects of a circular economy on water utilities? In this
context, circular economy assumes the Ellen MacArthur definition as an industrial system
that is restorative or regenerative by intention and design. It replaces the ‘end-of-life’
concept with restoration, shifts towards the use of renewable energy, eliminates the use of
toxic chemicals, which impair reuse, and aims for the elimination of waste through the
superior design of materials, products, systems, and, within this, business models.
Based on a review of literature an economic view of the urban water system is qualitatively
modelled, on top of which a circular water economy system is modelled with additional
input from expert interviews and case studies. It was found that digitalisation, water reuse
and resource recovery are the key tools underpinning circularity in water, providing
compelling operational benefits through efficiencies and a boost in revenue generating
potential. However, issues of investment, non-cost reflective water pricing and a missing
enabling legal framework are slowing their rate of uptake. On this basis circular economy is
seen to represent both a challenge and an opportunity for the water industry. It is
recommended that water tariff structures be redesigned. Given that circular solutions are
context-specific further research is needed to better understand the system behaviour
quantitatively taking into consideration the local context.
Die vorliegende Arbeit befasst sich mit der Umsetzung eines Bewertungsverfahren für den Vergleich von
Energiemanagementsystemen zur Eigenverbrauchsoptimierung (EMS). Sie ist der dritte und letzte Teil
meiner Masterarbeit, in der dieses Bewertungsverfahren entwickelt wurde.
Ein EMS optimiert den Eigenverbrauch, indem es Verbraucher dann einschaltet, wenn die PV-Anlage mehr
Energie produziert als das Gebäude verbraucht. Umgekehrt schaltet das EMS Verbraucher aus, wenn Energie
vom Netzbetreiber gekauft werden muss.
Der Markt für EMS ist in der Schweiz noch jung und verändert sich laufend. Das macht es schwierig den
Überblick zu behalten. Mit dem Bewertungsverfahren sollen die EMS unter jeweils gleichen und
reproduzierbaren Bedingungen geprüft werden können. Die Testergebnisse sollen die Auswahl eines EMS
erleichtern.
Das Bewertungsverfahren beschränkt sich auf EMS, die für den Einsatz in Einfamilienhäusern vorgesehen
sind. Geprüft wird, wie hoch der Eigenverbrauchsanteil und der Autarkiegrad ausfallen. Die Energiekosten
werden ebenfalls berechnet.
In der Arbeit werden die Modelle der Verbraucher und der PV-Produktion zuerst theoretisch beschrieben und
dann in der Simulationssoftware Simulink umgesetzt. Das EMS wird als «Hardware in the Loop» in den
Prüfaufbau eingebaut.
Bei der Umsetzung der Schnittstellen S0 und UDP sind einige Probleme aufgetaucht, die im Rahmen dieser
Arbeit nicht mehr behoben werden konnten.
Mit dem Referenzablauf (Simulation ohne EMS) konnte das Bewertungsverfahren trotzdem getestet werden.
Darin konnten auch alle Modelle umgesetzt werden.
Die Resultate lassen darauf schliessen, dass dieses Bewertungsverfahren funktioniert und dass die EMS so
geprüft und bewertet werden können.
This paper presents the implementation of an assessment method for the comparison of energy management
systems for self-consumption optimization (EMS). It is the last of three parts in which this assessment
method was developed.
An EMS optimizes self-consumption by switching on consumers when the PV system produces more energy
than the building consumes or switches them off when energy has to be purchased from the network operator.
The EMS market in Switzerland is still young and constantly changing. That makes it difficult to keep track
of things. This evaluation procedure allows testing of various EMS under the same and reproducible
conditions. This simplifies the selection of the most suited EMS for the PV system.
The assessment method is limited to EMS, which are intended for use in single-family homes. The method
checks the self-consumption share and degree of self-sufficiency. Furthermore, it calculates the energy costs.
This thesis describes the consumer models and PV production theoretically. In a later step these models are
implemented in a simulation using the software Simulink. The EMS is built into the test setup as «hardware
in the loop».
In the implementation of the interfaces S0 and UDP, problems occurred which could not be solved before the
deadline.
The reference process (simulation without EMS) could be used to test the assessment method. Furthermore,
all models could be implemented.
The result suggests that this assessment method works, and the EMS can be tested and assessed using this
method.
The use of digital tools for design is becoming a more common approach to engineering solutions. In many instances it is more cost effective than iterating laboratory measurement set-ups through estima-tion and trial and error. Numerical simulation software when properly applied helps to constrain the field of consideration by focusing resources on a starting point closer to the solution. However, numer-ically simulated physics is neither exact and results must be validated either by available theory and/or empirical measurement. This thesis utilizes numerical simulations with COMSOL Multiphysics and compares them with experimental measurements for a high-power heat exchanger. The development of the simulation and experimental set-up are described, and an outlook is offered based on results and observations. Future development is given by the author and CFS as recommendation for the continued research of this technology and its applications.
Abstract Deutsch fehlt
Urheberrechtshinweis
Beaufait Robert, Hochschule Luzern - Departement Technik & Architektur
Diese Arbeit enthält die allgemeine Prozessbeschreibung von der Erstellung und dem Lesen medizinischer Bilder (DICOM), der Segmentierung von Teilen des menschlichen Körpers auf der Grundlage dieser Bilder, der Auftragung von farbcodierten Informationen auf diese Modelle und der Verwendung der Modelle für den Mehrfarbendruck (4D) und weitere Anwendungsfälle. Die für alle diese Prozessschritte verwendeten Informationen sind patientenspezifisch oder könnten für patientenspezifische Komponenten verwendet werden.
This paper provides the overall process description from creating and reading of medical images (DICOM), the segmentation of parts of the human body based on those images, the application of color-coded information onto these models and the use of the models for multicolor (4D) printing and further use cases. All of these process steps and the information used are patient-specific or could be used for patient-specific components.
Urheberrechtshinweis
Rohrer Daniel, Hochschule Luzern - Departement Technik & Architektur
Bei agilen Innovationsprozessen liegt der Fokus oft beim Kunden und seinen Bedürfnissen. Mitbewerber
werden aber oft vernachlässigt. Diese Arbeit erforscht die Ursachen für die Vernachlässigung und untersucht
die Schwierigkeiten im Umgang mit Informationen über Mitbewerber. Dazu werden anhand des
Problemlösungszyklus des Systems Engineering die Untersuchungsfelder Theorie, Good Practice und
Situationsanalyse bei CKW erforscht. Diese breite Auseinandersetzung ermöglicht ein grundlegendes
Verständnis der Problemsituation und schafft so die Basis für die Lösungsfindung. Das Ziel dieser Arbeit
besteht schliesslich in der Definition eines agilen Frameworks, welches Innovatoren die Schwierigkeiten
abnehmen und den Nutzen von Mitbewerberinformationen aufzeigen soll. Das Design Thinking-
Vorgehensmodell ermöglichtes eine offene und explorative Vorgehensweise zur Lösungsfindung. Die
Lösung bildet schliesslich das Competitive Intelligence Toolbook, welches praxisorientiert aufzeigt, wie
Informationen über Mitbewerber schnell und effektiv zum eigenen Vorteil genutzt werden können.
In agile innovation processes, the focus is often on the customer and his needs. Competitors, however, are
often neglected. This thesis explores the reasons for this neglect and examines the difficulties in dealing with
information about competitors. For this purpose, the problem-solving cycle of systems engineering is used to
explore the fields of investigation theory, good practice and situation analysis at CKW. This broad
examination enables a fundamental understanding of the problem situation and thus creates the basis for
finding a solution. Finally, the goal of this work is to define an agile framework that will help innovators
overcome the difficulties and demonstrate the benefits of competitor information. Finally, the solution is the
Competitive Intelligence Toolbook, which shows in a practice-oriented way how information about
competitors can be used quickly and effectively to one's own advantage.