Dieses Projekt beschäftigt sich mit der Charakterisierung des Adsorptionsverhaltens dreier Stoffpaarungen
anhand von Adsorptionsisothermen. Dadurch soll ein Beitrag zur Quantifizierung der matrixbedingten
Übertragung von VOCs in Sorptionsrotoren geleistet werden. Dies ist erforderlich, um die Verwendung von
Sorptionsrotoren in kritischen Anwendungen mit hohen Anforderungen an die Luftreinheit zu ermöglichen.
Die Isothermen sollen im Rahmen einer experimentellen Untersuchung mit dem Sorptionsanalysator
MixSorb L® ermittelt werden. Bei den drei Stoffpaarungen handelt es sich um Isopropanol/AP4-60,
Toluol/H-MOR und Toluol/H-FAU.
Mit der Stoffpaarung IPA/AP4-60 wurden insgesamt sechs Messungen in drei unterschiedlichen
Konzentrationsbereichen durchgeführt. Anhand der Ergebnisse der experimentellen Untersuchungen konnte
eine Adsorptionsisotherme bei einer Temperatur von 30°C ermittelt und anhand von Literaturdaten validiert
werden. Aufgrund dessen konnte eine Einschätzung über die Menge an matrixbedingter Übertragung von
Isopropanol in einem mit AP4-60 beschichteten Sorptionsrotor getroffen werden.
Mit der Stoffpaarung TOL/H-MOR wurden drei Messungen in zwei Konzentrationsbereichen durchgeführt.
Aufgrund von fragwürdiger Plausibilität der Ergebnisse konnte jedoch keine Isotherme zur Charakterisierung
des Adsorptionsverhaltens ermittelt werden. Da aus Zeitgründen keine Messungen mit der Stoffpaarung
TOL/H-FAU durchgeführt wurden, konnte auch mit dieser Stoffpaarung keine Adsorptionsisotherme
ermittelt werden.
This project deals with the characterization of the adsorption behaviour of three substance pairings
using their adsorption isotherms. The goal is to contribute to the quantification of the matrix borne
carry over of VOCs in sorptionwheels. This is necessary to enable the use of sorption wheels in
critical applications with high requirements for air purity. The isotherms should be determined as part
of an experimental investigation using the sorption analyzer MixSorb L®. The three substance
pairings are Isopropanol/AP4-60, Toluene/H-MOR and Toluene/H-FAU.
With the substance pairing IPA/AP4-60 six measurements in three different concentration ranges
were conducted. Using the results of the experimental investigation an adsorption isotherm at a
temperature of 30°C could be determined. Based on the isotherm the amount of matrix born carry
over of isopropanol in a sorption wheel coated with AP4-60 could be approximated.
With the substance pairing TOL/H-MOR three measurements in two different concentration ranges
were conducted. Due to the questionable behaviour of the results, no isotherme to characterize the
adsorption behaviour could be determined. Because of time constraints no measurements were
conducted with the substance pairing TOL/H-FAU and no isotherme could be determined either.
Die Arbeit befasst sich mit der akustischen Erkennung von Aktivitäten in einem Haushalt mit dem Ziel, eine
Aktivierung von Assistenztechnologien in Smart Homes zu ermöglichen. Der Fokus lag dabei auf der
Erarbeitung von algorithmischen Grundlagen zur akustischen Erkennung von «Activities of Daily Living»
(ADL). ADL sind definierte Tätigkeiten, welche ein selbständiges Leben ermöglichen. Ziel war es
algorithmische Ansätze zur akustischen Erkennung von ADL zu recherchieren und für zwei spezifische ADL
zuverlässigen Algorithmen zur Erkennung zu erarbeiten und validieren. In Folge der Arbeiten wurde für die
ADL Toileting und Personal Hygiene Algorithmen entwickelt. Für die akustische Erkennung von Toileting
wurde das Geräusch der Spülung als charakteristisch gewählt und für Personal Hygiene wurde das Geräusch
der Dusche gewählt. Da es sich bei beiden Geräuschquellen um ortsgebundene Tätigkeiten handelt, die von
allen Menschen in einem vergleichbaren Rahmen getätigt werden. Als algorithmischer Ansatz für die
Erkennung wurden Convolutional Neural Network (CNN) trainiert.
This work deals with the acoustic recognition of activities in a household with the aim of enabling the
activation of assistive technologies in smart homes. The focus was on developing algorithmic foundations for
the acoustic recognition of "Activities of Daily Living" (ADL), which describe defined activities that enable
independent living. The goal was to research algorithmic approaches for the acoustic recognition of ADL and
to develop and validate reliable algorithms for two specific ADLs. As a result of the work, algorithms were
developed for ADLs related to toileting and personal hygiene. For the acoustic recognition of toileting, the
sound of flushing was chosen as characteristic, and for personal hygiene, the sound of the shower was
chosen. Since both sound sources involve location-based activities that are performed by all individuals in a
comparable context, Convolutional Neural Networks (CNNs) were trained as the algorithmic approach for
detection.
Die Arbeit befasst sich mit der akustischen Erkennung von Aktivitäten in einem Haushalt mit dem Ziel, eine
Aktivierung von Assistenztechnologien in Smart Homes zu ermöglichen. Der Fokus lag dabei auf der
Erarbeitung von algorithmischen Grundlagen zur akustischen Erkennung von «Activities of Daily Living»
(ADL). ADL sind definierte Tätigkeiten, welche ein selbständiges Leben ermöglichen. Ziel war es
algorithmische Ansätze zur akustischen Erkennung von ADL zu recherchieren und für zwei spezifische ADL
zuverlässigen Algorithmen zur Erkennung zu erarbeiten und validieren. In Folge der Arbeiten wurde für die
ADL Toileting und Personal Hygiene Algorithmen entwickelt. Für die akustische Erkennung von Toileting
wurde das Geräusch der Spülung als charakteristisch gewählt und für Personal Hygiene wurde das Geräusch
der Dusche gewählt. Da es sich bei beiden Geräuschquellen um ortsgebundene Tätigkeiten handelt, die von
allen Menschen in einem vergleichbaren Rahmen getätigt werden. Als algorithmischer Ansatz für die
Erkennung wurden Convolutional Neural Network (CNN) trainiert.
This work deals with the acoustic recognition of activities in a household with the aim of enabling the
activation of assistive technologies in smart homes. The focus was on developing algorithmic foundations for
the acoustic recognition of "Activities of Daily Living" (ADL), which describe defined activities that enable
independent living. The goal was to research algorithmic approaches for the acoustic recognition of ADL and
to develop and validate reliable algorithms for two specific ADLs. As a result of the work, algorithms were
developed for ADLs related to toileting and personal hygiene. For the acoustic recognition of toileting, the
sound of flushing was chosen as characteristic, and for personal hygiene, the sound of the shower was
chosen. Since both sound sources involve location-based activities that are performed by all individuals in a
comparable context, Convolutional Neural Networks (CNNs) were trained as the algorithmic approach for
detection.
Die vorliegende Bachelorarbeit analysiert die Performanz von Software-Containern, die auf dem Torizon-Betriebssystem laufen. Es wird das Torizon OS mit dem Board Support Package (BSP) in den Punkten Schreibgeschwindigkeit und Arbeitsspeicherauslastung verglichen. Die Resultate wurden über Testprogramme ermittelt, die sich nach einem realen Use Case orientieren. Torizon OS zeigt eine kleinere Schreibgeschwindigkeit im Vergleich zum BSP. Dabei ist der Unterschied bei kleinen Datengrössen höher als bei Grossen. Die Arbeitsspeicherauslastung eines Programms ist bei beiden Betriebssystemen identisch. Jedoch zeigt das System ohne Container eine kleinere Leerlaufauslastung. Da nebenläufige Prozesse die Schreibgeschwindigkeit negativ beeinflussen, kann der Einfluss des Containers nicht exakt bestimmt werden.
This bachelor thesis analyses the performance of software containers running on the Torizon operating system. The Torizon OS is compared with the Board Support Package (BSP) in terms of write speed and memory utilisation. The results were determined using test programmes based on a real use case. Torizon OS shows a lower write speed compared to the BSP. The difference is greater for small data sizes than for large ones. The memory utilisation of a program is identical for both operating systems. However, the system without containers shows a lower idle utilisation. As parallel processes have a negative impact on the write speed, the influence of the container cannot be determined exactly.
Diese Bachelor-Thesis untersucht den Einsatz von Reinforcement Learning unter Verwendung von
Stable Baselines3. Reinforcement Learning dient als Methode zur Regelung von Systemen mit
unbekannten Zustandsübergängen, insbesondere wenn ein zugrundeliegendes Modell fehlt und nur
eine Zielfunktion gegeben ist. Die Arbeit nutzt die Reinforcement-Learning-Algorithmen DQN, A2C
und PPO, um virtuelle Systeme wie z.B. das inverse Pendel zu steuern. Das angewendete Werkzeug
Stable Baselines3 basiert auf Python und bietet vorimplementierte Algorithmen und
Simulationsumgebungen. Die Arbeit konzentriert sich darauf, die Fähigkeit von Reinforcement
Learning zu untersuchen und stabile Regelungssysteme ohne bekanntes Modell einzulernen. Die
Ergebnisse zeigen, dass DQN, A2C und PPO mehrheitlich stabile Regelungen ermöglichen, wobei
Optimierungsmöglichkeiten mit längeren Einlernprozessen bestehen. Die Nutzung von Stable
Baselines3 für benutzerdefinierte Umgebungen wird ebenfalls untersucht und mit den Ergebnissen
der vorimplementierten Umgebungen verglichen. Die Arbeit schliesst mit der Erkenntnis, dass Stable
Baselines3 ein leistungsfähiges Werkzeug für Reinforcement-Learning-Anwendungen ist, betont
jedoch die Notwendigkeit einer umfangreichen Einarbeitung aufgrund anfänglicher Komplexität.
This bachelor thesis investigates the use of reinforcement learning using stable baselines3.
Reinforcement learning is used as a method to control systems with unknown state transitions,
especially when an underlying model is missing and only one objective function is given. The work
uses the reinforcement learning algorithms DQN, A2C and PPO to control virtual systems such as the
inverse pendulum. The applied tool Stable Baselines3 is based on Python and provides preimplemented
algorithms and simulation environments. The work focuses on investigating the ability
of reinforcement learning to learn stable control systems without a known model. The results show
that DQN, A2C and PPO provide mostly stable control, with optimization opportunities with longer
learning processes. The use of stable baselines3 for user-defined environments is also investigated
and compared with the results of the pre-implemented environments. The paper concludes that
Stable Baselines3 is a powerful tool for reinforcement learning applications, but emphasizes the need
for extensive training due to initial complexity.
Bei der Durchflusszytometrie werden grosse Mengen an Daten über die aktuelle Probe erzeugt. Um neue Erkenntnisse aus den Daten dieser Probe zu gewinnen, müssen diese anschliessend aufbereitet und analysiert werden.
Um die Aufbereitung und anschliessende Analyse der Daten möglichst effizient, gleich-zeitig aber auch an die aktuelle Situation angepasst durchführen zu können, wurde im Rahmen dieser Arbeit eine diagnostische Datenpipeline für die Verarbeitung und Ana-lyse von Durchflusszytometrie-Daten erstellt. Dazu standen diverse Datensätze sowie bereits geschriebener Analysecode zur Verfügung, der in die Datenpipeline integriert wurde. Die Datenpipeline kann in ihrem finalen Zustand unterschiedliche Daten korrekt einlesen, die Analyse gemäss dem vorgegebenen Workflow durchführen und die Er-gebnisse, die in Form von verschiedenen Datentypen vorliegen, abspeichern.
Um die Datenpipeline zu erstellen wurde der vorhandene Code analysiert und an-schliessend in kleinere Codestücke segmentiert. Die Segmentierung erfolgte gemäss eines Datenflussdiagramms, welches erarbeitet wurde und die einzelnen Komponen-ten der Datenpipeline sowie deren Schnittstellen aufzeigt. Anschliessend wurde die Datenpipeline gemäss der erarbeiteten Struktur in einer dafür spezialisierten Software «Apache NiFi» implementiert.
Die Datenpipeline konnte gemäss Vorgabe umgesetzt werden und ermöglicht in ihrem finalen Zustand eine einfache und effiziente Analyse der Durchflusszytometrie-Daten. Die Segmentierung des Codes ermöglicht es dem Benutzer zudem, eine individuelle Analyse, angepasst an den aktuellen Datensatz und die Bedürfnisse des Anwenders, durchzuführen.
During the flow cytometry process, large amounts of data are generated about the current sample that is being analyzed. To gain insights from the sample, this data must be preprocessed and analyzed afterwards.
To preprocess and analyze this data as efficiently as possible, but also individually adopted to the needs of its user, a diagnostic data pipeline was created as part of this project. For this purpose, at the beginning of this project, test datasets as well as anal-ysis code were available, which were integrated into the data pipeline. The data pipe-line reads in the test datasets, performs the analysis according to the specified work-flow and saves the results of the analysis which comes in many distinct types and forms.
To create the data pipeline, the existing code was analyzed and then segmented into smaller snippets of code. The segmentation was done according to a data flow diagram that was developed and which shows the individual components of the data pipeline as well as their interfaces. Subsequently, the data pipeline was implemented according to the developed structure within a specialized software.
The data pipeline has been implemented according to specifications and in its final state allows for simple and efficient analysis of the flow cytometry data. The segmen-tation of the code also allows the user to perform an individual analysis, according to the current data and what he or she wants to find out about it.
Das vorliegende Thesisbuch verbindet das Thesisprojekt mit der theoretischen Annäherung an die Thematik „Keeping what’s good“. Im Zentrum steht dabei die Umnutzung und Weiterentwicklung des Areals der ehemaligen Gelatinefabrik in Winterthur Grüze. Das Thesisbuch befasst sich mit der Kreation eines möglichen Zukunftsbildes der Garten- sowie der Industriestadt. Die Themen Stadt und
Dichte, Industrie und Nachhaltigkeit, Arbeiten und Wohnen stehen dabei im Fokus und sind eng miteinander verwoben. Dabei untersucht die Arbeit die Entwicklung eines neuen Bautypus mit Schwerpunkt auf dem Grüze Areal. Der stetige Bevölkerungsanstieg und die Urbanisierung in Winterthur erfordern innovative Ansätze für eine nachhaltige Stadtentwicklung.
Die Studie beginnt mit der Analyse des historischen Kontextes der Gelatinefabrik. Des Weiteren werden die heutigen Herausforderungen des Klimawandels und die Notwendigkeit zukunftsorientierte Lösungen untersucht. Wie viele andere Städte in der Schweiz ist auch Winterthur von steigenden
Temperaturen und dem Weichen von Grünflächen infolge der immer dichter werdenden gebauten
Umwelt betroffen. Um diesen Problemen entgegenzuwirken hat die Stadt einen Rahmenplan entwickelt, der eine hohe Lebensqualität der Winterthurer gewährleistet. Darüber hinaus spielt das vom Bund propagierte Konzept der 2000-Watt-Gesellschaft eine wichtige Rolle. Die Arbeit unterstreicht die Bedeutung einer gemischten Nutzung, einschliesslich von Industrie- und Wohngebieten, bei der Entwicklung von neuen Quartieren. Das Konzept der Gartenstadt, das ein harmonisches Verhältnis zwischen Wohnen, Arbeiten und Freizeit betont, dient als Inspiration für die Neugestaltung. Durch die
Kombination von historischen Erkenntnissen, klimatischen Überlegungen und städtebaulichen
Strategien wird mit dieser Arbeit ein neuer Bautypus für Winterthur manifestiert. Die Typologie zielt darauf ab, eine nachhaltige Umgebung zu schaffen, die die Industrie miteinbezieht, den sozialen
Austausch fördert und den Herausforderungen des Klimawandels begegnen kann. Das Projekt, eng verknüpft und in einer Wechselwirkung mit dem Thesisbuch, soll neue Konzepte und Denkweisen
aufzeigen und einen Prototyp, ein neues Stück Stadt, ein Zukunftsbild formen.
Die vorliegende Arbeit untersucht die Konzeption einer flexiblen Struktur, die im Buch als "intelligente Ruine" bezeichnet wird und eine dauerhafte Verbindung mit dem Grundboden eingeht. Besonderen Wert wird auf den Erhalt des bestehenden Gebäudebestands gelegt, wobei drei Strategien entwickelt werden, um angemessen mit diesem Bestand umzugehen. Durch die Verknüpfung von Alt und Neu sowie die Konzeption der intelligenten Ruine stellt das vorliegende Thesisprojekt eine mögliche Antwort auf die aktuellen Herausforderungen unserer Zeit dar. Das Buch ist in drei Kapitel unterteilt, die jeweils die Herangehensweise des Thesisprojektes repräsentieren: Begegnen, Erhalten und Weiterbauen. Im Kapitel "Begegnen" wird der Standort und insbesondere die Gelatinefabrik näher beleuchtet. Im zweiten
Kapitel, "Erhalten", wird erörtert, warum der Erhalt und die Weiterentwicklung eines Gebäudes massgeblich sind. Dabei werden sowohl Argumente aus dem Bereich des nachhaltigen Bauens als auch das Recht auf Erinnerung berücksichtigt. Im dritten Teil stützt sich die Arbeit auf zwei Referenzen: die Baustellenbilder von Rudolf Maeglin und der Fun Palace von Cedric Price. Aus den Referenzen wächst anschliessend die "intelligente Ruine". Dabei werden auch Themen wie die urbane Zukunft, die Öffnung der Gelatinefabrik und wandelbares Wohnen berücksichtigt. Die Erkenntnisse aus diesen beiden
Kapiteln werden abschliessend in Form des Thesisprojektes präsentiert und erläutert.
Diese Bachelorarbeit fokussierte sich auf die Entwicklung und Integration eines Machine Learning-Modells, WakeupTriggerConvLSTM2s, für die Triggerwort-Erkennung in iOS-Apps. Sie umfasste die Erstellung eines ethischen Datensatzes, das Training des Modells mit PyTorch und die App-Entwicklung in Objective-C und Swift.