Diese Studie analysierte Geschäftsmodelle in der Gaming-Industrie, fokussiert auf die Auswirkungen der
Blockchain-Technologie auf Videospielpublisher und Spieler. Sie stellt sich der Herausforderung, ein
Geschäftsmodell-Framework zu entwerfen, das Tokenomics integriert, um das Engagement der Spieler zu
steigern und gleichzeitig attraktive Umsatzmöglichkeiten für Publisher zu schaffen.
Frühere Studien haben das Potenzial der Blockchain-Technologie hervorgehoben, jedoch auch
Schwierigkeiten aufgezeigt, die bei der Ausbalancierung neuer Monetarisierungsstrategien der Hersteller mit
der Wahrung der Spielintegrität bestehen.
Die Studie nutzt eine Kombination aus Literaturrecherche, Experteninterviews und Prototyping,
einschliesslich einer Fallstudie mit einer tokenisierten Version des Spiels World of Warcraft. Die
Forschungsmethodik beinhaltet die Analyse sich entwickelnder Umsatzmodelle, die Klassifizierung von
Spielgenres und die Geschäftsmodelle der Publisher. Mittels Prototyping wurden verschiedene Tiefen der
Asset-Tokenisierung und Spielerpräferenzen getestet.
Zu den Ergebnissen zählen die Entwicklung von zwei Frameworks: ein Geschäftsmodell-Framework für
Publisher und ein Tokenisierungs-Framework. Diese Frameworks bieten Strategien für die Integration der
Blockchain in Geschäftsmodelle von Videospielen.
Ein wesentlicher Erkenntnisgewinn der Studie ist die Präferenz der Spieler für den Handel mit kosmetischen
Items, was auf eine Tiefe der Tokenisierung hindeutet, die das Spielerlebnis verbessert, ohne das
Spielgleichgewicht zu beeinträchtigen. Es betont die Wichtigkeit eines spielerzentrierten Ansatzes, der Fair
Play und Fähigkeiten gegenüber finanziellen Chancen priorisiert.
This study analysed gaming business models, focusing on the integration of blockchain technology and its
impact on video game publishers and players. It addresses the challenge of designing a business model
framework that incorporates tokenomics to enhance player adoption and retention, while providing attractive
revenue opportunities for publishers.
Previous research has highlighted the potential of blockchain but also indicated challenges in balancing
monetization strategies and gameplay integrity.
The study employs a mix of literature review, expert interviews, and prototyping, with a case study involving
a tokenized version of the game World of Warcraft. The research methodology includes the analysis of
evolving revenue models, game genre classification, and the transformation of publishers’ business models.
Prototyping is used to test various levels of asset tokenization and player preferences.
Findings include the development of two frameworks: a publisher business model framework and a
tokenization framework. These frameworks provide strategies for incorporating blockchain into gaming
business models.
A significant insight is the preference among players for trading cosmetic items, indicating a tokenization
level that improves player experience without disrupting the game balance. It highlights the importance of a
player-centric approach, prioritizing fair play and skill over financial opportunities.
Küchengriffbeschichtungen sind bis zu 20 Jahre lang täglich mechanischem und chemischem
Verschleiss ausgesetzt. Langlebige Griffe in verschiedenen Formen und Farben müssen kompetitiv
angeboten werden. Lieferanten kommunizieren wenige Qualitätsmerkmale, meist ohne Toleranzen
und die Möbelindustrie Normen beziehen sich vorwiegend auf Paneele. Griffe mit geprüfter Qualität
zu finden ist eine Herausforderung. In dieser Thesis werden Griffarten, Materialien, Normen
Beschichtungen und Qualitätsmerkmale mit Literatur und Interviews untersucht und 6 Tests wurden
an gängigen Griffen durchgeführt. Die Ergebnisse zeigen auf, wie verbunden Qualitätsmerkmale sind.
Grosse Unterschiede in Beschichtungsdicke (12-70 μm), Farbdistanz (ΔE > 3) und Härte (26-106 HV)
wurden gemessen, welche korrelierten. Einlagiges Nasslackieren bedeckt das Substrat oft nicht
vollständig und die gemessene Härte ist eine Mischung aus Lack und Substrat, je nach Schichtdicke.
Gealterter Lack wurde härter als das Substrat und schnitt im Gitterschnitttest viel schlechter ab. Die
Tests zur chemischen Beständigkeit und Rauheit haben nicht korreliert. Die Langlebigkeit lässt sich
durch die Tests nur indirekt beurteilen, künstliches Altern sollte dafür in Betracht gezogen werden.
Kitchen handle coatings are exposed to mechanical and chemical wear, daily for up to 20 years.
Durable handles in various shapes and colours need to be offered with competitive prices. Suppliers
specify few quality characteristics, mostly without tolerances and furniture industry norms focus on
panels. Finding handles with tested coating quality and durability is challenging. In this thesis, handle
types, materials, coatings, quality characteristics, failures and norms are explored through literature
and interviews and 6 tests were performed on popular handles. The results demonstrate how
interlinked quality characteristics are. Large ranges in coating thickness (12-70 μm), colour distance
(ΔE > 3) and hardness (26-106 HV) were observed, which all correlated. Single layer wet-lacquering
does often not fully cover the substrate colour and the measured hardness is a blend of coat and
substrate hardness, depending on coat thickness. Aged coats got harder than the substrate and
performed much worse in the cross-cut test. The chemical resistance and surface roughness tests
provided no correlations. Most tests address longevity only indirectly, thus artificial ageing should be
additionally considered.
Begrünte Dächer spielen eine wichtige Rolle bei der Eindämmung der städtischen Hitze, der Regenwasserbewirtschaftung und der Förderung der biologischen Vielfalt. Begrünte Dächer bieten einen deutlichen Vorteil bei der Wärmeregulierung, was durch niedrigere Infrarot-Sensormessungen auf begrünten Dachflächen (Büsche und Gras) im Vergleich zu Betondachflächen belegt wird. Zur Messung der Oberflächentemperatur wurden drei verschiedene Sensoren verglichen, nämlich IR (Infrarot), ch0 (Kanal 0, Kontaktsensor horizontal (auf der Oberfläche)) und ch1 (Kanal 1, Kontaktsensor vertikal (im Boden (1cm))). Von diesen drei Messmethoden ist IR die beste Wahl für die Messung der Oberflächentemperatur auf Gründächern, da sie den höchsten durchschnittlichen Korrelationsfaktor aufweist und die tatsächliche Oberflächentemperatur des Gründachs in Mendrisio, Tessin, genau wiedergibt. Zusammenfassend lässt sich sagen, dass begrünte Dächer eine vielschichtige Lösung mit positiven Auswirkungen auf die städtische Umwelt darstellen, indem sie die Hitze abmildern, das Regenwassermanagement verbessern und die biologische Vielfalt fördern.
Übersetzt mit DeepL.com
Green roofs play a vital role in mitigating urban heat, managing stormwater and enhance biodiversity. Green roofs offer a distinct advantage in heat mitigation, demonstrated by lower infrared sensor measurements on vegetated roof (bush and grass) regions compared to concrete roof surfaces. For measuring the surface temperature, three different sensors were compared, namely IR (Infrared), ch0 (Channel 0, contact sensor horizontal (on the surface)) and ch1 (Channel 1, contact sensor vertical (in the soil (1cm)). Of the three, IR emerges as the optimal choice for measuring surface temperature on green roofs due to its highest average correlation factor, accurately reflecting the true surface temperature of the green roof present in Mendrisio, Ticino. In conclusion, green roofs offer a multifaceted solution with positive impacts on urban environments, addressing heat mitigation, stormwater management, and biodiversity enhancement.
In dieser Thesis wird das Verhalten von Gebäuden im instationären Zustand anhand eines vereinfachten
Simulationsmodells analysiert und mit WUFI Plus verglichen. Es wurde ein Excel-Modell zur Überwachung
der jährlichen Innentemperaturen erstellt. Das vereinfachte Modell stimmt in der Tendenz mit WUFI Plus
überein, es bestehen jedoch leichte Amplitudenunterschiede. Dies deutet darauf hin, dass das vereinfachte
Tool trotz der Einschränkungen bei der genauen Berechnung der Sonneneinstrahlung und der fehlenden
hygrothermischen Effekte für die tägliche Planung von kleineren Gebäuden geeignet ist. Für eine breitere
Anwendbarkeit sind Erweiterungen unabdingbar.
This study analyses the behaviour of non-steady state buildings using a simplified simulation model and
compares it to WUFI Plus. An Excel model was created to monitor yearly interior temperatures. The
simplified model closely aligns with WUFI Plus in trend, but slight amplitude differences exist. This suggests
the simplified tool's potential practicality for daily planning of smaller buildings, despite limitations in
accurately calculating solar radiation and lacking hygrothermal effects. Enhancements are crucial for broader
applicability.
ARTEMIS ist ein Programm der NASA und ESA, mit dem Ziel, bemannte Missionen und Experimente
auf dem Mond durchzuführen. Eines der Experimente ist der Bioplastik Reaktor, mit dem untersucht
werden soll, wie Plastik und Carbonfasern während Weltraumexpeditionen hergestellt werden
können. Die vorliegende Arbeit befasst sich mit der thermodynamischen Stabilität dieses Systems,
welches eine Temperatur von 27 ± 1.5 °C über einer Missionsdauer von 170 Tagen einhalten muss.
Der Fokus dieser Arbeit liegt darin, die Umgebungsbedingungen auf dem Mond zu untersuchen und
drei thermische Kontroll-Systeme zu entwickeln. Um die Konzepte über die ganze Missionsdauer zu
validieren, wird eine Simulationssoftware verwendet, welches die Systeme thermisch abbildet. Es
wurden drei Ansätze gefunden, die verschiedene Materialien und Methoden verwenden, um die
Anforderung zu erfüllen. Die Konzepte sind thermisch von der Mondoberfläche entkoppelt und führen
die Wärme jeweils über einen Radiator ab. Es wurde der Ansatz verwendet, ein möglichst passives
System zu entwickeln, dass im Anschluss mit Heizelementen reguliert werden kann. Es wurde
ebenfalls festgestellt, dass Mondstaub ein grosser Risikofaktor darstellt, der das System
beeinträchtigt und dringend weiterverfolgt werden muss.
ARTEMIS is a NASA and ESA programme with the aim of carrying out manned missions and
experiments on the moon. One of the experiments is the bioplastic reactor, which is intended to
investigate how plastics and carbon fibres can be produced during space expeditions. This thesis
deals with the thermodynamic stability of the reactor, which must maintain a temperature of 27 ±
1.5°C over a mission duration of 170 days. The focus of this work is to investigate the environmental
conditions on the moon and to develop three thermal control systems. In order to validate the
system over the entire mission duration, simulation software is used to model the system thermally.
Three approaches were found that use different materials and methods that meet the temperature
requirement. The concepts are thermally decoupled from the lunar surface and dissipate the heat via
a radiator. The approach used was to develop a system that is as passive as possible and can then
be regulated with heating elements. It was also established that moon dust is a major risk factor that
impairs the system and urgently needs to be pursued further.
Dieses Projekt beschäftigt sich mit der Charakterisierung des Adsorptionsverhaltens dreier Stoffpaarungen
anhand von Adsorptionsisothermen. Dadurch soll ein Beitrag zur Quantifizierung der matrixbedingten
Übertragung von VOCs in Sorptionsrotoren geleistet werden. Dies ist erforderlich, um die Verwendung von
Sorptionsrotoren in kritischen Anwendungen mit hohen Anforderungen an die Luftreinheit zu ermöglichen.
Die Isothermen sollen im Rahmen einer experimentellen Untersuchung mit dem Sorptionsanalysator
MixSorb L® ermittelt werden. Bei den drei Stoffpaarungen handelt es sich um Isopropanol/AP4-60,
Toluol/H-MOR und Toluol/H-FAU.
Mit der Stoffpaarung IPA/AP4-60 wurden insgesamt sechs Messungen in drei unterschiedlichen
Konzentrationsbereichen durchgeführt. Anhand der Ergebnisse der experimentellen Untersuchungen konnte
eine Adsorptionsisotherme bei einer Temperatur von 30°C ermittelt und anhand von Literaturdaten validiert
werden. Aufgrund dessen konnte eine Einschätzung über die Menge an matrixbedingter Übertragung von
Isopropanol in einem mit AP4-60 beschichteten Sorptionsrotor getroffen werden.
Mit der Stoffpaarung TOL/H-MOR wurden drei Messungen in zwei Konzentrationsbereichen durchgeführt.
Aufgrund von fragwürdiger Plausibilität der Ergebnisse konnte jedoch keine Isotherme zur Charakterisierung
des Adsorptionsverhaltens ermittelt werden. Da aus Zeitgründen keine Messungen mit der Stoffpaarung
TOL/H-FAU durchgeführt wurden, konnte auch mit dieser Stoffpaarung keine Adsorptionsisotherme
ermittelt werden.
This project deals with the characterization of the adsorption behaviour of three substance pairings
using their adsorption isotherms. The goal is to contribute to the quantification of the matrix borne
carry over of VOCs in sorptionwheels. This is necessary to enable the use of sorption wheels in
critical applications with high requirements for air purity. The isotherms should be determined as part
of an experimental investigation using the sorption analyzer MixSorb L®. The three substance
pairings are Isopropanol/AP4-60, Toluene/H-MOR and Toluene/H-FAU.
With the substance pairing IPA/AP4-60 six measurements in three different concentration ranges
were conducted. Using the results of the experimental investigation an adsorption isotherm at a
temperature of 30°C could be determined. Based on the isotherm the amount of matrix born carry
over of isopropanol in a sorption wheel coated with AP4-60 could be approximated.
With the substance pairing TOL/H-MOR three measurements in two different concentration ranges
were conducted. Due to the questionable behaviour of the results, no isotherme to characterize the
adsorption behaviour could be determined. Because of time constraints no measurements were
conducted with the substance pairing TOL/H-FAU and no isotherme could be determined either.
Die Arbeit befasst sich mit der akustischen Erkennung von Aktivitäten in einem Haushalt mit dem Ziel, eine
Aktivierung von Assistenztechnologien in Smart Homes zu ermöglichen. Der Fokus lag dabei auf der
Erarbeitung von algorithmischen Grundlagen zur akustischen Erkennung von «Activities of Daily Living»
(ADL). ADL sind definierte Tätigkeiten, welche ein selbständiges Leben ermöglichen. Ziel war es
algorithmische Ansätze zur akustischen Erkennung von ADL zu recherchieren und für zwei spezifische ADL
zuverlässigen Algorithmen zur Erkennung zu erarbeiten und validieren. In Folge der Arbeiten wurde für die
ADL Toileting und Personal Hygiene Algorithmen entwickelt. Für die akustische Erkennung von Toileting
wurde das Geräusch der Spülung als charakteristisch gewählt und für Personal Hygiene wurde das Geräusch
der Dusche gewählt. Da es sich bei beiden Geräuschquellen um ortsgebundene Tätigkeiten handelt, die von
allen Menschen in einem vergleichbaren Rahmen getätigt werden. Als algorithmischer Ansatz für die
Erkennung wurden Convolutional Neural Network (CNN) trainiert.
This work deals with the acoustic recognition of activities in a household with the aim of enabling the
activation of assistive technologies in smart homes. The focus was on developing algorithmic foundations for
the acoustic recognition of "Activities of Daily Living" (ADL), which describe defined activities that enable
independent living. The goal was to research algorithmic approaches for the acoustic recognition of ADL and
to develop and validate reliable algorithms for two specific ADLs. As a result of the work, algorithms were
developed for ADLs related to toileting and personal hygiene. For the acoustic recognition of toileting, the
sound of flushing was chosen as characteristic, and for personal hygiene, the sound of the shower was
chosen. Since both sound sources involve location-based activities that are performed by all individuals in a
comparable context, Convolutional Neural Networks (CNNs) were trained as the algorithmic approach for
detection.
Die Arbeit befasst sich mit der akustischen Erkennung von Aktivitäten in einem Haushalt mit dem Ziel, eine
Aktivierung von Assistenztechnologien in Smart Homes zu ermöglichen. Der Fokus lag dabei auf der
Erarbeitung von algorithmischen Grundlagen zur akustischen Erkennung von «Activities of Daily Living»
(ADL). ADL sind definierte Tätigkeiten, welche ein selbständiges Leben ermöglichen. Ziel war es
algorithmische Ansätze zur akustischen Erkennung von ADL zu recherchieren und für zwei spezifische ADL
zuverlässigen Algorithmen zur Erkennung zu erarbeiten und validieren. In Folge der Arbeiten wurde für die
ADL Toileting und Personal Hygiene Algorithmen entwickelt. Für die akustische Erkennung von Toileting
wurde das Geräusch der Spülung als charakteristisch gewählt und für Personal Hygiene wurde das Geräusch
der Dusche gewählt. Da es sich bei beiden Geräuschquellen um ortsgebundene Tätigkeiten handelt, die von
allen Menschen in einem vergleichbaren Rahmen getätigt werden. Als algorithmischer Ansatz für die
Erkennung wurden Convolutional Neural Network (CNN) trainiert.
This work deals with the acoustic recognition of activities in a household with the aim of enabling the
activation of assistive technologies in smart homes. The focus was on developing algorithmic foundations for
the acoustic recognition of "Activities of Daily Living" (ADL), which describe defined activities that enable
independent living. The goal was to research algorithmic approaches for the acoustic recognition of ADL and
to develop and validate reliable algorithms for two specific ADLs. As a result of the work, algorithms were
developed for ADLs related to toileting and personal hygiene. For the acoustic recognition of toileting, the
sound of flushing was chosen as characteristic, and for personal hygiene, the sound of the shower was
chosen. Since both sound sources involve location-based activities that are performed by all individuals in a
comparable context, Convolutional Neural Networks (CNNs) were trained as the algorithmic approach for
detection.
Die vorliegende Bachelorarbeit analysiert die Performanz von Software-Containern, die auf dem Torizon-Betriebssystem laufen. Es wird das Torizon OS mit dem Board Support Package (BSP) in den Punkten Schreibgeschwindigkeit und Arbeitsspeicherauslastung verglichen. Die Resultate wurden über Testprogramme ermittelt, die sich nach einem realen Use Case orientieren. Torizon OS zeigt eine kleinere Schreibgeschwindigkeit im Vergleich zum BSP. Dabei ist der Unterschied bei kleinen Datengrössen höher als bei Grossen. Die Arbeitsspeicherauslastung eines Programms ist bei beiden Betriebssystemen identisch. Jedoch zeigt das System ohne Container eine kleinere Leerlaufauslastung. Da nebenläufige Prozesse die Schreibgeschwindigkeit negativ beeinflussen, kann der Einfluss des Containers nicht exakt bestimmt werden.
This bachelor thesis analyses the performance of software containers running on the Torizon operating system. The Torizon OS is compared with the Board Support Package (BSP) in terms of write speed and memory utilisation. The results were determined using test programmes based on a real use case. Torizon OS shows a lower write speed compared to the BSP. The difference is greater for small data sizes than for large ones. The memory utilisation of a program is identical for both operating systems. However, the system without containers shows a lower idle utilisation. As parallel processes have a negative impact on the write speed, the influence of the container cannot be determined exactly.
Diese Bachelor-Thesis untersucht den Einsatz von Reinforcement Learning unter Verwendung von
Stable Baselines3. Reinforcement Learning dient als Methode zur Regelung von Systemen mit
unbekannten Zustandsübergängen, insbesondere wenn ein zugrundeliegendes Modell fehlt und nur
eine Zielfunktion gegeben ist. Die Arbeit nutzt die Reinforcement-Learning-Algorithmen DQN, A2C
und PPO, um virtuelle Systeme wie z.B. das inverse Pendel zu steuern. Das angewendete Werkzeug
Stable Baselines3 basiert auf Python und bietet vorimplementierte Algorithmen und
Simulationsumgebungen. Die Arbeit konzentriert sich darauf, die Fähigkeit von Reinforcement
Learning zu untersuchen und stabile Regelungssysteme ohne bekanntes Modell einzulernen. Die
Ergebnisse zeigen, dass DQN, A2C und PPO mehrheitlich stabile Regelungen ermöglichen, wobei
Optimierungsmöglichkeiten mit längeren Einlernprozessen bestehen. Die Nutzung von Stable
Baselines3 für benutzerdefinierte Umgebungen wird ebenfalls untersucht und mit den Ergebnissen
der vorimplementierten Umgebungen verglichen. Die Arbeit schliesst mit der Erkenntnis, dass Stable
Baselines3 ein leistungsfähiges Werkzeug für Reinforcement-Learning-Anwendungen ist, betont
jedoch die Notwendigkeit einer umfangreichen Einarbeitung aufgrund anfänglicher Komplexität.
This bachelor thesis investigates the use of reinforcement learning using stable baselines3.
Reinforcement learning is used as a method to control systems with unknown state transitions,
especially when an underlying model is missing and only one objective function is given. The work
uses the reinforcement learning algorithms DQN, A2C and PPO to control virtual systems such as the
inverse pendulum. The applied tool Stable Baselines3 is based on Python and provides preimplemented
algorithms and simulation environments. The work focuses on investigating the ability
of reinforcement learning to learn stable control systems without a known model. The results show
that DQN, A2C and PPO provide mostly stable control, with optimization opportunities with longer
learning processes. The use of stable baselines3 for user-defined environments is also investigated
and compared with the results of the pre-implemented environments. The paper concludes that
Stable Baselines3 is a powerful tool for reinforcement learning applications, but emphasizes the need
for extensive training due to initial complexity.
Bei der Durchflusszytometrie werden grosse Mengen an Daten über die aktuelle Probe erzeugt. Um neue Erkenntnisse aus den Daten dieser Probe zu gewinnen, müssen diese anschliessend aufbereitet und analysiert werden.
Um die Aufbereitung und anschliessende Analyse der Daten möglichst effizient, gleich-zeitig aber auch an die aktuelle Situation angepasst durchführen zu können, wurde im Rahmen dieser Arbeit eine diagnostische Datenpipeline für die Verarbeitung und Ana-lyse von Durchflusszytometrie-Daten erstellt. Dazu standen diverse Datensätze sowie bereits geschriebener Analysecode zur Verfügung, der in die Datenpipeline integriert wurde. Die Datenpipeline kann in ihrem finalen Zustand unterschiedliche Daten korrekt einlesen, die Analyse gemäss dem vorgegebenen Workflow durchführen und die Er-gebnisse, die in Form von verschiedenen Datentypen vorliegen, abspeichern.
Um die Datenpipeline zu erstellen wurde der vorhandene Code analysiert und an-schliessend in kleinere Codestücke segmentiert. Die Segmentierung erfolgte gemäss eines Datenflussdiagramms, welches erarbeitet wurde und die einzelnen Komponen-ten der Datenpipeline sowie deren Schnittstellen aufzeigt. Anschliessend wurde die Datenpipeline gemäss der erarbeiteten Struktur in einer dafür spezialisierten Software «Apache NiFi» implementiert.
Die Datenpipeline konnte gemäss Vorgabe umgesetzt werden und ermöglicht in ihrem finalen Zustand eine einfache und effiziente Analyse der Durchflusszytometrie-Daten. Die Segmentierung des Codes ermöglicht es dem Benutzer zudem, eine individuelle Analyse, angepasst an den aktuellen Datensatz und die Bedürfnisse des Anwenders, durchzuführen.
During the flow cytometry process, large amounts of data are generated about the current sample that is being analyzed. To gain insights from the sample, this data must be preprocessed and analyzed afterwards.
To preprocess and analyze this data as efficiently as possible, but also individually adopted to the needs of its user, a diagnostic data pipeline was created as part of this project. For this purpose, at the beginning of this project, test datasets as well as anal-ysis code were available, which were integrated into the data pipeline. The data pipe-line reads in the test datasets, performs the analysis according to the specified work-flow and saves the results of the analysis which comes in many distinct types and forms.
To create the data pipeline, the existing code was analyzed and then segmented into smaller snippets of code. The segmentation was done according to a data flow diagram that was developed and which shows the individual components of the data pipeline as well as their interfaces. Subsequently, the data pipeline was implemented according to the developed structure within a specialized software.
The data pipeline has been implemented according to specifications and in its final state allows for simple and efficient analysis of the flow cytometry data. The segmen-tation of the code also allows the user to perform an individual analysis, according to the current data and what he or she wants to find out about it.