In dieser Arbeit wird das Marktpotential und die Attraktivität eines Markteintritts von Wasserstoff im
Strassenverkehr beschrieben. Es wurde eine Analogie zum NGV Markt, sowie Analysen für Stakeholder,
PESTE, Branchenstruktur, SWOT und Sensitivität erstellt und «System Thinking» angewandt. Die Barrieren
für Wasserstoffmobilität sind: (a) Die Schaffung der Infrastruktur, (b) Kosten der Wasserstofffahrzeuge und
(c) Akzeptanz der Verbraucher. Die wichtigsten Treiber der Wasserstoffmobilität sind klimapolitische
Massnahmen, Energiesicherheit und Unternehmertum. Die Eintrittsbarrieren der Akteure zur
Wasserstoffmobilität hoch sind. Der Wettbewerb ist in der frühen Marktentwicklungsphase gering.
Gegenüber dem Diesel-LKW sind die Vorteile der FC-LKWs attraktiv, insbesondere im städtischen Betrieb.
Infrastruktur, Wettbewerbsfähigkeit und Kundenakzeptanz sind die wichtigsten kritischen Erfolgsfaktoren.
This paper describes the market potential and the attractiveness of a market entry of hydrogen in road
transport. An analogy to the NGV market, as well as analyses for stakeholders, PESTE, industry structure,
SWOT and sensitivity were created and "System Thinking" was applied. The barriers to hydrogen mobility
are: (a) the creation of infrastructure, (b) the cost of hydrogen vehicles and (c) consumer acceptance. The
most important drivers of hydrogen mobility are climate policy measures, energy security and
entrepreneurship. The entry barriers to hydrogen mobility are high. Competition is low in the early market
development phase. Compared to diesel trucks, FC trucks offer attractive advantages, especially in urban
operation. Infrastructure, competitiveness and customer acceptance are the most important critical success
factors.
Mehr als die Hälfte des Endenergieverbrauchs in der Schweizer Industrie wird für Prozesswärme verwendet.
Zudem werden viele industrielle Prozesse nicht kontinuierlich betrieben, was zu zusätzlichen Komplikationen
für die Ausschöpfung von Energieeinsparpotenzialen in diesem Sektor führt. Wärmepumpen werden national
und international als eine Schlüsseltechnologie zur Steigerung der Energieeffizienz von Industrieprozessen
gesehen. Die Integration von Wärmepumpen zusammen mit thermischen Energiespeichern ermöglicht die
Ausschöpfung des Energieeinsparpotenzials in nicht kontinuierlichen Prozessen mittels
Wärmerückgewinnung. Diese Integration bringt jedoch neue Herausforderungen hinsichtlich der Regelung des
Systems mit sich, da durch die Kopplung mehrerer Prozessströme neue Abhängigkeiten entstehen. Die
Prozessströme unterliegen dabei Schwankungen hinsichtlich ihres Zeitplans und des Heiz- bzw. Kühlbedarfs.
Diese Arbeit untersucht das Mehrgrössen-Regelungsproblem von Wärmepumpen in Verbindung mit
Schichtspeichern zur Wärmerückgewinnung in Industrieprozessen. Es wird ein dynamisches Modell des
Systems beschrieben, das die Evaluierung der Regelstrategie ermöglicht. Darüber hinaus wird das
Regelungsproblem analysiert und eine Regelungsstrategie vorgeschlagen, die aus einer zweistufigen
Regelungshierarchie besteht. Die beiden Ebenen trennen die übergeordnete Energieverwaltungsaufgabe und
die untergeordnete Echtzeit-Regelung. Die Regelungsstrategie wird anschliessend durch verschiedene
Variationen eines Fallbeispiels evaluiert. Die Echtzeitregelung wird mit Standard-Industriereglern (z.B. PID)
realisiert. Für die Energiemanagementaufgabe wird ein prädiktiver Regler (MPC) entwickelt. Dieser
ermöglicht den Einsatz der Wärmepumpe zu maximieren und gleichzeitig die Funktionsfähigkeit des Systems
durch den minimalen Einsatz von externen Utility sicherzustellen. Der prädiktive Regler nutzt die Vorhersage
von Störungen des Speichersystems, welche aus dem Produktionsplan bekannt sind. Die Verwendung einer
ein/aus-geregelten Wärmepumpe, welche vom prädiktiven Regler angesteuert wird, führt zu einem gemischtganzzahligen
quadratischen Optimierungsproblem (MIQP). Die mit dem Testfall durchgeführte
Simulationsstudie beweist die Funktionsfähigkeit der kombinierten Regelstrategie mit den Low- und High-
Level-Reglern für alle vier Variationen. Es wird gezeigt, dass der MPC in der Lage ist, unbekannte Störungen
durch die Planung der optimalen Steuergrössen, die zur Aufrechterhaltung des Systembetriebs erforderlich
sind, auszuregeln.
More than half of the end-energy consumption in the swiss industrial sector is used for process heat.
Furthermore, many industrial processes are not operated continuously which implies additional complications
for the exploitation of energy saving potentials in the sector. Heat pumps are nationally and internationally
identified as a key technology for the increase of the energy efficiency of industrial process. Integration of heat
pumps together with thermal energy storage systems allows for the exploitation of the saving potential in noncontinuous
processes through heat recovery. However, this integration implies new challenges regarding the
control of the system as there are new dependencies occurring through the coupling of multiple process streams.
The process streams are thereby subject to fluctuations in terms of their schedule and heat load. This work
investigates the multivariable control problem of heat pumps coupled to stratified thermal energy storages for
the heat recovery in industrial processes. A dynamic model of the system allowing for the evaluation of the
control strategy is described. Furthermore, the control problem is analyzed and a control strategy consisting of
a two level control hierarchy is proposed. The two levels separate the high-level energy management task and
the low-level real-time control task. The control strategy is subsequently evaluated through different variations
of a test case which demonstrates the performance of the strategy. The low-level task can be handled with
distributed industry standard controllers (e.g. PID). For the high-level task, model predictive control (MPC) is
applied to maximize the heat recovery through the use of the heat pump, while ensuring the operability of the
system through the minimal use of external utility. The MPC includes the prediction of disturbances known
from the production schedule and the handling of an on/off controlled heat pump, leading to a mixed integer
quadratic optimization problem (MIQP). The simulation study performed with the test case proves operability
of the combined control strategy with the low- and high-level controllers for all four cases. It is shown that the
MPC is able to reject unknown disturbances through planning of the optimal inputs necessary to maintain the
system operational.
Experimentelle und numerische Untersuchungen von eingeschlossenem Pulvermaterial zur Charakterisierung des dynamischen Verhaltens innerhalb von Partikeldämpfern
Name that can easily go onto 2 lines
Author that can easily go onto 2 lines as well
Titel
Experimentelle und numerische Untersuchungen von eingeschlossenem Pulvermaterial zur Charakterisierung des dynamischen Verhaltens innerhalb von Partikeldämpfern
Partikeldämpfer sind ein wirtschaftliches und effektives Konzept für die passive Reduzierung von
mechanischen Schwingungen über einen grossen Frequenzbereich. Mit dem additiven Fertigungsverfahren
können Bauteile mit innen liegenden Pulverkammern hergestellt werden, welche als additiv gefertigte
Partikeldämpfer bezeichnet werden. In bisherigen Untersuchungen von additiv gefertigten Partikeldämpfern
wurde das nicht lineare Dämpfungsverhalten experimentell bestimmt. Das detaillierte dynamische Verhalten
des metallischen Pulvermaterials in der Kavität ist soweit unbekannt.
Das Ziel dieser Masterthesis ist es, zu bestimmen, wie sich eingeschlossenes Pulvermaterial in einem additiv
gefertigten Partikeldämpfer unter dynamischer Belastung verhält. Dazu werden die folgenden
Forschungsfragen gestellt: (i) Wie kann die Energiedissipation von eingeschlossenem Pulvermaterial
charakterisiert werden? (ii) Und wie können davon die wichtigsten Abhängigkeiten für die
Produktentwicklung von additiv gefertigten Partikeldämpfern abgeleitet werden?
Um die Forschungsfragen zu beantworten, wird das dynamische Verhalten des Pulvermaterials Edelstahl CL
20ES in der Kavität mit der Diskrete Elemente Methode modelliert. Die Diskrete Elemente Methode ist ein
numerisches Berechnungsverfahren für die Simulation von Partikelbewegungen und -interaktionen. Durch
das verwendete Pulvermaterial, welches Partikelgrössen im zweistelligen Mikrometerbereich und eine hohe
Partikelanzahl pro Volumeneinheit hat, ist die Untersuchung nur an skalierten Kavitäten im
Millimeterbereich durchzuführen. Die mit Pulvermaterial befüllten Kavitäten werden unter harmonischer
Weganregung belastet. Aus den Reaktionskräften des Pulvermaterials auf die Kavität wird die
Energiedissipation berechnet. Um die wichtigsten Abhängigkeiten zu untersuchen, werden verschiedene
Kavitätsgrössen, Kavitätsformen, Anregungsamplituden und Anregungsfrequenzen untersucht.
Die Untersuchung zeigt, dass eingeschlossenes Pulvermaterial in Kavitäten unter dynamischer Belastung zu
hoher Energiedissipation führt und dadurch ein effektives Konzept für die passive Schwingungsreduktion ist.
Additiv gefertigte Partikeldämpfer haben einen ähnlichen Mechanismus der Energiedissipation wie der Ein-
Partikeldämpfer oder Aufpralldämpfer. Die Energiedissipation entsteht vor allem durch die unelastischen
Stossvorgänge zwischen Partikeln und Kavität. Die Effizienz des Partikeldämpfers wird aber nur erreicht, wenn die Amplitude genügend gross ist. Diese minimal nötige Amplitude ist abhängig vom Partikelfüllstand
in der Kavität und der Grösse der Kavität. Für die Produktentwicklung von additiv gefertigten
Partikeldämpfern kann gesagt werden, (i) dass mehr Pulvermaterial zu mehr Energiedissipation führt, (ii)
dass das Pulvermaterial im Bauteil an der Stelle mit der grössten Auslenkungsamplitude platziert werden soll,
um eine grössere Energiedissipation zu erreichen und (iii) dass die Kavitätslänge in Bewegungsrichtung
einen positiveren Einfluss auf die Energiedissipation als der Kavitätsquerschnitt in Bewegungsrichtung hat.
Particle dampers are a promising approach for passive reduction of vibrations over a wide frequency range.
With additive manufacturing, it is possible to manufacture parts with embedded powder cavities. In previous
investigations of additive manufactured particle dampers, the non-linear damping behavior was determined
experimentally. The dynamic behavior of the metallic powder in the cavity is unknown.
The goal of this thesis is to determine the dynamic behavior of the internal powder in an additive
manufactured particle damper. The research questions are: (i) How can the energy dissipation of powder be
characterized? (ii) And in addition, what are the main dependencies for the product development of additive
manufactured particle dampers?
In this thesis, the dynamic behavior of the stainless steel CL 20ES powder is modeled with the Discrete
Element Method. The Discrete Element Method is a numerical method for simulation of particle motions and
particle interactions. Due to the powder material used, which has particle sizes in the micrometer range and a
high number of particles per volume, it is only possible to perform this investigation on scaled cavities in the
millimeter range. The dynamic behavior of the powder is determined under harmonic base excitation of the
cavity. The calculation of the energy dissipation is based on the reaction forces of the powder on the cavity.
This work examines the influence of different cavity sizes, cavity shapes, excitation amplitudes and
frequencies on the energy dissipation.
The investigation shows that powder in cavities leads to high-energy dissipation under dynamic vibration.
Due to this, it is an effective concept for passive reduction of vibrations. Additive manufactured particle
dampers have a similar mechanism of energy dissipation as single particle impact dampers or vibration
absorbers. The energy dissipation is caused by the inelastic collision between particles and cavity. The
efficiency of the particle damper is only achieved when the excitation amplitude is large enough. The
minimal required amplitude depends on the amount of particles in the cavity and on the cavity size. The
simulation results provide better understanding of the particle damping mechanisms, which may help in the
design of the next generation of additive manufactured particle dampers. It can be said that (i) more powder
leads to more energy dissipation, (ii) the powder should be positioned in the place with maximum amplitude
to achieve greater energy dissipation and (iii) that the cavity length in the direction of movement has a more
positive influence on the energy dissipation than the cross section in the direction of movement.
In dieser Arbeit wird die F&E-Plattform in Grid-Living and Mobility instandgesetzt. Weiter wird die
Solardatenerfassung mit einer Statistik, für eine eigene Visualisierung, erweitert. Ein zentraler Punkt dieser
Arbeit ist die Konzeptionierung eines fortgeschrittenen Algorithmus für die Steuerung der Energieflüsse.
Dieser soll nicht nur unterschiedliche Lasten managen können, sondern auch die Maximierung der Autarkie,
mit einem netzdienlichen Betrieb in Einklang bringen. Die ganze Thematik ist auf vorhergehenden Arbeiten
aufgebaut, in das aktuelle Umfeld eingebettet und auf eine mögliche Weiterentwicklung der Plattform
ausgearbeitet worden. Die Entwicklung ist rasant, die Spannungsfelder sind gross und eine Vielzahl von
unterschiedlichen Komponenten, Techniken und Interessen fliessen zusammen. Es ist ein zentraler Baustein
eines Wandels, der durch die Gesellschaft angestossen und nun von der Politik forciert wird. Ein ideales,
spannendes Feld für weitere Forschungsarbeiten.
This Thesis works on a Grid-Living and Mobility Platform on the HSLU, also called the F&E-Plattform. This
Platform will be maintained and the Data from the Photovoltaic station will be collected. The collected data is
to be used for Visualization. Further an important Point of this Thesis is to establish an advanced Algorithm
to control the energy flow of this Platform. This Algorithm should not just include the management of loads,
it should also maximize the autarky and that should be complied with a Grid-beneficial behavior. The work
relied on previous studies, imbedded into the actual environment and elaborated for future development of
the platform. The development is fast, the stress fields are large and numerous technologies, components and
interests are coming together. It is further a central building block in the change, pushed by the society and
now forced by the politics. Those are ideal conditions for further Research.
Wasser ist für unsere Existenz von grundlegender Bedeutung und ist durch das steigende
Bevölkerungswachstum, Urbanisierung, Agrarwirtschaft und den Klimawandel zunehmend unter Druck
geraten; all dies wirkt sich auf die Quantität und Qualität unserer Wasserressourcen aus. Die Forschung hat
gezeigt, dass die Wasserversorgungsunternehmen vor Herausforderungen bei der Bereitstellung von
sauberem, sicherem Trinkwasser stehen angesichts einer alternden, kostspieligen Infrastruktur, eines
Wasserpreises, der seinen wahren Wert nicht widerspiegelt, und der Belastbarkeit in einer Zeit, in der die
Gefahr von Überschwemmungen und Dürren allgegenwärtig ist. Mit dem weit verbreiteten linearen Ansatz
der Take-Use-Discharge kann unsere Wasserressourcen nicht länger erhalten, wenn das Abwasser nur
aufbereitet wird, um in die Wasserstraßen zurückgeleitet zu werden (in einigen Fällen verschmutzen sie) und
vor dem Trinken erneut zur Aufbereitung extrahiert zu werden. Dieses lineare Modell ist kostspielig,
energieintensiv und umweltschädlich. Die Kreislaufwirtschaft hat in der Wasserindustrie mehr
Aufmerksamkeit erhalten, um diesen Teufelskreis durch die Schließung von Wasserkreisläufen zu
durchbrechen. Diese Studie bietet eine systemische Sicht auf die Kreislaufwirtschaft im Wasser, indem sie
fragt: Welche wirtschaftlichen und betrieblichen Systemeffekte hat die Kreislaufwirtschaft auf die
Wasserversorgungsunternehmen? In diesem Zusammenhang geht die Kreislaufwirtschaft von der Ellen
MacArthur-Definition als ein industrielles System aus, das durch Absicht und Gestaltung wiederherstellend
oder regenerativ ist. Sie ersetzt das "End-of-Life"-Konzept durch Restauration, verlagert sich auf die Nutzung
erneuerbarer Energien, eliminiert die Verwendung toxischer Chemikalien, die die Wiederverwendung
beeinträchtigen und zielt auf die Beseitigung von Abfall durch die überlegene Gestaltung von Materialien,
Produkten, Systemen und, innerhalb dieses Rahmens, von Geschäftsmodellen ab.
Auf der Grundlage einer Literaturübersicht wird eine ökonomische Sichtweise des städtischen
Wassersystems qualitativ modelliert, auf die mit zusätzlichem Input aus Experteninterviews und Fallstudien
ein Kreislaufwirtschaftssystem modelliert wird. Es wurde festgestellt, dass die Digitalisierung, die
Wasserwiederverwendung und die Rückgewinnung von Ressourcen die wichtigsten Instrumente sind, die die
Kreislaufwirtschaft im Wassersektor unterstützen und durch Effizienz und ein gesteigertes Ertragspotenzial
überzeugende betriebliche Vorteile bieten. Allerdings verlangsamen Fragen der Investitionen, der nicht
kostendeckenden Wasserpreisgestaltung und ein fehlender rechtlicher Rahmen die Akzeptanz. Auf dieser
Grundlage wird die Kreislaufwirtschaft sowohl als Herausforderung als auch als Chance für die
Wasserindustrie gesehen. Es wird empfohlen, die Wassertarifstrukturen neu zu gestalten. Da zirkuläre
Lösungen kontextspezifisch sind, werden weitere Untersuchungen erforderlich sein, um das
Systemverhalten unter Berücksichtigung des lokalen Kontextes quantitativ besser zu
verstehen.
Water is fundamental to our existence and has increasingly been put under pressure by
soaring population growth, urbanisation, agricultural farming and climate change; all of
which impact the quantity and quality of our water resources. Research has shown that
water utilities are faced with challenges in providing clean safe drinking water against a
backdrop of an ageing costly infrastructure, a price of water that is not reflective of its true
value and remaining resilient in a time when the threats of floods and droughts are
pervasive. The widely practiced, linear take-use-discharge approach no longer can sustain
our water resources where wastewater is treated only to be returned to waterways (in some
cases polluting them) and extracted again for treating before drinking. This linear model is
costly, energy intensive and environmentally unsound. Circular economy has been getting
more attention in the water industry to tackle this vicious cycle by closing water loops. This
study provides a systemic view on circular economy in water by asking: What are the
economic and operational system effects of a circular economy on water utilities? In this
context, circular economy assumes the Ellen MacArthur definition as an industrial system
that is restorative or regenerative by intention and design. It replaces the ‘end-of-life’
concept with restoration, shifts towards the use of renewable energy, eliminates the use of
toxic chemicals, which impair reuse, and aims for the elimination of waste through the
superior design of materials, products, systems, and, within this, business models.
Based on a review of literature an economic view of the urban water system is qualitatively
modelled, on top of which a circular water economy system is modelled with additional
input from expert interviews and case studies. It was found that digitalisation, water reuse
and resource recovery are the key tools underpinning circularity in water, providing
compelling operational benefits through efficiencies and a boost in revenue generating
potential. However, issues of investment, non-cost reflective water pricing and a missing
enabling legal framework are slowing their rate of uptake. On this basis circular economy is
seen to represent both a challenge and an opportunity for the water industry. It is
recommended that water tariff structures be redesigned. Given that circular solutions are
context-specific further research is needed to better understand the system behaviour
quantitatively taking into consideration the local context.
Diese Masterarbeit beinhaltet eine Ökobilanz eines typischen Mehrfamilienhauses im Schweizer Mittelland.
Über eine Lebenszyklusanalyse wird der indirekte ökologischen Aufwand des Gebäudes über seine
Lebensdauer quantifiziert. Mittels einer Gebäudesimulation wird der Betriebsenergiebedarf des Hauses
ermittelt. Verschiedene Energieerzeuger werden zur Deckung dieses Bedarfs eingesetzt und deren Einfluss
auf den direkten ökologischen Aufwand untersucht. Schlussendlich soll beantwortet werden, ob aus
ökologischer Sicht ein Ersatzneubau oder eine Sanierung des bestehenden Gebäudes favorisiert werden soll
und mit welchen Massnahmen der totale ökologische Aufwand eines Gebäudes minimiert werden kann. In
den Resultaten wird der Sanierungsfall mit einem Neubau in Holz- und Massivbauweise verglichen. Der
ökologische Aufwand der Varianten wird durch die Umweltindikatoren Primärenergie (nicht erneuerbar),
Treibhausgaspotential und Umweltbelastungspunkte dargestellt.
This master thesis consists of a life cycle assessment of a typical apartment building in the Swiss midlands. A
life cycle analysis is used to quantify the indirect ecological expenditure of the building over its lifetime. By
means of a software simulation the energy demand to operate the house is determined. Different heating
systems are used to cover this demand and their influence on the direct ecological expenditure is examined.
In conclusion it is shown whether from an ecological point of view a new replacement building or a
renovation of the existing building should be favoured and with which measures the total ecological
expenditure of a building can be minimised. In the results, the refurbishment case is compared with a new
building in timber and solid construction. The ecological expenditure is represented by the environmental
indicators primary energy (non-renewable), greenhouse gas potential and environmental impact points.
In der Bildverarbeitung sind neuronale Netze aufgrund ihrer hohen Klassifikationsgenauigkeit kaum mehr
wegzudenken. Obschon der hohe Berechnungsaufwand solcher Netze zu verringern versucht wird, verhindert
die stark limitierte Rechenleistung bei eingebetteten low-power Systemen nach wie vor die Ausführung moderner
CNN-Netze in Echtzeit. Die vorliegende Arbeit präsentiert BinArray, einen Hardware-Beschleuniger
der auf Basis von binär-approximierten CNNs (BACNNs) einen anwendungsspezifischen Kompromiss
zwischen der Genauigkeit, dem Ressourcenverbrauch und der Rechenkomplexität des Netzes erlaubt. Die
systolische Array-Architektur ist skalierbar für verschiedene Grössen von BACNNs, von kleineren GTSRBCNNs
bis zu grossen MobileNets. Die Arbeit zeigt, dass die Beschleunigung durch BinArray auf einem
Xilinx Zynq FPGA ohne Genauigkeitsverlust einen Durchsatz von 92.1 FPS ermöglicht, verglichen mit 7.9
FPS auf einem Mikrokontroller. Der Logikverbrauch liegt dabei unter 2% bei einem mittelgrossen FPGA.
Deep Convolutional Neural Networks (CNNs) have become indispensable for computer vision tasks due to
their high accuracy. While large efforts are made to confine the high computational costs of CNNs, low
power embedded devices struggle to achieve a real-time frame rate. In this work, we present BinArray, a
hardware accelerator for Binary Approximated Convolutional Neural Networks (BACNNs), which provide a
configurable trade-off between accuracy and complexity. BinArray translates this trade-off into a task
specific compromise between area, throughput and accuracy depending on the given constraints. Its Systolic
Array (SA)-architecture is scalable for different sizes of BACNNs ranging from a GTSRB CNN to large
MobileNets. We implemented BinArray on a Xilinx Zynq FPGA. Without loosing accuracy, an accelerated
BACNN achieves a throughput of up to 92.1 FPS on GTSRB compared to a CPU with only 7.9 FPS.
BinArray accomplishes this while using less than 2% of the logic available on a mid-sized FPGA.
Die Automatisierungsindustrie ist eine der sich am schnellsten entwickelnden Branchen des Maschinenbaus,
die technologisch innovative Lösungen anbietet. In der Praxis besteht ein wachsender Bedarf an Implantaten,
um schneller und zuverlässiger zu arbeiten und die Zeit für die Programmierung von Maschinen, wie z.B.
Roboterarmen, zu reduzieren.
Für die Programmierung von Industrierobotern werden im Wesentlichen zwei Methoden angewandt:
Die erste ist die Online-Programmierung, auch als "Teaching" bekannt. Die Online-Programmierung besteht
darin, dass ein Bediener den Roboter mit Hilfe einer Fernbedienung in die gewünschte Position bewegt und
speichert, wobei eine Roboterbahn erzeugt wird. Diese Methode nimmt viel Zeit in Anspruch, und es ist ein
geschulter Bediener erforderlich, der den Roboter sowohl bewegen kann als auch die Programmiersprache
des Roboters kennen muss.
Die zweite Methode wird Offline-Programmierung genannt. In diesem Fall wird das Bewegungsprogramm
erstellt, ohne dass der Roboter manipuliert werden muss. Tatsächlich wird das Programm auf einem PC
geschrieben und getestet, der die Zellenbedingungen simuliert, bevor es an die eigentliche Roboterzelle
geschickt wird. Diese Methode kann zeitsparend sein, erfordert jedoch ein hohes Maß an
Programmierkenntnissen sowie tiefgehende Kenntnisse der speziellen Roboter-Software. Darüber hinaus
könnte das Arbeiten ohne die physische Zelle zu einer höheren Schwierigkeit bei der Programmierung
führen, da das Abstraktionsniveau sicherlich höher ist.
Beide Methoden haben Vor- und Nachteile, aber was wäre, wenn es eine noch schnellere Methode gäbe, die
keine Programmierkenntnisse erfordert und es dem Bediener erlaubt, mit direktem Kontakt am Roboter zu
arbeiten?
Dieses Projekt entspringt einer Vision: ein vom Roboter losgelöster Greifer, der durch die Bewegung einer
Bedienerhand gehandhabt werden könnte. Der Operator wird den Greifer bewegen, um einen
Bewegungsvorgang (wie das Aufnehmen und Ablegen eines Objekts) durchzuführen, und die Positionskoordinaten direkt an den Roboter senden, so dass dieser in der Lage ist, die von der Hand des Operators ausgeführte Bewegung zu wiederholen. Mit dieser Methode wird die Schwierigkeit der
Programmierung des Roboters verringert, da nur noch Kenntnisse über so etwas Natürliches wie eine
Handbewegung erforderlich sind, während die Programmierzeit drastisch reduziert wird.
Dieses Projekt besteht aus einer Machbarkeitsanalyse eines solchen Systems durch den Einsatz einer auf dem
Greifer montierten inertiale Messeinheit (IMU). Die durchgeführte Evaluierung trug dazu bei, nicht nur die
Präzision der Positionsverfolgung mit einem eigenständigen IMU-System zu unterstreichen, sondern auch
dessen Grenzen aufzudecken.
Die IMU wurde unter drei verschiedenen Bedingungen getestet:
- Bewegung auf der Messmaschine für die taktilen Koordinaten
- Bewegungen auf dem Roboter
- Handbewegungen
Die Ergebnisse haben gezeigt, dass ein eigenständiges IMU-System zur Positionsverfolgung aufgrund des
Drifts, die durch die Doppelintegration der Beschleunigungsdaten entsteht, nicht für eine ausreichend genaue
Verfolgung von Handbewegungen verwendet werden kann. Daher wurde das System um eine Kamera und
ein Apriltags-Erkennungssystem als externes Referenzierungssystem erweitert. Eine Demonstrator-
Roboterzelle wurde gebaut, um das Potential der kombinierten IMU / AprilTags-Positionsverfolgung zu
zeigen, deren erreichte Positionierungsgenauigkeit im Millimeterbereich liegt.
The automation industry is one of the quickest developing branches of engineering that propose
technological innovative solutions. In practice there is a growing need for implants to work
faster,more reliable and to reduce the time for programming machines, such as robot arms.
Two main methods are adopted for programming industrial robots:
The first one is online programming, also known as “Teaching”. The online programming
constitutes of an operator that moves the robot using a remote to the desired position and saves
it, creating a trajectory. This method takes a lot of time and trained operator is required to both
move and know the programming language of the robot.
The second method is called offline programming. In this case the movement program is
created without the need to manipulate the robot. In fact the program will be written and tested
on a PC that simulates the cell conditions before being sent to the actual robot cell. This method
can be time saving, but it requires a high level of programming knowledge, as well as deep
knowledge of the dedicated robotic suite. Moreover working without the physical cell could
lead to a higher difficulty into programming, because the level of abstraction is certainly higher.
Both methods presents advantages and disadvantages, but what if there could be a method even
quicker, that doesn't require programming knowledge and that allows the operator to work with
direct contact on the robot? This project comes from a vision: a gripper detached from the robot, that could be handled by
the movement of an operator hand. The operator will move the gripper to perform a motion operation (as picking and placing an object) and send directly the position coordinates to the
robot, so that it will be able to repeat the movement performed by the operator's hand. This
method tears down the programming's difficulty of the robot, because the only knowledge
required is something as natural as a hand movement, while drastically reducing the
programming time.
This project consists of a feasibility analysis of such system trough the use of an Inertial
Measurement Unit (IMU) mounted on the gripper. The evaluation made helped to underline not
only the precision of the position tracking with a standalone IMU system, but to expose also its
limitations.
The IMU was tested in three different conditions:
Movement on the Tactile Coordinates Measurement Machine
Movements on the robot
Hand movements
The results have shown that a standalone IMU system for position tracking cannot be used for
an enough-precise tracking of hand movements due to the drift coming from the double
integration of the acceleration data. Therefore the system was enhanced by adding a camera and
an Apriltags detection system as an external referencing system. A demonstrator robotic cell
was built to show the potential of the combined IMU / AprilTags position tracking, which
positioning precision reached lies in the millimeter range.
Akustische Signalverarbeitung benutzt meistens adaptive Filtermethoden und Anpassungen der Parameter,
um eine optimale Audioqualität für bestimmte Anwendungen zu erreichen. In Bezug auf Anwedungen mit
Hörgeräten wird eine optimale Sprachverständlichkeit und Wahrnehmung der akustischen Umgebung
angestrebt. Weil akustische Szenen und Geräuschkulissen in der Realität kontinuierlich ändern, müssen
Parameteranpassungen in Hörgeräten in Echtzeit erfolgen. In dieser Thesis wird ein System vorgestellt
welches in der Lage ist, mit Hilfe von künstlicher Intelligenz (KI) verschiedene akustische Umgebungen
kontinuierlich erfassen zu können. In diesem Fall wurde ein Deep Convolutional Neural Network (CNN)
benutzt, während der Fokus auf einer Echtzeit-Implementierung lag. Als Grundlage der CNN Architektur
dient VGGNet-16, welches zu einem multi-label multi-output Modell modifiziert wurde. Dies ermöglicht es,
dieselbe Struktur zur Informationsentnahme für zwei Ausgänge zu nutzen und dabei gleichzeitig alle
möglichen Kombinationen von akustische Szenen und Geräuschkulissen zu klassifizieren. Für das Training
des CNN wurde ein eigener Datensatz erfasst welcher aus 23.8h von hochqualitativen, binauralen Audiodaten
besteht. Dazu wurden im Voraus fünf Klassen pro Label festgelegt, welche von Menschen klar
unterscheidbar sind. Mittels eine Grid Search Methode konnten drei optimierte Modelle gefunden werden
welche sich in ihrer Komplexität deutlich unterscheiden und es somit ermöglichen, eine Auswahl zwischen
Genauigkeit und Durchsatz zu treffen. Alle Modelle wurden im Anschluss mit 8 Bit quantisiert, welches zu
einer durchschnittlichen Genaugkeit von 99.07% führte. Nachdem die Anzahl Multiply-Accumulate (MAC)
Operationen und Parameter mit Faktoren von 154x resp. 18x reduziert wurde, war das System immer noch in
der Lage eine Genauigkeit von 94.82% zu erreichen. Dies ermöglicht es, eine Echtzeit-Anwendung auf der
Ebene von Mikrokontrollern zu realisieren welche eine Taktfrequenz von 10 MHz vorweisen und eine
Klassifikation pro Sekunde produzieren können.
Processing of acoustic signals is often accompanied by adaptive filtering and parameter adjustments in order
to achieve optimal audio quality for specific tasks. In terms of hearing aids, the intention is an optimal speech
intelligibility and environmental audio perception. Since acoustic scenes and soundscapes are constantly
changing during operation, adjustments in parameters for hearing devices have to be executed in real-time.
We introduce a system which is able to continuously recognize acoustic environments using Artificial
Intelligence (AI) in the form of a Deep CNN (Convolutional Neural Networks) with focus on real-time
implementation. Inspired by VGGNet-16, the CNN architecture was modified to a multi-label multi-output
model which is able to predict combinations of scene and soundscape labels simultaneously while sharing the
same feature extraction. For training we acquired a custom dataset consisting of 23.8h of high-quality
binaural audio data including five classes per label which are clearly distinguishable by humans. Using a
manual Grid Search method, we were able to optimize three models with respect to different complexity
metrics for choosing a trade-off between accuracy and throughput. CNNs were then post-quantized to 8-bit
which achieved an overall accuracy of 99.07% in the best case. After reducing the number of Multiply-
Accumulate (MAC) operations by a factor 154x and parameters by 18x, the classifier was still able to detect
scenes and soundscapes with an acceptable accuracy of 94.82% which allows real-time inference at the edge
on discrete low-cost hardware with a clock speed of 10 MHz and one inference per second.
Bildverarbeitungs-Applikationen mit Machine-Learning und neuronalen Netzwerken sind sehr rechenintensiv
und verbrauchen viel Energie sowie Bandbreite, wenn die Daten an einen zentralen Server übermittelt
werden.
Neue ARM Cortex M7 Microcontroller sind in der Lage diese anspruchsvollen Applikationen auszuführen.
Es gibt für die STM32H7 Controller von STMicroelectronics das Open Source Bildverarbeitungsframework
OpenMV. Bildverarbeitung auf Microcontroller-Basis ermöglichen kleine, energiesparend Edge-Computing-
Device. Da die Bildverarbeitung direkt im Controller «on-the-Edge» durchgeführt wird, werden keine
sensitiven Daten übertragen. Dies führt zu weniger Privacy-Bedenken und Bandbreitenvorteilen.
Die neue Microcontrollerfamilie i.MX RT von NXP mit ARM Cortex M7 Core ermöglicht Clockfrequenzen
bis 1GHz. Um die i.MX RT Controller zu evaluieren wurde OpenMV portiert. Es wurden Performance und
Energiemessungen durchgeführt, die komplexe Speicherarchitektur wurde analysiert und es wurden
Vergleiche zu OpenMV auf dem STM32H7 gezogen. Da OpenMV auf MicroPython basiert, wurde dieses,
unter Verwendung der NXP SDK, für die i.MX RT Familie portiert. Die Software wurde in einer Linux
Umgebung mit VisualStudio Code und GCC Compiler entwickelt. Für die Entwicklungs-Plattform (Seeed-
Arch-Mix Board mit i.MX RT1052) wurde ein PCB designt um verschiedene Hardware-Erweiterungen
anzuschliessen (Kameras, LCD, Servos und Erweiterungsheaders).
Es wurde ein vollständiger OpenMV Port für den i.MX RT1052 erstellt. Verschiedene Kameras werden
unterstützt, so können auch Thermobilder mit einer FLIR Lepton Kamera ausgewertet werden. OpenMV auf
dem i.MX RT1052 verbraucht 0.5W und hat eine vergleichbare Performance wie auf dem STM32H7. Die
Geschwindigkeit von OpenMV auf dem i.MX RT1052 wird durch die externe Anbindung des Flashmemorys
negativ beeinflusst, da die L1 Caches des i.MX RT1052 in dieser Anwendung nicht ausreichen, um die
Flashzugriffe zu buffern. Die entwickelte Hard- und Software ermöglicht eine vollumfängliche OpenMV
Plattform auf der Basis des i.MX RT1052 und kann als alternative zu STM32H7-OpenMV für
weiterführende Arbeiten eingesetzt werden.
Image processing applications with machine learning and neural networks are very computationally intensive
and consume a lot of energy and bandwidth when the data is transferred to a central server.
New ARM Cortex M7 microcontrollers are capable of running these demanding applications. The open
source image processing framework OpenMV is available for the STM32H7 controllers from
STMicroelectronics. Microcontroller-based image processing enables small, energy-saving edge computing
devices. Since image processing is performed "on-the-edge" directly in the controller, no sensitive data is
transmitted. This leads to less privacy concerns and bandwidth advantages.
The new microcontroller family i.MX RT by NXP with ARM Cortex M7 Core allows clock frequencies up to
1GHz. To evaluate the i.MX RT controllers OpenMV was ported. Performance and power measurements
were performed, the complex memory architecture was analyzed and comparisons were made to OpenMV on
the STM32H7. Since OpenMV is based on MicroPython, it was ported to the i.MX RT family using the NXP
SDK. The software was developed in a Linux environment with VisualStudio code and GCC compiler. For
the development platform (Seeed-Arch-Mix Board with i.MX RT1052) a PCB was designed to connect
various hardware extensions (cameras, LCD, servos and extension headers).
A complete OpenMV port for the i.MX RT1052 was created. Different cameras are supported, even thermal
images can be evaluated with a FLIR lepton camera. OpenMV on the i.MX RT1052 consumes 0.5W and has
a performance comparable to the STM32H7. The speed of OpenMV on the i.MX RT1052 is negatively
affected by the external connection of the flash memory, as the L1 caches of the i.MX RT1052 are not
sufficient to buffer the flash accesses in this application. The developed hardware and software enable a
comprehensive OpenMV platform based on the i.MX RT1052 and can be used as an alternative to
STM32H7-OpenMV for further work.
Die vorliegende Master-Thesis untersucht eine Vielzahl an Kombination von Praktiken, Techniken
und Methoden des Portfoliomanagements, um den Gesamtnutzen einzelner und aggregierter Digitalisierungsprojekte
zu messen, aufzuzeigen und das inhärente Risiko zu verringern. Das Resultat meiner
Master-Thesis ist ein Verfahren zur Bewertung der Nutzenpotentiale von Digitalisierungsprojekten
der Pilatus Flugzeugwerke AG, welches den Entscheidungsprozess in der Priorisierung und Steuerung
systematisch unterstützt und die Ressourcenplanung optimiert. Das entwickelte Bewertungsmodell
ist mit der Unternehmensstrategie verknüpft, maximiert den Gesamtnutzen des Portfolios
und berücksichtigt die Erreichung des Gleichgewichts und der richtigen Konstellation an Projekten.
The present master thesis examines a variety of combinations of practices, techniques, and methods
of portfolio management to measure and to demonstrate the total value of individual and aggregated
digitization projects as well as to reduce the inherent risk. The goal of this master thesis is to
develop a process and governance mechanism for the cost / benefit evaluation of Pilatus Aircraft
Limited digitization projects. The procedure will allow Pilatus Aircraft Limited to support their decision-
making process for a systematic prioritization and governance of projects as well as optimization
of resource planning. The assessment procedure is linked to the corporate strategy, the total benefit
of the project portfolio is maximized, and the achievement of a balanced portfolio and the right constellation
of projects are considered.
Heliotis entwickelt und vertreibt 3D Messsysteme welche auf der Weisslichtinterferometrie basieren. Dank
der hohen Präzision und geringen Messzeit werden die Messsysteme in Produktionslinien zur Qualitätskontrolle
eingesetzt. In heutigen Bildverarbeitungssystemen werden die Oberflächendaten zu einem Bildverarbeitungsrechner
übertragen, welcher diese auswertet und Ergebnisse zur Maschinensteuerung übermittelt.
In dieser Arbeit wird das bestehende Messsystem zur smarten Kamera erweitert. Ein Framework zur Integration
anwendungsspezifischer Inspektionsaufgaben wird evaluiert. Hierfür wird ein Skript basierter Ansatz
gewählt und mit der Bildverarbeitungsbibliothek HALCON realisiert. Zur Kommunikation mit der
Maschinensteuerung werden zwei Schnittstellen implementiert. Für den einfachen Informationsaustausch
stehen digitale Ein- und Ausgänge zur Verfügung und numerische Resultate können über eine EtherCAT
Schnittstelle übermittelt werden. Abschliessend wird die Funktionalität mit einem Demonstrator belegt und
die Leistungsfähigkeit des smart Kamera Ansatzes mit derjenige Computer basierter Lösungen verglichen.
Heliotis develops and commercializes 3D measurement systems based on white light interferometry. Due to
the high accuracy and the short cycle time these measurement systems are used in production lines for quality
control. In existing machine vision systems the topology information is transferred to and evaluated on a
vision computer which communicates the inspection outcome to a higher level control unit. This thesis
expands the measurement system to a smart camera. A framework for integration of inspection tasks is
evaluated. A script based solution is selected and realized using the HALCON image processing library. Two
interfaces for communication with a higher level control unit are implemented. For simple signalling digital
IOs are used whereas numerical results are transmitted over EtherCAT. A demonstrator was built and the
smart camera’s performance is benchmarked vs. a conventional computer based solution.