200 results on '"Echtzeit"'
Search Results
2. Echtzeit im Verhältnis von Mensch und Maschine: Die Relevanz von Echtzeit für den Wandel von Arbeit und in der Digitalisierung.
- Author
-
SCHWEICKERT, HEIDI
- Abstract
Copyright of Technikgeschichte is the property of Nomos Verlagsgesellschaft mbH & Co. KG and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2023
- Full Text
- View/download PDF
3. Alles über das Pankreas.
- Author
-
Dietrich, Christoph F. and Zander, Tobias
- Subjects
- *
CONTRAST-enhanced ultrasound , *ENDOSCOPIC ultrasonography , *CONTRAST media , *NEUROENDOCRINE tumors , *ELASTOGRAPHY , *PANCREATIC duct , *DIFFERENTIAL diagnosis , *ULTRASONIC imaging , *PANCREAS , *PANCREATIC cysts , *PANCREATIC surgery - Abstract
Ultrasound has made tremendous progress with the use of contrast media and elastography, particularly in patients with small, solid pancreatic lesions (SPL) <20mm and cystic tumors (CPL) of any size. In the case of solid and cystic pancreatic lesions, the differential diagnosis must first be evaluated after detection in order to define the indications for radical surgery, strategies for preserving the pancreatic parenchyma or simply for control examinations. Contrast-enhanced transcutaneous (TUS, CEUS) and endoscopic (EUS, CE-EUS) ultrasound and elastography facilitate further characterization of SPL and ZPL. Pancreatic ductal adenocarcinomas (PDAC) show hypoenhancement in contrast-enhanced ultrasound. The majority of the important differential diagnoses, on the other hand, are multi-enhancing. PDAC are almost always harder than healthy pancreatic parenchyma. In contrast, elastographically soft SPL are – with very few exceptions – benign. This review provides an overview of the use of modern ultrasound techniques to detect and characterize solid and cystic pancreatic lesions. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
4. Neuartiges wegbasiertes Modell zur Abbildung des Zeitverhaltens eines Kreuzstromwärmeübertragers.
- Author
-
Geneder, Stefan and Jumar, Ulrich
- Subjects
ALGEBRAIC equations ,RADIATORS ,TIME ,NANOFLUIDICS ,DISPERSION (Chemistry) ,FLUIDS ,HEAT transfer ,HEAT exchangers ,NONLINEAR oscillators - Abstract
Copyright of Automatisierungstechnik is the property of De Gruyter and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2022
- Full Text
- View/download PDF
5. Let's teach computers to listen: 20 years of AI in acoustic research and development at JOANNEUM RESEARCH.
- Author
-
Graf, Franz, Amon, Clemens, Blass, Martin, Fišer, Moritz, Fuhrmann, Ferdinand, and Krebs, Florian
- Abstract
Copyright of e & i Elektrotechnik und Informationstechnik is the property of Springer Nature and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2021
- Full Text
- View/download PDF
6. emoTouch Web – A Web-Based System for Continuous Real Time Studies With Smartphones, Tablets, and Computers.
- Author
-
Louven, Christoph, Scholle, Carolin, Gehrs, Fabian, and Lenz, Antonia
- Subjects
CONTINUOUS time systems ,SMARTPHONES ,COMPUTERS ,SPORTS events - Abstract
Copyright of Jahrbuch Musikpsychologie is the property of Audio Engineering Society and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2021
- Full Text
- View/download PDF
7. Patiententracking mit Beacon-Technologie: Pilotprojekt in einer radiologischen Praxis.
- Author
-
Escher, Achim, Fithal, Maura, Marqua, Marvin, and Brodbeck, Dominique
- Abstract
Copyright of Der Radiologe is the property of Springer Nature and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2020
- Full Text
- View/download PDF
8. In-Memory-Platform SAP HANA als Big Data-Anwendungsplattform
- Author
-
Prassol, Pascal, Fröschle, Hans-Peter, Series editor, Hildebrand, Knut, Series editor, Hofmann, Josephine, Series editor, Knoll, Matthias, Series editor, Meier, Andreas, Series editor, Meinhard, Stefan, Series editor, Reinheimer, Stefan, Series editor, Robra-Bissantz, Susanne, Series editor, Strahringer, Susanne, Series editor, and Fasel, Daniel, editor
- Published
- 2016
- Full Text
- View/download PDF
9. Arbeiten mit Material aus den Sozialen Netzwerken
- Author
-
Primbs, Stefan, Hooffacker, Gabriele, Series editor, and Primbs, Stefan
- Published
- 2016
- Full Text
- View/download PDF
10. Kuratieren – jeder ist ein Herausgeber
- Author
-
Primbs, Stefan, Hooffacker, Gabriele, Series editor, and Primbs, Stefan
- Published
- 2016
- Full Text
- View/download PDF
11. Standalone track reconstruction on GPUs in the first stage of the upgraded LHCb trigger system & Preparations for measurements with strange hadrons in Run 3
- Author
-
Calefice, Lukas, Albrecht, Johannes, and Kröninger, Kevin
- Subjects
GPUs ,LHCb upgrade ,Track reconstruction ,Upgrade ,Datenanalyse ,LHCb ,Real-time analysis ,Echtzeit ,Detectors and Experimental Techniques - Abstract
The LHCb experiment is undergoing its first major detector upgrade to operate at a five times higher instantaneous luminosity during the Run 3 data taking period. It is equipped with a new set of tracking detectors (VELO, UT, SciFi) to match the conditions of an increased track multiplicity and radiation damage. The hardware trigger stage is removed. The first stage of the software trigger system is implemented to run on about 200 GPU cards with a throughput of 30MHz. An alternative tracking algorithm called Seeding & Matching for the first trigger stage is developed and presented in this thesis. Other than the formerly used forward tracking, the presented algorithm performs the tracking without making use of the UT which allows to run in the early data taking of Run 3 before the UT will be installed. The Seeding is a standalone reconstruction of track segments in the SciFi, which is followed by a Matching step where the SciFi seeds are matched to VELO track segments reconstructed beforehand. The physics and computing performance of the Seeding & Matching is evaluated and found to be compatible with the forward tracking. The Seeding & Matching is now used as the new baseline algorithm and currently being commissioned on the first Run 3 data. Furthermore, preparations for an early Run 3 measurement of the ratios of the production cross-section of Λ and KS hadrons are presented in this thesis., L'expérience LHCb au CERN est en train d'effectuer son premier majeur upgrade (LHCb) afin de pouvoir prendre des données avec une luminosité cinq fois plus grande pendant le Run 3. Il sera équipé d'un nouvel ensemble de trajectographes (VELO, UT, SciFi) pour s'adapter aux conditions d'une multiplicité de traces et d'un rayonnement plus élevée. La première étape du système de trigger est mise en œuvre pour fonctionner sur 200 cartes GPU à un débit de données de 30MHz. Une reconstruction de trace alternative, appelée Seeding & Matching, pour le premier niveau du trigger est développée et présentée dans cette thèse. Contrairement au forward tracking utilisé précédemment, l'algorithme présenté ici se passe de l'UT, de sorte qu'il peut être utilisé avant que l'UT ne soit complètement installé. Le Seeding est une reconstruction autonome de segments de trace dans le SciFi, suivie d'un Matching où les segments du SciFi sont associés aux segments de trace VELO reconstruits précédemment. Le Seeding & Matching montre une performance physique et informatique compatible avec le forward tracking. Il est maintenant utilisé comme nouvel algorithme principal et mis en service avec les premières données du Run 3. De plus, des études préparatoires pour une mesure avec les premières données du Run 3 LHCb des rapports des sections efficaces de production des hadrons Λ et KS sont présentées dans cette thèse., Das LHCb-Experiment durchläuft sein erstes großes Detektor-Upgrade, um während Run 3 Daten mit einer verfünffachten instantanen Luminosität nehmen zu können. Es wird dafür mit einem neuen Satz an Spurfindungsdetektoren (VELO, UT, SciFi) ausgestattet, um sich an die Bedingungen der erhöhten Spurmultiplizität und Strahlungsschäden anzupassen. Der Hardware-Trigger wird entfernt. Die erste Stufe des Software-Triggers ist implementiert um auf 200 GPU-Karten bei einem Datendurchsatz von 30 MHz zu laufen. Eine alternative Spurrekonstruktion, genannt Seeding & Matching, für die erste Triggerstufe wird entwickelt und ist präsentiert in dieser Arbeit. Im Gegensatz zu dem vorher verwendeten forward tracking kommt der hier präsentierte Algorithmus ohne den UT aus, sodass er am Anfang von Run 3 verwendet werden kann bevor der UT vollständig installiert ist. Das Seeding ist eine eigenständige Rekonstruktion von Spursegmenten im SciFi, auf die ein Matching folgt, wo die SciFi-Segmente den vorher rekonstruierten VELO-Spursegmenten zugeordnet werden. Das Seeding & Matching zeigt ein physikalische und Computing- Performance kompatibel mit dem forward tracking. Es wird momentan als neuer Hauptalgorithmus verwendet und mit den ersten Run 3 Daten in Betrieb genommen. Zusätzlich werden vorbereitende Studien für eine Messung mit ersten Run 3 LHCb- Daten von Verh ̈altnissen der Produktionswirkungsquerschnitte von Λ0 und KS0 Hadronen in dieser Arbeit vorgestellt.
- Published
- 2023
12. Advanced implementation of hybrid fire simulation
- Author
-
Faghihi, Faranak (M. Sc.)
- Subjects
Numerische Strömungssimulation ,Echtzeit ,Hybridsimulation ,Brand ,624 Ingenieurbau, Umwelttechnik ,Brandprüfung ,ddc:624 - Abstract
Die hybride Brandsimulation (HFS) ist eine neuartige Methode zur Analyse der Gesamtstrukturen im Brandfall. Bei dieser Methode wird der Teil eines Bauwerks, das einem Brand ausgesetzt ist, in einem Brandversuch physikalisch getestet, während der Rest des Bauwerks numerisch modelliert wird. Bei HFS als erweiterter FE-Simulation kontrolliert und aktualisiert das numerische Modell kontinuierlich die Daten des laufenden Brandversuchs. In dieser Dissertation wird ein kleines Benchmark-Problem mit einem Freiheitsgrad verwendet. Es werden eine Reihe von hybriden Brandsimulationen durchgeführt und die Robustheit und Genauigkeit des implementierten HFS-Frameworks wird durch die Untersuchung verschiedener Parameter, wie z.B. des angewandten Lastverhältnisses, der Aufheizrate sowie einflussreicher rechnergestützter Faktoren, validiert. Darüber hinaus wird der Einfluss des Wärmeübergangs an der Schnittstelle von Substrukturen im Hybridmodell durch einen virtuellen HFS-Ansatz dargestellt., Hybrid fire simulation (HFS) is a novel method for analysis of global performance of structures in fire. In the principles of this method, the part of a structure subjected to fire is physically tested in a fire test while the rest of the structure is numerically modeled. In HFS as an extended FE simulation, the numerical model continuously controls and updates the data of the ongoing fire test. In this dissertation, a small-scale one-degree-of-freedom benchmark problem is applied. A series of hybrid fire simulations are performed and the robustness and accuracy of the implemented HFS framework are validated by investigating various parameters as applied load ratio, heating rate as well as influencing computational factors. Additionally, the influence of heat transfer at the interface of substructures in hybrid model is also presented by a virtual HFS approach.
- Published
- 2023
- Full Text
- View/download PDF
13. Beschleunigte Inversion-Recovery MR-Bildgebung des Myokards mit spiralen Auslesezügen
- Author
-
Portmann, Johannes
- Subjects
Bildgebendes Verfahren ,Kernspintomografie ,Echtzeit ,ddc:610 ,Herzfunktion ,610 Medizin und Gesundheit ,Herzmuskel - Abstract
This work deals with the acceleration of cardiovascular MRI for the assessment of functional information in steady-state contrast and for viability assessment during the inversion recovery of the magnetization. Two approaches are introduced and discussed in detail. MOCO-MAP uses an exponential model to recover dynamic image data, IR-CRISPI, with its low-rank plus sparse reconstruction, is related to compressed sensing. MOCO-MAP is a successor to model-based acceleration of parametermapping (MAP) for the application in the myocardial region. To this end, it was augmented with a motion correction (MOCO) step to allow exponential fitting the signal of a still object in temporal direction. Iteratively, this introduction of prior physical knowledge together with the enforcement of consistency with the measured data can be used to reconstruct an image series from distinctly shorter sampling time than the standard exam (< 3 s opposed to about 10 s). Results show feasibility of the method as well as detectability of delayed enhancement in the myocardium, but also significant discrepancies when imaging cardiac function and artifacts caused already by minor inaccuracy of the motion correction. IR-CRISPI was developed from CRISPI, which is a real-time protocol specifically designed for functional evaluation of image data in steady-state contrast. With a reconstruction based on the separate calculation of low-rank and sparse part, it employs a softer constraint than the strict exponential model, which was possible due to sufficient temporal sampling density via spiral acquisition. The low-rank plus sparse reconstruction is fit for the use on dynamic and on inversion recovery data. Thus, motion correction is rendered unnecessary with it. IR-CRISPI was equipped with noise suppression via spatial wavelet filtering. A study comprising 10 patients with cardiac disease show medical applicability. A comparison with performed traditional reference exams offer insight into diagnostic benefits. Especially regarding patients with difficulty to hold their breath, the real-time manner of the IR-CRISPI acquisition provides a valuable alternative and an increase in robustness. In conclusion, especially with IR-CRISPI in free breathing, a major acceleration of the cardiovascular MR exam could be realized. In an acquisition of less than 100 s, it not only includes the information of two traditional protocols (cine and LGE), which take up more than 9.6 min, but also allows adjustment of TI in retrospect and yields lower artifact level with similar image quality., Diese Arbeit behandelt die Beschleunigung der kardiovaskulären MRT zum Erfassen funktioneller Information bei Steady-State-Kontrast und zur Unter- suchung der Vitalität bei Wiederherstellung der Magnetisierung nach ihrer Inversion. Zwei Ansätze werden eingeführt und im Detail diskutiert: MOCO- MAP, welches ein exponentielles Modell nutzt, um dynamische Daten zu rekonstruieren, und IR-CRISPI, welches mit seinem “low-rank plus sparse"- Algorithmus mit Compressed Sensing verwandt ist. MOCO-MAP ist der Nachfolger der modellbasierten Beschleunigung des Parameter-Mappings (MAP) für die Anwendung im Bereich des Myokards. Hierzu wurde es mit einer Bewegungskorrektur (MOCO) versehen, um expo- nentielles Fitten eines unbewegten Objects in Zeitrichtung zu ermöglichen. Das Einbringen dieses physikalischen Vorwissens zusammen mit dem Erzwin- gen von Konsistenz mit den Messdaten wird dazu genutzt, iterativ eine Bildfolge aus Daten einer deutlich kürzeren Messung als herkömmlich zu rekonstruieren (< 3 s gegenüber ca. 10 s). Die Ergebnisse zeigen die Umsetz- barkeit der Methode sowie die Nachweisbarkeit von Delayed Enhancements im Myokard, aber deutliche funktionelle Abweichungen und Artefakte bereits aufgrund von kleinen Ungenauigkeiten der Bewegungskorrektur. IR-CRISPI geht aus CRISPI hervor, welches zur Auswertung von funk- tionellen Echtzeitdaten bei konstantem Kontrast dient. Mit der Rekon- struktion durch getrennte Berechnung von niedrigrangigem und dünnbe- setztem Matrixanteil wird hier bei der Datenrekonstruktion weniger stark eingeschränkt als bei einem strikten exponentiellen Modell. Die pirale Auf- nahmeweise erlaubt hierzu ausreichend effiziente k-Raumabdeckung. Die “low-rank plus sparse"-Rekonstruktion ist kompatibel mit dynamischen und mit Inversion-Recovery-Daten. Eine Bewegungskorrektur ist folglich nicht nötig. IR-CRISPI wurde mit einer Rauschunterdrückung durch räumliche Wavelet- Filterung versehen. Eine Studie, die 10 Patienten einschließt, zeigt die Eignung für die medizinische Anwendung. Der Vergleich mit herkömm- lichen Aufnahmetechniken lässt auf den gewonnenen diagnostischen Nutzen schließen. Besonders für Patienten, die Schwierigkeiten mit dem Luftanhal- ten haben, eröffnet diese Echtzeitaufnahmemethode eine wertvolle Alterna- tive und erhöhte Stabilität. Am Ende konnte gerade mittels IR-CRISPI eine bemerkenswerte Beschleu- nigung der kardiovaskulären MR-Untersuchung verwirklicht werden. Trotz der kurzen Aufnahmezeit von weniger als 100 s für den kompletten linken Ven- trikel schließt es nicht nur die Information zweier herkömmlicher Protokolle mit ein (Cine und LGE), die zusammen mehr als 9,6 min dauern, sondern es erlaubt zusätzlich auch das Einstellen der TI-Zeit im Nachhinein und liefert Ergebnisse mit geringerem Artefaktlevel bei ähnlicher Bildqualität
- Published
- 2023
14. Zertifizierungsgerechter Entwurf betriebsmitteladäquater Automatisierungssysteme mit Sicherheitsverantwortung
- Author
-
Koß, Daniel
- Subjects
safety ,system design ,Redundanz ,certification ,Prüfung ,assessment ,real-time ,resource adequate ,621.3 ,Sicherheit ,redundance ,Automatisierung ,Komplexität ,Echtzeit ,Systementwurf ,complexity ,Zertifizierung ,betriebsmitteladäquat ,automation - Abstract
Programmierbare elektronische Systeme für sicherheitsgerichtete Anwendungen werden nach Prüfung durch Menschen sicherheitstechnisch abgenommen. Für den praktischen Einsatz können nur solche Systeme zertifiziert werden, die Menschen zuvor als weitestgehend frei von sicherheitskritischen Entwurfsfehlern befunden haben. Komplexität kommt hierbei eine besondere Bedeutung zu, da von ihr die Verstehbarkeit von Systementwürfen abhängt. Betriebsmitteladäquatheit ist ein essentielles Element zur Komplexitätsminimierung und hat darüber hinaus weitere, ausfalltolerierende Auswirkungen. Ziel dieser Arbeit ist daher, die im Entwurfslebenszyklus sicherheitsgerichteter programmierbarer elektronischer Systeme eingesetzten Methoden dahingehend zu verbessern, dass Komplexität durch konsequente Anwendung von Betriebsmitteladäquatheit reduziert wird. Dies führt zu verbesserter Prüfbarkeit und damit zu sichereren Systemen. Zunächst werden einige sicherheitskritische Vorfälle analysiert und Schwachstellen identifiziert. Dabei erweist sich zunehmende Komplexität als vorherrschendes Muster im aktuellen Systementwurf. Anschließend werden Anforderungen an Entwurfsmethoden aus geltenden Normen und bewährter Praxis erhoben. Anhand der Norm DIN EN 61508 wird gezeigt, dass ein Großteil der Anforderungen auf wenige einfache und universelle Entwurfsprinzipien zurückgeführt werden kann. Dies vereinfacht die Anforderungserhebung für künftige Entwürfe. Daraus und aus einem kritischen Überblick über den Stand der Technik wird ein Verbesserungsansatz entwickelt, der sich gesicherter Forschungsergebnisse der Kognitionswissenschaft bedient. Es wird ein Verfahren zur Bewertung der Domänenkomplexität anhand kognitiver Wahrnehmung und Verarbeitung vorgestellt. Praxisnahe Beispiele unterstützen, dieses zu erläutern und zu validieren. Unter Zuhilfenahme des Bewertungsverfahrens wird verdeutlicht, dass etablierte Spezifikationsdokumente, Rechnerarchitekturen und Betriebssysteme derart komplex sind, dass sie nur schwer verstanden werden können. Dies erhöht die Wahrscheinlichkeit verbleibender Entwurfsfehler und damit gefährlicher Ausfälle im Feld. Der etablierte Entwurfsprozess wird derart verbessert, dass sämtliche Hardwarebetriebsmittel aus Verhaltensentwürfen abgeleitet werden können. Damit entstehen den Spezifikationen angemessene Entwürfe, die exakt die Betriebsmittel aufweisen, die zur Gewährleistung vorhersehbaren, robusten und verstehbaren Systemverhaltens benötigt werden. Die Arbeit abschließend wird der verbesserte Prozess anhand der betrachteten Sicherheitsvorfälle, der erhobenen Anforderungen sowie der Praxisbeispiele evaluiert. Es wird deutlich, dass der verbesserte Ansatz die sicherheitstechnische Abnahme programmierbarer elektronischer Systeme durch Komplexitätsreduktion vereinfacht. Dies führt zu einem Gewinn an Sicherheit, da das Gefährdungsrisiko durch verbleibende sicherheitskritische Entwurfsfehler verringert wird., Programmable electronic systems for safety-related applications are safety-licensed after having been assessed by humans. For in-field use, only those systems can be licensed, which have been approved by humans to be free, to the greatest extent possible, of safety-critical design errors. Here, complexity is of special importance as the understandability of system designs depends on it. Resource adequacy is an essential element to minimise complexity, and to render further failure-tolerating effects. Thus, the objective of this work is to improve the methods used within the design lifecycle of safety-related programmable electronic systems to the end that complexity is reduced by consequent utilisation of resource adequacy. This leads to better verifiability and, hence, to safer systems. To begin with, some safety incidents are analysed and weaknesses identified. Increasing complexity turns out to be a prevailing pattern of contemporary systems. Then, requirements for design methods are elicited from technical standards and best practice. On the basis of the industrial standard IEC 61508 it is shown that the majority of requirements can be ascribed to few simple and universal design principles. This facilitates requirements elicitation for future designs. Thereof, and from a critical survey of the state of technology, an approach for im\-prove\-ment is developed that makes use of well-proven research results from cognitive science. A method for assessing domain complexity based on cognitive perception and mental processing is presented. Practical examples facilitate to explain and validate the method. With the help of the assessment method it is illustrated that established specification documents, computer architectures, and operating systems are complex to such an extent, that they can hardly be understood. This increases the probability of residual design errors, and of dangerous failures in the field. The established design process is improved in such a way that all hardware resources needed can be derived from behavioural designs. This leads to designs adequate to the specifications, which comprise exactly those resources needed to ensure predictable, robust and understandable system behaviour. Finally, the improved process is evaluated on the basis of the safety incidents considered before, the requirements elicited, and the practical examples. It becomes clear that the improved approach simplifies the safety licensing of programmable electronic systems by reducing complexity. This results in a gain of safety as the risk of residual safety-critical design errors is reduced.
- Published
- 2023
- Full Text
- View/download PDF
15. Stephan Brössel, Susanne Kaul (Hg.): Echtzeit im Film: Konzepte – Wirkungen – Kontexte
- Author
-
Janda, Martin
- Subjects
Echtzeit ,Erzähltheorie ,Filmtheorie - Published
- 2023
16. Digitale Planungsmethoden
- Author
-
Banihashemi, F., Erlwein, S., Fellner, J., Meister, J., Reitberger, R., Schade, C., Lang, W., Pauleit, S., and Petzold, F.
- Subjects
Nachverdichtung ,Ökobilanz ,Lebenszyklus ,Interview ,Entscheidungsunterstützung ,Echtzeit ,Simulation ,Decision Support ,Planungstool ,Redensification ,ddc - Published
- 2022
17. Methods for Automated Creation and Efficient Visualisation of Large-Scale Terrains based on Real Height-Map Data
- Author
-
Kühnert, Kurt, Brunnett, Guido, Uhlmann, Tom, and Technische Universität Chemnitz
- Subjects
Gelände ,Visualisierung ,Rendering ,Echtzeit ,ddc:000 ,Terrain Rendering, UDLOD, Chunked Clipmap, Level of Detail, Height Field, GPU - Abstract
Real-time rendering of large-scale terrains is a difficult problem and remains an active field of research. The massive scale of these landscapes, where the ratio between the size of the terrain and its resolution is spanning multiple orders of magnitude, requires an efficient level of detail strategy. It is crucial that the geometry, as well as the terrain data, are represented seamlessly at varying distances while maintaining a constant visual quality. This thesis investigates common techniques and previous solutions to problems associated with the rendering of height field terrains and discusses their benefits and drawbacks. Subsequently, two solutions to the stated problems are presented, which build and expand upon the state-of-the-art rendering methods. A seamless and efficient mesh representation is achieved by the novel Uniform Distance-Dependent Level of Detail (UDLOD) triangulation method. This fully GPU-based algorithm subdivides a quadtree covering the terrain into small tiles, which can be culled in parallel, and are morphed seamlessly in the vertex shader, resulting in a densely and temporally consistent triangulated mesh. The proposed Chunked Clipmap combines the strengths of both quadtrees and clipmaps to enable efficient out-of-core paging of terrain data. This data structure allows for constant time view-dependent access, graceful degradation if data is unavailable, and supports trilinear and anisotropic filtering. Together these, otherwise independent, techniques enable the rendering of large-scale real-world terrains, which is demonstrated on a dataset encompassing the entire Free State of Saxony at a resolution of one meter, in real-time.
- Published
- 2022
18. THz imaging for recycling of black plastics.
- Author
-
Küter, Andries, Reible, Stefan, Geibig, Thomas, Nüßler, Dirk, and Pohl, Nils
- Subjects
PLASTICS ,WASTE recycling ,ABSORPTION spectra ,ENTROPY ,DIELECTRICS - Abstract
Copyright of Technisches Messen is the property of De Gruyter and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2018
- Full Text
- View/download PDF
19. Erforschung und Implementierung von Zeitmess- und Zeitkontrollinstruktionen für RISC-V-Cores
- Author
-
Krishnamurthy, Pradeep
- Subjects
Instruktionssatzerweiterung ,Scala ,Echtzeit ,RISC-V ,SpinalHDL ,Kontroller ,FPGA - Published
- 2022
20. Mit Time Sensitive networking die Cloud in die Feldebene bringen
- Author
-
Kehl, Pierre, Sankal, Talib, and Publica
- Subjects
TSN ,CPU pinning ,Edge Cloud ,Echtzeit ,Cloud - Abstract
Durch die Cloud sind wirin unserem Alltag durchgängig mit der Weltvernetzt. Nicht in der Operation Technologie (OT)‚ in der lnsellösungen dominieren. Dies liegt an strikten Anforderungen in Richtung Echtzeit, welche nicht durch bestehende Systeme bedient werden können. TSN und Real-Time Hypervisor können dies jedoch ändern und eine Integration der Cloud in die Produktion ermöglichen. Die Integration der Cloud in den Produktionsprozess ermöglicht eine flexible und adaptive Produktion. Insbesondere die Skalierbarkeit sowie die schnelle Bereitstellung der Anwendungen eröffnet neue Anwendungsfälle in der Montage oder auch der spannenden Produktion. Hierfür ist die Betrachtung von Echtzeit-Berechnung und -Kommunikation ein Schlüssel für die erfolgreiche Integration in die Feldebene.
- Published
- 2022
21. Näher an die harte Echtzeit
- Author
-
Sankal, Talib and Publica
- Subjects
CPU pinning ,Coud ,Echtzeit - Abstract
Im Gegensatz zur klassischen Produktions-IT bieten Cloud-Systeme höhere Rechen- und Speicherkapazitäten. Für Anwendungen mit deterministischen Anforderungen gelten diese Infrastrukturen aber als ungeeignet. Dabei können viele Hürden mit der richtigen Konfiguration und der Nutzung von TSN überwunden werden.
- Published
- 2022
22. Consistency between UML diagrams and source code in real time
- Author
-
Burghuber, Christoph
- Subjects
consistency checking ,real time ,Model and code ,Modell und Code ,Kollaborativ ,model-driven engineering ,Echtzeit ,modellgetriebene Softwareentwicklung ,Konsistenz Prüfung ,collaborative ,UML - Abstract
In model driven engineering, models are being developed to reason of a specific software system. Components such as the structure or behaviour are described by using standardized methods like the unified modeling language (UML). Even though UML models can be designed without considering implementation details, it is still important that the final product reflects the original meaning. However, developers constantly change both model and source code, because requirements keep changing and problems emerge that need solving. Hence, it makes it hard to maintain consistency between those two. In a collaborative environment, this issue becomes even more prominent, as multiple people may work on different engineering artifacts at the same time. The aim of this master thesis is to introduce the concept of model-and-code consistency by developing a system for writing and validating consistency rules. This masters thesis builds on the existing DesignSpace approach and adds a method for continuously validating the consistency between model and source code during the complete lifetime of a software system. This is achieved by validating model to code consistency rules, which we created, to give immediate feedback to the corresponding developer. As a result of this master thesis, we discuss how consistency rules can be defined for a selected set of UML diagram types and provide the implementation of a new plugin in the programming language Java for IntelliJ IDEA, which performs rule validations in real time. In Modellgetriebener Softwareentwicklung werden Modelle entwickelt, die den Aufbau oder das Verhalten von Softwaresystemen beschreiben. Die Modellierungssprache "Unified Modeling Language" (UML) wird für dies meist verwendet, da es ein anerkannter Standard ist. Obwohl UML Modelle oft ohne Implementierungsdetails erstellt werden, ist es wichtig, dass das fertige Softwareprodukt die Bedeutung des am Anfang erstellten Modells entspricht. In einer aktiven Entwicklungsumgebung führen Entwickler laufend Änderungen an Modell und Code durch, weil sich Anforderungen ändern und unerwartete Probleme entstehen, die gelöst werden müssen. Daher ist es schwierig, die Konsistenz zwischen den Beiden auf Dauer sicherzustellen. Besonders in Umgebungen, wo mehrere Personen beteiligt sind, wird diese Problematik noch deutlicher. Das Ziel der vorliegenden Masterarbeit ist es einen Eindruck von Modell-Code Konsistenz zu geben. Hierbei wird ein System entwickelt, um die Konsistenz mittels Regeln automatisch zu prüfen. Diese Masterarbeit baut auf die Applikation "DesignSpace" auf und beschreibt ein neues System, um während des gesamtes Softwareentwicklungsprozesses die Konsistenz sicherzustellen. Dies wird erreicht, indem sogenannte Konsistenzregeln erstellt und laufend validiert werden, damit Inkonsistenzen sofort den jeweiligen Entwicklern mitgeteilt werden. Als Ergebnis dieser Arbeit wird beschrieben, wie Konsistenzregeln für eine ausgewählte Zahl von UML Diagramarten erstellt werden können. Dies erfolgt mit einigen Beispielen, sowie einer Umsetzung eines Java basierten Plugins für die Entwicklungsumgebung IntelliJ IDEA, welches Konsistenzregeln in Echtzeit validiert. Author Christoph Burghuber Masterarbeit Universität Linz 2022
- Published
- 2022
23. Zuverlässige und sichere Software offener Automatisierungssysteme der Zukunft - Herausforderungen und Lösungswege Reliable, safe and secure software of connected future control systems - challenges and solutions.
- Author
-
Keller, Hubert B., Schneider, Oliver, Matthes, Jörg, and Hagenmeyer, Veit
- Abstract
In der modernen Automatisierung ist die Zuverlässigkeit der Software grundlegend und durch konstruktive Maßnahmen zu sichern. Echtzeitsysteme müssen über Schedulingverfahren auf Basis des Prozesskonzepts der Automatisierungstechnik beweisbar die zeitlichen Anforderungen im worst case erfüllen. Fehlervermeidende Sprachen mit Typprüfungen sind notwendig für die Erfüllung der Zuverlässigkeit. Die Anforderungen der Informationssicherheit sind in offenen Automatisierungssystemen integrativ zu erfüllen. Schwachstellen in der Implementierung oder den additiven Sicherheitsmechanismen stellen eine inakzeptable Gefährdung dar. Reliability of software is fundamental in modern control systems and has to be secured by constructive methods. Real time systems must guarantee real time requirements under worst case conditions based on scheduling algorithms and the process concept of computer science (operating system). Error avoiding languages with strong typing is fundamental for achieving reliability. Connected control systems have to satisfy information security requirements in an integrative manner. Vulnerabilities of the implementation or of security equipment represent unacceptable weaknesses. [ABSTRACT FROM AUTHOR]
- Published
- 2016
- Full Text
- View/download PDF
24. LEAN PANEL BENDER - Einige mechanische Aspekte der Modellierung in Echtzeit für Produktion in Losgröße 1.
- Author
-
Zehetner, Christian, Hammelmüller, Franz, Kunze, Wolfgang, Holl, Helmut, and Irschik, Hans
- Abstract
Copyright of BHM Berg- und Hüttenmännische Monatshefte is the property of Springer Nature and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2016
- Full Text
- View/download PDF
25. Ein schneller Algorithmus zur Erkennung und Kompensation von Augenbewegungen zur automatischen Durchführung der funduskontrollierten Mikroperimetrie
- Author
-
Dölemeyer, A., Liebau, H., Toonen, F., Wolf, S., Meyer-Ebrecht, D., Lehmann, Thomas, editor, Metzler, Volker, editor, Spitzer, Klaus, editor, and Tolxdorff, Thomas, editor
- Published
- 1998
- Full Text
- View/download PDF
26. Funktionale Kernspintomographie Sliding-Window Echtzeit-Korrelationsanalyse
- Author
-
Gembris, Daniel, Taylor, John G., Schor, Stefan, Suter, Dieter, Posse, Stefan, Lehmann, Thomas, editor, Metzler, Volker, editor, Spitzer, Klaus, editor, and Tolxdorff, Thomas, editor
- Published
- 1998
- Full Text
- View/download PDF
27. Konzept und Evaluation eines phasenorientierten hierarchischen und asynchronen Multi-Core Schedulers für Software-Echtzeitsysteme
- Author
-
Ernst, Michael, Hardt, Wolfram, Frey, Andreas, and Technische Universität Chemnitz
- Subjects
ddc:006.22 ,Scheduling ,Echtzeit ,hierarchisch, Scheduling, selbst organisierende Systeme, HAMS, Echtzeit ,embedded - Abstract
Im Flugzeug und im Automobil werden dem Piloten bzw. dem Fahrer immer mehr softwarebasierte Funktionen zur Verfügung gestellt. Dieser stetige Anstieg an Softwarefunktionen resultiert in einer steigenden Anzahl an dafür benötigten Steuergeräten. Als Kostenreduktion werden bereits heute Multicore-Prozessoren verwendet, auf welchen anschließend die entsprechenden Funktionen integriert (Hochintegration) werden. Um den Nutzungsgrad eines Multicore-Prozessors weiter zu verbessern, ist eine Alternative zu den bislang statisch konfigurierten Softwaresystemen erforderlich. Ausgangspunkt der vorliegenden Arbeit, bildet die Überlegung, dass viele Zusatzfunktionen während der Fahrt oder dem Flug nur phasenweise aktiv sind. Diese Arbeit beschreibt ein Konzept eines zur Laufzeit rekonfigurierbares Softwaresystem für Multicore-Embedded-Steuergeräte und dessen Referenzimplementierung. Durch die Berücksichtigung der phasenabhängigen Rechenzeit der ausgeführten Funktionen kann durch das beschriebene Konzept der Nutzungsgrad der Rechenleistung von hochintegrierten Steuergeräten weiter gesteigert werden.:1 Einleitung 1.1 Motivation 1.2 Praktisches Beispiel zur Verdeutlichung der Motivation 1.3 Zielsetzung 1.4 Aufbau der Arbeit 1.5 Zusammenfassung 2 Grundlagen 2.1 Eingebettete Steuergeräte 2.2 System Modell 2.3 Scheduling in Echtzeitsystemen 2.4 Knowledgebase 2.5 Linux für Echtzeitsysteme 3 Analyse der Zieldomänen und der Forschung 3.1 Stand der Technik 3.2 Stand der Forschung 3.3 Zusammenfassung 4 Anforderungen und Grundlagen von HAMS 4.1 Situationsanalyse der Zieldomänen 4.2 Anforderungen und Einschränkungen des HAMS-Konzepts 4.3 Phasen in Echtzeitsystemen 4.4 Zusammenfassung 5 Hierarchischer Aufbau der HAMS-Komponenten 5.1 Übersicht der HAMS-Komponenten 5.2 Second Level Scheduler (SLS) 5.3 First Level Scheduler (FLS) 5.4 HAMS Kommunikations API (HAPI) 5.5 Tasks in HAMS 5.6 Zusammenfassung 6 HAMS-Laufzeitumgebung und dessen dynamische Rekonfiguration 6.1 Systemmodi während der Laufzeit 6.2 Dynamische Rekonfiguration in HAMS 6.3 Fehlerbehandlung 6.4 Zusammenfassung 7 Implementierung und Evaluationsumgebung 7.1 Evaluations-Hardware 7.2 Eingliederung von HAMS in Linux 7.3 Eingliederung der HAPI in das Privilegstufenmanagement von Linux 7.4 Laufzeitmessungen für Evaluationszwecke 7.5 HAMS-Simulationstasks 7.6 Bestimmung der Rechenzeitbelastung durch HAMS 7.7 Zusammenfassung 8 Evaluierung 8.1 Evaluations-Konfiguration 8.2 Evaluation 1: Statisches Scheduling und HAMS 8.3 Evaluation 2: Ereignisverarbeitung mit Phasenwechsel 8.4 Evaluation 3 : Wechsel der aktuellen Konfiguration zur Laufzeit 8.5 Evaluations-Zusammenfassung 9 Zusammenfassung
- Published
- 2021
28. Nachverdichtung im Kontext des Klimawandels - Schlussbericht
- Author
-
Banihashemi, F., Erlwein, S., Fellner, J., Meister, J., Reitberger, R., Schade, C., Lang, W., Pauleit, S., and Petzold, F.
- Subjects
Nachverdichtung ,Ökobilanz ,Lebenszyklus ,Interview ,Entscheidungsunterstützung ,Echtzeit ,Simulation ,Decision Support ,Planungstool ,Redensification ,ddc - Published
- 2021
29. Therapeutischer Einsatz von Closed-loop-Hirnstimulation.
- Author
-
Zrenner, C. and Ziemann, U.
- Abstract
The therapeutic application of brain stimulation is still limited to relatively few indications and small groups of patients due to variable efficacy. Individualization of stimulation parameters by employing a closed-loop system, i.e. synchronization of stimulation with endogenous brain activity with millisecond precision, has the potential to significantly improve the therapeutic efficacy when compared to open-loop systems. In this article the theoretical and experimental results are reviewed including first clinical trials that support the superiority of closed-loop brain stimulation, fundamental aspects in the development of closed loop methods are discussed and clinical studies which could quantify an increase in effectiveness are summarized. A significant increase in the indications for therapeutic applications of closed-loop systems is to be expected in the near future. [ABSTRACT FROM AUTHOR]
- Published
- 2015
- Full Text
- View/download PDF
30. Weiterentwicklung eines Algorithmus zur globalen Prüfung von Beschleunigungszeitsignalen in Echtzeit
- Author
-
Böhmer, Leo
- Subjects
Qualität ,Beschleunigungssensoren ,Echtzeit ,Fehlerprüfung - Published
- 2021
31. Typical load profile-supported convolutional neural network for short-term load forecasting in the industrial sector
- Author
-
Alexander Sauer, Thilo Walser, and Publica
- Subjects
Electrical load ,Computer science ,Decision tree ,Elektrizität ,Energieeffizienz ,computer.software_genre ,Convolutional neural network ,Load profile ,Reduction (complexity) ,QA76.75-76.765 ,Electricity ,Artificial Intelligence ,Machine learning ,Echtzeit ,Computer software ,Energy flexibility ,Engineering (miscellaneous) ,Physics::Atmospheric and Oceanic Physics ,Load forecasting ,maschinelles Lernen ,Hybrid ,TK1-9971 ,Term (time) ,General Energy ,Industrial energy systems ,Factory (object-oriented programming) ,Electrical engineering. Electronics. Nuclear engineering ,Data mining ,Energiesystem ,computer ,Hybrid model ,Data transmission - Abstract
This paper investigates how existing forecasting models can be enhanced to accurately forecast the electric load at factory level, enabling industrial companies to shift consumption to times of low energy costs. The model architecture must outperform state-of-the-art models and be sufficiently robust for use in multiple factories with low effort for specific applications. Moreover, this work focuses on the processing of high-resolution input data available almost in real time from multiple submeters after the main meters. The theory of load forecasting and related works are summarized in a first step including the requirements of forecasting models applied at factory level. Based on existing models, a new hybrid machine-learning model is proposed, combining a decision tree-based typical load profiler with a convolutional neural network that extracts features from multidimensional endogenous inputs with measurements of the preceding two weeks for multi-step-ahead load forecasts updated almost in real time. Furthermore, a multi-model approach is presented for calculating bottom-up forecasts with submeter data aggregated to a main-meter forecast. In a case study, the forecasting accuracy of the hybrid model is compared to both base models and a seasonal naive model calculating the load forecasts for three factories. The results indicate that the proposed typical-load-profile-supported convolutional neural network for all three factories achieves the lowest forecasting error. Furthermore, it is validated that a reduction in data transfer delay leads to better forecasts, as the forecasting accuracy is higher with near real time data than with a data transfer delay of one day. Thus, a model architecture is proposed for robust forecasting in digitalized factories.
- Published
- 2021
32. Einfluss atmosphärischer Umgebungsbedingungen auf den Lebenszyklus konvektiver Zellen in der Echtzeit-Vorhersage
- Author
-
Wilhelm, Jannik and Kunz, M.
- Subjects
Wettervorhersage ,Unwetter ,Vorhersage ,real-time ,nowcasting ,Gewitter ,Dynamik ,Konvektion ,Machine Learning ,severe convective storms ,thermodynamics ,severe weather ,ddc:550 ,Echtzeit ,Statistik ,life cycle ,Thermodynamik ,weather forecasting ,meteorology ,Meteorologie ,climate ,convection ,Troposphäre ,lifetime ,Random Forest ,ensemble ,weather forecast ,prediction ,dynamics ,Lebensdauer ,thunderstorms ,Regression ,environmental conditions ,Earth sciences ,Umgebungsbedingungen ,Klima ,troposphere ,statistics ,weather ,Wetter ,atmosphere ,Lebenszyklus ,Atmosphäre - Abstract
Die vorliegende Dissertation beschäftigt sich mit der Analyse der Lebenszyklen konvektiver Zellen im Zusammenhang mit den vorherrschenden Umgebungsbedingungen in Deutschland. Darüber hinaus werden verschiedene statistische Vorhersagemodelle zur Abschätzung der Lebensdauer und der Größe konvektiver Zellen entwickelt und untersucht. Das Ziel dabei ist es herauszufinden, welche Methode für eine Verbesserung von Verfahren zur Echtzeit-Vorhersage (Nowcasting) am besten geeignet ist. Die Grundlage für diese Untersuchungen bilden Daten des radarbasierten Zellverfolgungsalgorithmus KONRAD, anhand derer zusammenhängende Lebenszyklen von isolierter Konvektion (Einzel- und Superzellen) für die Sommerhalbjahre 2011-2016 erstellt werden. Zusätzlich wird eine Vielzahl konvektionsrelevanter Umgebungsvariablen unter Verwendung von hochaufgelösten Assimilationsanalysen des numerischen Wettervorhersagemodells COSMO-EU berechnet und mit den Lebenszyklen zusammengeführt. Auf Basis dieses kombinierten Datensatzes werden statistische Zusammenhänge zwischen verschiedenen Zellattributen und Umgebungsvariablen untersucht. Wie die Analysen zeigen, sind insbesondere Maße der vertikalen Windscherung aufgrund ihres Einflusses auf die Organisationsform der Konvektion geeignet, zwischen Zellen mit kurzer und langer Lebensdauer zu unterscheiden. Eine erhöhte thermische Instabilität der Atmosphäre geht mit einem schnelleren anfänglichen Wachstum der Zellen einher, welches wiederum eine größere horizontale Zellausdehnung (Zellfläche) während des Lebenszyklus und damit indirekt eine längere Lebensdauer begünstigt. Drei unterschiedliche multivariate Methoden (logistische Regression, Random Forest, nicht-linearer Polynomansatz) werden als Modelle für die Abschätzung der Lebensdauer und der maximalen Zellfläche der konvektiven Zellen mit Hilfe eines Ensembleansatzes untersucht. Die Vorhersagegüte der Modelle wird evaluiert und die Bedeutung der anfänglichen Zellentwicklung und der Umgebungsvariablen analysiert. Dabei werden Potentiale und Grenzen der Methoden aufgezeigt, die verdeutlichen, dass die Wahl eines geeigneten Verfahrens von der genauen Fragestellung bzw. Anforderung des Nowcastings abhängt. Die Untersuchungen legen dar, dass sich die maximale Zellfläche der konvektiven Zellen insgesamt besser abschätzen lässt als ihre Lebensdauer. Umgebungsvariablen, die den dynamischen und thermodynamischen Zustand der Atmosphäre charakterisieren, sind insbesondere zu Beginn der Zellentwicklung für die Abschätzung der zukünftig zu erwartenden Entwicklung der Zellen bedeutsam, während mit zunehmendem Zellalter die vergangene Zellhistorie immer wichtiger wird.
- Published
- 2021
33. Implementation of Audio-Manipulation on Single-Board Computers
- Author
-
Pscheidl, Beatrice
- Subjects
Single-Board Computer ,Audio ,WiFi ,Raspberry Pi ,Signal Processing ,Signalverarbeitung ,Echtzeit ,Sprechfunk ,Real-Time ,Wi-Fi ,Voice Radio ,Einplatinencomputer - Abstract
Diese Arbeit beschäftigt sich mit der Umsetzung von Echtzeit Audio-Manipulation auf Einplatinencomputern im professionellen Bereich. Zu Beginn wird ein Konzept für eine stabile Lösung erarbeitet. Dafür werden verschiedene Komponenten, sowohl im Bereich der Hardware als auch für Software, verglichen und für das Konzept ausgewählt. Die begrenzten Systemressourcen von Einplatinencomputern werden hierfür berücksichtigt. Um das Konzept überprüfen zu können, wurde im Vorfeld der Arbeit eine praktische Anwendung gefunden. Diese Anwendung ist ein Sprechfunktrainer für den Flug- und Seesprechfunk. Der Sprechfunktrainer besteht aus zwei Geräten, welche miteinander über WiFi kommunizieren und untereinander Audio-Streams austauschen. Auf einem der Geräte wird der Stream zusätzlich vor Ausgabe an den Benutzer verändert bzw. manipuliert. Als Vorlage für die Audio-Manipulation werden Sprechfunk-Aufnahmen herangezogen. Auf Basis dieser Aufnahmen wird eine Audio-Analyse durchgeführt. Mit dieser Analyse werden Parameter abgeleitet, welche in der Umsetzung des Konzeptes zum Einsatz kommen. Die ausgewählten Komponenten und gefundenen Manipulations-Parameter werden im praktischen Anwendungsfall, einem Proof-of-Concept, zusammengefügt und danach evaluiert. Die Audio-Manipulation wird in Software durchgeführt. Zu diesem Zweck wird eine spezielle Anwendungssoftware erstellt. Diese Software besteht aus zwei Teilen: der Benutzeranwendung und der Audiomanipulations-Software. Nach Evaluierung des Konzeptes durch verschiedene Tests wird die Forschungsfrage beantwortet. Dabei zeigt sich, dass eine Audiomanipulation in Echtzeit auf bestimmten Einplatinencomputern möglich ist. Das erstellte Konzept und der daraus resultierende Prototyp des Sprechfunktrainers erfüllen die für eine Audio-Manipulation in Echtzeit und zusätzliche Übertragung auf ein anderes Gerät notwendigen Anforderungen. This thesis deals with the implementation of real-time audio manipulation on single-board computers for professional use. In the beginning, a concept for a stable solution is developed. For this purpose, various components, both in terms of hardware and software, are compared and selected for the concept. The limited system resources of single-board computers are taken into account. To be able to evaluate the concept, a practical application was found in advance; this application is a voice radio trainer for aviation and marine radio. The voice radio trainer consists of two devices that communicate via Wi-Fi to exchange audio streams with each other. On one of the devices, the stream is also manipulated before it is presented to the user on a headset. Real-world voice radio recordings are used as samples for the audio manipulation mechanism. Audio analysis is carried out based on these recordings.With this analysis, parameters are derived that are further used in the implementation of the concept. The selected components and manipulation parameters are put together in the practical application, a proof of concept. This proof of concept is then evaluated. The audio manipulation is carried out in software. For this purpose, special application software is developed. This software consists of two parts: the user application and the audio manipulation software. After evaluating the concept through various tests, the research question is answered. It is found that real-time audio manipulation is possible on certain single-board computers. The developed concept and the resulting prototype of the voice radio trainer meet the requirements for audio manipulation in real time and additional transmission to another device. vorgelegt von: Beatrice Pscheidl Masterarbeit Wien, FH Campus Wien 2021
- Published
- 2021
34. Rapid Response to Extraordinary Events: Transient Neutrino Sources with the IceCube Experiment
- Abstract
Im Jahr 2013 ist es dem IceCube-Experiment gelungen, einen Fluss von Neutrinos extraterrestrischen Ursprungs nachzuweisen, und damit das Neutrino als weiteres kosmisches Botenteilchen zu etablieren. Die Frage nach dem Ursprung der Neutrinos, die einen komplementären Blick auf die Quellen bieten, kann möglicherweise die alte Frage nach dem Ursprung der kosmischen Strahlung lösen. Zeitunabhängige Suchen nach Neutrinoquellen konnten bisher keine einzelnen Kandidaten isolieren. Zeitlich veränderliche Quellen kommen daher als Ursprung in Betracht. IceCube ermöglicht es, kontinuierlich den gesamten Himmel nach aufflackernden Neutrinoquellen abzusuchen und die astronomische Gemeinschaft schnellstmöglich zu benachrichtigen. In dieser Arbeit wird die Echtzeitidentifikation und -rekonstruktion von Myonneutrinokandidaten mit IceCube verbessert. Die erreichte Sensitivität ist mit etablierten nicht-Echtzeit Analysen vergleichbar. Kontinuierlich vom Experiment am Südpol übermittelte Informationen werden sofort auf bemerkenswerte Ereignisse hin analysiert. Bekannte astrophysikalische Quellen von Gammastrahlung werden auf Neutrinoemission hin beobachtet. Eine verallgemeinerte Methode erlaubt die Suche nach Signalen überall, unbeeinflusst von vorher bekannten Quellen. Weiterhin werden die hochenergetischsten Neutrinokandidaten, die wahrscheinlich astrophysikalischen Ursprungs sind, sofort identifiziert und global bekannt gemacht. Abschließend werden die Suchalgorithmen am Beispiel zweier Blazare demonstiert, 1ES 1959+650 und TXS 0506+56. In letzterem Fall wurden erstmals Anzeichen für eine Quelle hochenergetischer, kosmischer Neutrinos gefunden. Die im Rahmen dieser Arbeit entwickelte Infrastruktur erlaubt es, die astronomische Gemeinschaft auf signifikante Neutrinoereignisse, oder sich entwickelnde Neutrinocluster hinzuweisen. Auch die zügige Suche nach Neutrinos in Reaktion auf interessante astrophysikalische Ereignisse, wie z.B. Gravitationswellen, ist möglich., The discovery of an flux of neutrinos of astrophysical origin with the IceCube experiment in 2013 has broadened our understanding of cosmic messengers and opened a new window on the universe. By addressing the newly pertinent question about their sources, neutrinos can provide a complementary view on cosmic accelerators and may help solving the long-standing puzzle of the origin of the cosmic rays. As traditional time-integrated searches for sources of neutrinos have not been able to isolate individual candidates, variable and transient sources shift into focus. IceCube's design allows to continuously search the entire sky for neutrino flares, and alert the community with the lowest possible latency in the case of a detection. This thesis improves the identification and reconstruction of muon neutrino candidates with IceCube in real-time, achieving a sensitivity comparable to dedicated offline analyses. The stream of neutrino candidates is analyzed for interesting events in order to alert partner experiments and inspire follow-up observations. First, known gamma-ray emitters are monitored for time-variable neutrino emission. Second, a generalization of this method monitors the entire sky for neutrino flares, regardless of pre-defined source lists. Third, the most-energetic neutrino candidates with the highest chance to be of astrophysical origin are selected for alerts. Eventually, the search methods are applied to the blazars 1ES 1959+650 and TXS 0506+056. In the latter case, evidence for source of high-energetic, astrophysical neutrinos was found for the first time. The infrastructure built in this work allows to notify the community whenever significant neutrino events are recorded, or significant flares develop on time-scales from days to weeks. It also allows to quickly perform neutrino follow-up searches in response to interesting astrophysical events, such as the observation of gravitational waves.
- Published
- 2020
35. Rapid Response to Extraordinary Events: Transient Neutrino Sources with the IceCube Experiment
- Abstract
Im Jahr 2013 ist es dem IceCube-Experiment gelungen, einen Fluss von Neutrinos extraterrestrischen Ursprungs nachzuweisen, und damit das Neutrino als weiteres kosmisches Botenteilchen zu etablieren. Die Frage nach dem Ursprung der Neutrinos, die einen komplementären Blick auf die Quellen bieten, kann möglicherweise die alte Frage nach dem Ursprung der kosmischen Strahlung lösen. Zeitunabhängige Suchen nach Neutrinoquellen konnten bisher keine einzelnen Kandidaten isolieren. Zeitlich veränderliche Quellen kommen daher als Ursprung in Betracht. IceCube ermöglicht es, kontinuierlich den gesamten Himmel nach aufflackernden Neutrinoquellen abzusuchen und die astronomische Gemeinschaft schnellstmöglich zu benachrichtigen. In dieser Arbeit wird die Echtzeitidentifikation und -rekonstruktion von Myonneutrinokandidaten mit IceCube verbessert. Die erreichte Sensitivität ist mit etablierten nicht-Echtzeit Analysen vergleichbar. Kontinuierlich vom Experiment am Südpol übermittelte Informationen werden sofort auf bemerkenswerte Ereignisse hin analysiert. Bekannte astrophysikalische Quellen von Gammastrahlung werden auf Neutrinoemission hin beobachtet. Eine verallgemeinerte Methode erlaubt die Suche nach Signalen überall, unbeeinflusst von vorher bekannten Quellen. Weiterhin werden die hochenergetischsten Neutrinokandidaten, die wahrscheinlich astrophysikalischen Ursprungs sind, sofort identifiziert und global bekannt gemacht. Abschließend werden die Suchalgorithmen am Beispiel zweier Blazare demonstiert, 1ES 1959+650 und TXS 0506+56. In letzterem Fall wurden erstmals Anzeichen für eine Quelle hochenergetischer, kosmischer Neutrinos gefunden. Die im Rahmen dieser Arbeit entwickelte Infrastruktur erlaubt es, die astronomische Gemeinschaft auf signifikante Neutrinoereignisse, oder sich entwickelnde Neutrinocluster hinzuweisen. Auch die zügige Suche nach Neutrinos in Reaktion auf interessante astrophysikalische Ereignisse, wie z.B. Gravitationswellen, ist möglich., The discovery of an flux of neutrinos of astrophysical origin with the IceCube experiment in 2013 has broadened our understanding of cosmic messengers and opened a new window on the universe. By addressing the newly pertinent question about their sources, neutrinos can provide a complementary view on cosmic accelerators and may help solving the long-standing puzzle of the origin of the cosmic rays. As traditional time-integrated searches for sources of neutrinos have not been able to isolate individual candidates, variable and transient sources shift into focus. IceCube's design allows to continuously search the entire sky for neutrino flares, and alert the community with the lowest possible latency in the case of a detection. This thesis improves the identification and reconstruction of muon neutrino candidates with IceCube in real-time, achieving a sensitivity comparable to dedicated offline analyses. The stream of neutrino candidates is analyzed for interesting events in order to alert partner experiments and inspire follow-up observations. First, known gamma-ray emitters are monitored for time-variable neutrino emission. Second, a generalization of this method monitors the entire sky for neutrino flares, regardless of pre-defined source lists. Third, the most-energetic neutrino candidates with the highest chance to be of astrophysical origin are selected for alerts. Eventually, the search methods are applied to the blazars 1ES 1959+650 and TXS 0506+056. In the latter case, evidence for source of high-energetic, astrophysical neutrinos was found for the first time. The infrastructure built in this work allows to notify the community whenever significant neutrino events are recorded, or significant flares develop on time-scales from days to weeks. It also allows to quickly perform neutrino follow-up searches in response to interesting astrophysical events, such as the observation of gravitational waves.
- Published
- 2020
36. Rapid Response to Extraordinary Events: Transient Neutrino Sources with the IceCube Experiment
- Abstract
Im Jahr 2013 ist es dem IceCube-Experiment gelungen, einen Fluss von Neutrinos extraterrestrischen Ursprungs nachzuweisen, und damit das Neutrino als weiteres kosmisches Botenteilchen zu etablieren. Die Frage nach dem Ursprung der Neutrinos, die einen komplementären Blick auf die Quellen bieten, kann möglicherweise die alte Frage nach dem Ursprung der kosmischen Strahlung lösen. Zeitunabhängige Suchen nach Neutrinoquellen konnten bisher keine einzelnen Kandidaten isolieren. Zeitlich veränderliche Quellen kommen daher als Ursprung in Betracht. IceCube ermöglicht es, kontinuierlich den gesamten Himmel nach aufflackernden Neutrinoquellen abzusuchen und die astronomische Gemeinschaft schnellstmöglich zu benachrichtigen. In dieser Arbeit wird die Echtzeitidentifikation und -rekonstruktion von Myonneutrinokandidaten mit IceCube verbessert. Die erreichte Sensitivität ist mit etablierten nicht-Echtzeit Analysen vergleichbar. Kontinuierlich vom Experiment am Südpol übermittelte Informationen werden sofort auf bemerkenswerte Ereignisse hin analysiert. Bekannte astrophysikalische Quellen von Gammastrahlung werden auf Neutrinoemission hin beobachtet. Eine verallgemeinerte Methode erlaubt die Suche nach Signalen überall, unbeeinflusst von vorher bekannten Quellen. Weiterhin werden die hochenergetischsten Neutrinokandidaten, die wahrscheinlich astrophysikalischen Ursprungs sind, sofort identifiziert und global bekannt gemacht. Abschließend werden die Suchalgorithmen am Beispiel zweier Blazare demonstiert, 1ES 1959+650 und TXS 0506+56. In letzterem Fall wurden erstmals Anzeichen für eine Quelle hochenergetischer, kosmischer Neutrinos gefunden. Die im Rahmen dieser Arbeit entwickelte Infrastruktur erlaubt es, die astronomische Gemeinschaft auf signifikante Neutrinoereignisse, oder sich entwickelnde Neutrinocluster hinzuweisen. Auch die zügige Suche nach Neutrinos in Reaktion auf interessante astrophysikalische Ereignisse, wie z.B. Gravitationswellen, ist möglich., The discovery of an flux of neutrinos of astrophysical origin with the IceCube experiment in 2013 has broadened our understanding of cosmic messengers and opened a new window on the universe. By addressing the newly pertinent question about their sources, neutrinos can provide a complementary view on cosmic accelerators and may help solving the long-standing puzzle of the origin of the cosmic rays. As traditional time-integrated searches for sources of neutrinos have not been able to isolate individual candidates, variable and transient sources shift into focus. IceCube's design allows to continuously search the entire sky for neutrino flares, and alert the community with the lowest possible latency in the case of a detection. This thesis improves the identification and reconstruction of muon neutrino candidates with IceCube in real-time, achieving a sensitivity comparable to dedicated offline analyses. The stream of neutrino candidates is analyzed for interesting events in order to alert partner experiments and inspire follow-up observations. First, known gamma-ray emitters are monitored for time-variable neutrino emission. Second, a generalization of this method monitors the entire sky for neutrino flares, regardless of pre-defined source lists. Third, the most-energetic neutrino candidates with the highest chance to be of astrophysical origin are selected for alerts. Eventually, the search methods are applied to the blazars 1ES 1959+650 and TXS 0506+056. In the latter case, evidence for source of high-energetic, astrophysical neutrinos was found for the first time. The infrastructure built in this work allows to notify the community whenever significant neutrino events are recorded, or significant flares develop on time-scales from days to weeks. It also allows to quickly perform neutrino follow-up searches in response to interesting astrophysical events, such as the observation of gravitational waves.
- Published
- 2020
37. Echtzeitsimulation eines Solargenerators für eine hochfliegende Solarplattform
- Author
-
Ackermann, Daniel
- Subjects
Solarflugzeug ,Spektrum ,Solarzelle ,HiL ,Modellierung ,Hardware in the Loop ,Solargenerator ,Triple-Junction ,HAP ,Institut für Flugsystemtechnik ,solar-powered ,Leistungsfluss ,Sichere Systeme und System Engineering ,HAPS ,Schaltungssimulation ,Echtzeit ,Verformung ,aircraft ,Simulation - Abstract
Inhalt dieser Masterarbeit ist die Entwicklung eines Simulationsmodells für den Solargenerator einer hochfliegenden unbemannten Plattform im Rahmen des DLR Querschnittsprojekts HAP (High Altitude Plattform). Das Modell des Solargenerators ist eine benötigte Komponente des Hardware in the Loop Teststands und soll zusammen mit weiteren Modellen im Verbund auf einem dSPACE-Echtzeitrechner simuliert werden, um physische Komponenten zu testen und virtuelle Flüge zu ermöglichen. Gegenüber einfachen Modellen zur Energieertragsbetrachtung eines HAPS (High Altitude Pseudo-Satellite) zeichnet sich dieses Solargeneratormodell durch mehrere Besonderheiten aus. Das energiebringende Licht wird in seinem ganzen Spektrum modelliert, es werden Triple-Junction-Solarzellen abgebildet, die gesamte elektrische Verschaltung wirkt mit ihrem Einfluss und die Verformung des Leichtbauflugzeugs wird mit berücksichtigt. Das Simulationsmodell konnte erfolgreich in das Flugmechanikmodell integriert werden und erste Simulationen zeigen Details, die zuvor in vereinfachten Betrachtungen verborgen blieben. Das gesamte Flugmodell wurde auf das dSPACE-System portiert und kann durch geeignete Maßnahmen die geforderte Simulationsfrequenz von 100 Hz erfüllen.
- Published
- 2020
38. Rapid Response to Extraordinary Events: Transient Neutrino Sources with the IceCube Experiment
- Author
-
Kintscher, Thomas, Bernardini, Elisa, Franckowiak, Anna, and Nelles, Anna
- Subjects
Realtime ,1ES 1959+650 ,Sources ,GFU ,520 Astronomie und zugeordnete Wissenschaften ,530 Physik ,IceCube ,Gamma-ray Follow-Up ,Quellen ,Neutrino ,Echtzeit ,ddc:520 ,ddc:530 ,TXS 0506+056 - Abstract
Im Jahr 2013 ist es dem IceCube-Experiment gelungen, einen Fluss von Neutrinos extraterrestrischen Ursprungs nachzuweisen, und damit das Neutrino als weiteres kosmisches Botenteilchen zu etablieren. Die Frage nach dem Ursprung der Neutrinos, die einen komplementären Blick auf die Quellen bieten, kann möglicherweise die alte Frage nach dem Ursprung der kosmischen Strahlung lösen. Zeitunabhängige Suchen nach Neutrinoquellen konnten bisher keine einzelnen Kandidaten isolieren. Zeitlich veränderliche Quellen kommen daher als Ursprung in Betracht. IceCube ermöglicht es, kontinuierlich den gesamten Himmel nach aufflackernden Neutrinoquellen abzusuchen und die astronomische Gemeinschaft schnellstmöglich zu benachrichtigen. In dieser Arbeit wird die Echtzeitidentifikation und -rekonstruktion von Myonneutrinokandidaten mit IceCube verbessert. Die erreichte Sensitivität ist mit etablierten nicht-Echtzeit Analysen vergleichbar. Kontinuierlich vom Experiment am Südpol übermittelte Informationen werden sofort auf bemerkenswerte Ereignisse hin analysiert. Bekannte astrophysikalische Quellen von Gammastrahlung werden auf Neutrinoemission hin beobachtet. Eine verallgemeinerte Methode erlaubt die Suche nach Signalen überall, unbeeinflusst von vorher bekannten Quellen. Weiterhin werden die hochenergetischsten Neutrinokandidaten, die wahrscheinlich astrophysikalischen Ursprungs sind, sofort identifiziert und global bekannt gemacht. Abschließend werden die Suchalgorithmen am Beispiel zweier Blazare demonstiert, 1ES 1959+650 und TXS 0506+56. In letzterem Fall wurden erstmals Anzeichen für eine Quelle hochenergetischer, kosmischer Neutrinos gefunden. Die im Rahmen dieser Arbeit entwickelte Infrastruktur erlaubt es, die astronomische Gemeinschaft auf signifikante Neutrinoereignisse, oder sich entwickelnde Neutrinocluster hinzuweisen. Auch die zügige Suche nach Neutrinos in Reaktion auf interessante astrophysikalische Ereignisse, wie z.B. Gravitationswellen, ist möglich., The discovery of an flux of neutrinos of astrophysical origin with the IceCube experiment in 2013 has broadened our understanding of cosmic messengers and opened a new window on the universe. By addressing the newly pertinent question about their sources, neutrinos can provide a complementary view on cosmic accelerators and may help solving the long-standing puzzle of the origin of the cosmic rays. As traditional time-integrated searches for sources of neutrinos have not been able to isolate individual candidates, variable and transient sources shift into focus. IceCube's design allows to continuously search the entire sky for neutrino flares, and alert the community with the lowest possible latency in the case of a detection. This thesis improves the identification and reconstruction of muon neutrino candidates with IceCube in real-time, achieving a sensitivity comparable to dedicated offline analyses. The stream of neutrino candidates is analyzed for interesting events in order to alert partner experiments and inspire follow-up observations. First, known gamma-ray emitters are monitored for time-variable neutrino emission. Second, a generalization of this method monitors the entire sky for neutrino flares, regardless of pre-defined source lists. Third, the most-energetic neutrino candidates with the highest chance to be of astrophysical origin are selected for alerts. Eventually, the search methods are applied to the blazars 1ES 1959+650 and TXS 0506+056. In the latter case, evidence for source of high-energetic, astrophysical neutrinos was found for the first time. The infrastructure built in this work allows to notify the community whenever significant neutrino events are recorded, or significant flares develop on time-scales from days to weeks. It also allows to quickly perform neutrino follow-up searches in response to interesting astrophysical events, such as the observation of gravitational waves.
- Published
- 2020
39. Echtzeitspektroskopie von Ferninfrarotstrahlung zur Strahldiagnose an Linearbeschleunigern Real-time far-infrared spectroscopy as diagnostic tool for linear accelerators.
- Author
-
Schmidt, Bernhard and Wesch, Stephan
- Abstract
Freie-Elektronen-Laser für den Röntgenbereich, in denen ein hochenergetischer Elektronenstrahl als Lasermedium dient, erfordern Strahlparameter weit jenseits denen herkömmlicher Beschleunigeranlagen. Von zentraler Bedeutung ist hierbei die Länge der relativistisch beschleunigten Elektronenpakete ('bunche'), die in speziellen Magnetanordnungen auf deutlich unter 100 μm komprimiert werden. Dabei werden für einige 100 fs Spitzenströme im kA-Bereich erzeugt. Durch diverse Prozesse kann die Abstrahlung von breitbandiger Infrarotstrahlung im Millimeter- bis Mikrometerbereich erzwungen werden. Die Intensität und die spektrale Zusammensetzung dieser Strahlung geben Auskunft über das Stromprofil der Elektronenpakete. In den letzten Jahren wurden erhebliche Fortschritte erzielt, diese Strahlung spektral aufgelöst zu messen und somit leistungsfähige Methoden zur Überwachung des Beschleunigungs- und Kompressionsprozesses bereitzustellen. X-ray Free-Electron Lasers, driven by high-energy electron linear accelerators, require beam parameters beyond those of conventional machines. Of critical importance is the length of the accelerated electron packets ('bunches') which are compressed by special magnet sequences to well below 100 μm, resulting in peak currents of several kA. Monitoring and control of the longitudinal current distribution is one of the key challenges at these machines. Different phenomena lead to the emission of broad-band infrared radiation in the millimeter to micrometer regime whose intensity and spectral composition indirectly reveals the longitudinal current profile of the radiating bunches. During the past years, substantial progress has been made to develop powerful methods to measure and spectroscopically resolve this radiation in a way that on-line monitoring of the acceleration and compression process became possible. [ABSTRACT FROM AUTHOR]
- Published
- 2014
- Full Text
- View/download PDF
40. Echtzeitsteuerung komplexer Systeme - Eine Simulationsstudie
- Author
-
Konrad, Julius, Weyer, Johannes, Cepera, Kay, and Adelt, Fabian
- Subjects
Governance ,Verkehrssteuerung ,Echtzeit ,Techniksoziologie ,Simulation - Abstract
Für diese Studie wurde eine Verkehrssimulation, basierend auf dem Simulator SimCo, entwickelt. In dieser Simulation wurden verschiedene Szenarien getestet, um die Effekte von Echtzeitsteuerung im Verkehrsnetz zu untersuchen. Die Szenarien basieren auf Experteninterviews mit Vertretern eines Navigationsdienstleisters, der Bundesanstalt für Straßenwesen (BASt) und Betreibern des öffentlichen Verkehrs. Alle Beteiligten befürworteten eine koordinierte Form der Steuerung des Straßenverkehrs. Diesen koordinierten Modus haben wir in der Simulation implementiert. Zunächst bekamen die Agenten Echtzeitinformationen über die Verkehrssituation und später auch Emissionsinformationen. Wir konnten zeigen, dass Echtzeitinformationen zu einer deutlichen Senkung von Staus, also einer höheren Netzeffizienz, führten. Damit einher ging allerdings eine leichte Steigerung der Emissionen. Entgegen den Erwartungen konnte der koordinierte Modus keine deutlichen Emissionssenkungen hervorrufen. Eine Senkung von Emissionsspitzen konnte jedoch erreicht werden., For this study we developed a traffic simulation based on the simulator SimCo and ran different governance scenarios regarding the effects of the distribution of real-time traffic data among drivers. The scenarios were based on interviews with experts from different fields, including a navigation service provider, the German federal highway research institute, and public transport providers. We found that a coordi-nated form of governance between private firms and local authorities is in their mu-tual interest. To analyse the impact of such a coordinated mode of governance, two scenarios were implemented. At first drivers would get real-time traffic information and secondly, they would also get emission information and change their route ac-cordingly. We found that the use of real-time data does decrease traffic jams, and thus increases network efficiency, but also slightly increases emissions. Against the expectations of the interviewees, a coordinated form of governance could not reduce emissions, but helped distribute them more evenly., Soziologische Arbeitspapiere;57
- Published
- 2020
41. Modellbildung und Simulation der Dynamik und Elastokinematik von Radaufhängungen für Echtzeitanwendungen
- Author
-
Kracht, Frédéric Etienne, Schramm, Dieter, and Schramm, Dieter (Akademische Betreuung)
- Subjects
Modellierung ,Bushing ,Formula Student Germany ,Elastokinematik ,Dynamik ,Elastokinematik -- Dynamik -- Echtzeit -- Modellierung -- Simulation -- Radaufhängung -- Formula Student Germany -- Kraftkopplungsmethode -- Bushing -- Fahrzeugtechnik ,Maschinenbau ,Fakultät für Ingenieurwissenschaften ,Radaufhängung ,Echtzeit ,Kraftkopplungsmethode ,Fahrzeugtechnik ,ddc:620 ,Simulation - Abstract
Innerhalb dieser Arbeit wird ein Formalismus zur Erstellung von objektorientierten Modellen mechanischer Mehrkörpersysteme entwickelt, welche sich für die echtzeitfähige Simulation der Dynamik, einschließlich der Berechnung der Reaktionskräfte, von komplexen Kraftfahrzeugradaufhängungen eignen. Durch die Einbindung der Radaufhängungsmodelle in ein modulares Zweispurmodell ergibt sich ein Gesamtfahrzeugmodell, welches die Dynamik des Fahrzeugs genau beschreibt und eine Lösung in Echtzeit garantiert. Das Radaufhängungsmodell weist eine hohe Genauigkeit auf, da auch die Elastokinematik des Systems berücksichtigt wird. Diese schließt die Elastizität der Gummilagerungen und der Lenker ein. Auch die mechanischen Spannungen in den Bauteilen werden berechnet. Die harte Echtzeitfähigkeit wird durch die Verwendung der Methode der Kraftkopplung erreicht. Innerhalb der Methode werden kinematische Kopplungen (ideale Gelenke) durch elastische Gelenke ersetzt, welche als Bushings bezeichnet werden. Weiterhin werden anwendungsangepasste Tiefpassfilter und die BAUMGARTE-Stabilisierung eingesetzt, um die stabile Schrittweite des numerischen Integrators und die Genauigkeit zusätzlich zu erhöhen. Durch diese Techniken wird der Einsatz von iterativen Lösungsverfahren für algebraische Schleifen vermieden und einfache explizite numerische Integrationsverfahren mit fester Schrittweite können verwendet werden. Um kurze Berechnungszeiten und numerische Stabilität bei hoher Genauigkeit zu gewährleisten, werden die Simulationsparameter der Bushings, der Filter und der Stabilisierungsmethode anhand verschiedener Optimierungsverfahren unter Berücksichtigung des Anwendungsbereichs ermittelt. Zur Erprobung des entwickelten Formalismus werden komplexe Anwendungsbeispiele herangezogen. Die Simulationsergebnisse werden erfolgreich mit validierten Referenzmodellen und Messdaten der Doppelquerlenkerradaufhängung des Formula Student Rennwagens A40-02 der Universität Duisburg-Essen und der hinteren Mehrlenkerachse des PORSCHE 911 (Modell 991) verglichen. Es wird erfolgreich nachgewiesen, dass eine Simulation bis zu 30 Hz Erregerfrequenz mit einer Schrittweite von 1 ms numerisch stabil erreicht werden kann und auch harte Echtzeit vorliegt. Die Simulationsergebnisse zeigen je nach Modell eine sehr gute Genauigkeit bis 30 Hz mit einer relativen Abweichung der Kraft unter 6% und der Beschleunigung unter 4%. Um die harte Echtzeitfähigkeit zu unterstreichen, werden die Modelle der Radaufhängungen in ein modulares Zweispurmodell integriert und erfolgreich unter einem Echtzeitbetriebssystem simuliert. Dissertation, Universität Duisburg-Essen, 2020
- Published
- 2020
- Full Text
- View/download PDF
42. Ortsaufgelöste Stromdichte-Messung in der Elektrolyse
- Author
-
Biswas, Indro and Sanchez, Daniel G
- Subjects
Elektrolyse ,Betriebsüberwachung ,Echtzeit ,Wasserstoff - Published
- 2020
43. Asynchronous Traffic Shaping with Jitter Control
- Author
-
Grigorjew, Alexej, Metzger, Florian, Hoßfeld, Tobias, Specht, Johannes, Götz, Franz-Josef, Chen, Feng, and Schmitt, Jürgen
- Subjects
Ethernet ,Rechnernetz ,000 Informatik, Informationswissenschaft, allgemeine Werke ,ddc:000 ,Echtzeit ,Latenz - Abstract
Asynchronous Traffic Shaping enabled bounded latency with low complexity for time sensitive networking without the need for time synchronization. However, its main focus is the guaranteed maximum delay. Jitter-sensitive applications may still be forced towards synchronization. This work proposes traffic damping to reduce end-to-end delay jitter. It discusses its application and shows that both the prerequisites and the guaranteed delay of traffic damping and ATS are very similar. Finally, it presents a brief evaluation of delay jitter in an example topology by means of a simulation and worst case estimation.
- Published
- 2020
44. Generalized offset based response time analysis
- Author
-
Deepak Vedha Raj Sudhakar, Karsten Albers, Frank Slomka, Universität Ulm, European Union (EU), and Horizon 2020
- Subjects
Timing Offsets ,Real-time programming ,Architektur (Informatik) ,Cyber-physisches System ,Modular Performance Analysis ,Echtzeit ,Real-Time Calculus ,Arrival Curves ,Service Curves ,ddc:004 ,DDC 004 / Data processing & computer science ,Response-Zeit ,Electronic data processing ,Structured techniques ,Laufzeitsystem ,Curves - Abstract
In real-time theory, there exist two approaches for computing the response time of tasks: the classical response time analysis (RTA) approach and the modular performance analysis with the Real-Time Calculus (MPA-RTC). The classical RTA techniques are based on the busy window methods and the response time equation needs to be adapted every time a new scheduling policy or a new event activation pattern is considered in the system model. MPA-RTC has its roots in Network Calculus (NC). MPA-RTC offers more powerful abstraction and exibility than the RTA based techniques, because of its ability to model resource availability and arbitrary incoming activations with the help of expressive service curves and arrival curves respectively. MPA-RTC models scheduling policy with the help of service curves and can handle hierarchical scheduling better than RTA based techniques. In this paper, we propose a generalized approach to model offset dependencies using MPA-RTC based technique to compute tight worst-case response times of tasks., acceptedVersion
- Published
- 2020
45. Technical Report on Bridge-Local Guaranteed Latency with Strict Priority Scheduling
- Author
-
Grigorjew, Alexej, Metzger, Florian, Hoßfeld, Tobias, Specht, Johannes, Götz, Franz-Josef, Schmitt, Jürgen, and Chen, Feng
- Subjects
Ethernet ,Rechnernetz ,ddc:000 ,Echtzeit ,Latenz - Abstract
Bridge-local latency computation is often regarded with caution, as historic efforts with the Credit-Based Shaper (CBS) showed that CBS requires network wide information for tight bounds. Recently, new shaping mechanisms and timed gates were applied to achieve such guarantees nonetheless, but they require support for these new mechanisms in the forwarding devices. This document presents a per-hop latency bound for individual streams in a class-based network that applies the IEEE 802.1Q strict priority transmission selection algorithm. It is based on self-pacing talkers and uses the accumulated latency fields during the reservation process to provide upper bounds with bridge-local information. The presented delay bound is proven mathematically and then evaluated with respect to its accuracy. It indicates the required information that must be provided for admission control, e.g., implemented by a resource reservation protocol such as IEEE 802.1Qdd. Further, it hints at potential improvements regarding new mechanisms and higher accuracy given more information.
- Published
- 2020
46. Interactive Web-based 3D Solar Shadow Map
- Author
-
Molzer, Georg
- Subjects
Cartography ,Realtime ,Landkarte ,Interaktiv ,Kartographie ,Solar ,LBS ,Interactive ,Erforschung ,Echtzeit ,WebGL ,Sonnenschatten ,Schatten ,Three.js ,Open data ,Shadow ,Web ,Sonne ,Mapping ,Multimodal ,Map ,location-based ,Karte ,Exploration ,3D ,Smart cities - Abstract
Die Sonne hat fundamentalen Einfluss auf die Erde und damit auch auf die meisten Lebewesen, die sie beheimatet. Temperatur, Photovoltaik-Potential, Wachstumsraten von Pflanzen und auch physische wie psychische Gesundheit von Menschen stehen in direktem Zusammenhang mit ihrer Verf��gbarkeit. Im Gegenzug lebt heutzutage der Gro��teil der Menschheit in St��dten, deren Geb��ude immer h��her werden, was direkten Zugang zur Sonne tendenziell schwieriger macht. Im Zuge dieser Diplomarbeit wird daher argumentiert, dass es vorteilhaft w��re, h��tten Menschen ein Werkzeug, mit dem sie Sonnenschatten besser verstehen k��nnten. Ein solches Werkzeug sollte in der Lage sein, beliebige schattenspendende Strukturen, wie Geb��ude, Terrain und Vegetation, sowie die konkrete Sonnenposition zu ber��cksichtigen, um entsprechende Sonnenschattenszenarien pr��zise visualisieren zu k��nnen. Sinngem���� wird die Frage gestellt, ob eine benutzerfreundliche Web-Applikation zur interaktiven Erforschung von Sonnenschatten, technisch realisierbar ist. Literatur zu dem Thema erstreckt sich ��ber historische "Solar Shadow Maps" hin zu technischen Themen, wie z.B. Schattenvisualisierung in der Computergrafik, Datenintegration oder sonnenbezogener Astronomie. Existierende Applikationen zeigen Potential, schaffen es aber nicht, voran erw��hnte Eigenschaften in sich zu vereinen. Daher wird eine Methodik mit dem Ziel der Entwicklung eines funktionalen Prototyps definiert, der die M��ngel bestehender Anwendungen kompensieren soll. Die Methodik inkludiert grundlegende Designaspekte, notwendige Algorithmen, sowie ��berlegungen zu Datenintegration und Visualisierung. Der implementierte Prototyp wird in Bezug auf Performance sowie Qualit��t bzw. Realismus getestet. Es kann letztendlich gezeigt werden, dass eine interaktive, pr��zise, dreidimensionale und webbasierte Solar Shadow Map tats��chlich realisierbar ist; einsetzbar auf dem gesamten Planeten und potentiell dar��ber hinaus., The Sun impacts Earth and most lifeforms it is inhabited by. Factors like overall temperature, photovoltaic potential, plants growth rates, and even health and mental conditions in humans, are directly correlated to its presence. Nowadays, the majority of people live in cities, consisting of ever taller building structures, occluding more and more sunlight. Thus, humans are getting increasingly restricted from direct access to the Sun. This thesis claims that a tool, enabling humans to gain a better understanding of solar shadows in cities and around the world, would be beneficial. Therefore, it provides motivational arguments from various scopes and disciplines. Such a tool should be able to consider relevant three-dimensional occluding structures such as buildings, terrain, and vegetation, as well as the actual Sun position, and visualize respective shadows for arbitrary points in time, providing predictability of solar shadows. Eventually, the thesis raises the major question, whether such a tool could be implemented as a user-friendly, web-accessible application, which through real-time visualization fosters interactive exploration of the Sun and its shadows.Related literature is multifaceted, covering the history of ���solar shadow map��� attempts, as well as engineering aspects, like appropriate methods of shadow visualization, data integration, or Sun-related astronomy. There are also existing approaches, whereas some of them were already investigated in 2014. While they show potential, none of them integrated all desired features, as they were defined above, within one unified application. Therefore, a methodology towards a capable prototype implementation is framed, covering fundamental design aspects, as well as more detailed thoughts on data, 2D versus 3D visualization, and required algorithms.Based on this methodology, a prototype application is implemented and reviewed for its fulfillment of the aforementioned requirements on interactivity and quality: A performance test on various hardware is undertaken, and generated visualizations are compared to their real-life counterparts. It is eventually shown that an interactive, web-based 3D solar shadow map is, in fact, something that can be built and could work on the whole planet Earth and potentially even beyond.
- Published
- 2020
- Full Text
- View/download PDF
47. Real-time ray tracing in Quake III
- Author
-
Lipp, Lukas
- Subjects
Ray Tracing ,Echtzeit ,GPU ,RTX ,Real-Time ,Rendering - Abstract
Diese Arbeit behandelt die Erweiterung der bekannten Quake III Spiel-Engine mittels Ray Tracing in Echtzeit. Hierbei wird untersucht, inwieweit Ray Tracing mithilfe der neuesten Grafikkarten-Generation von NVIDIA implementiert werden kann. Ermöglicht wird die Berechnung von Ray-Tracing Effekten in Echtzeit durch eine dedizierte Hardware-Unterstützung, welche Ray Tracing Algorithmen beschleunigen soll. Zugriff zu diesen Features wird durch eine neue API ermöglicht. Zudem werden Strategien besprochen wie Offline Ray Tracing Algorithmen in einer Real Time (Online) Umgebung effizient angewendet werden können. Hierfür wird zuerst Quake III mit einem Vulkan Backend ausgestattet, um in weiterer Folge, Distributed Ray Tracing zu implementieren, welches dann für das Darstellen der gesamten Spielewelt zuständig ist. Lediglich die user interface Elemente werden vom Rasterizer übernommen. Das Ziel ist es zu analysieren, inwieweit es möglich ist, mittels RTX Ray Tracing in eine Spiele Engine einzubauen und welche Abstriche an Qualität und Performance man in Betracht ziehen muss unter der Voraussetzung 30/60 Bilder pro Sekunde zu erreichen. Zudem werden Strategien besprochen, welche Qualität, Performance oder beides verbessern., This work discusses the extension of the popular Quake III game engine using real-time raytracing.It investigates how ray tracing can be implemented using the most recent graphics card generation by NVIDIA, which offers dedicated hardware support and acceleration via an new API. In addition, strategies will be discussed about how offline ray-tracing algorithms can be transformed to an online real-time context. In order to implement ray tracing, Quake III needs to be extended with a Vulkan backend. Next, distributed ray tracing is implemented and is used to render the whole game world except for the user interface (UI) elements. The UI will be handled by the rasterizer. The performance and efficiency of ray tracing in a game engine using the RTX hardware features is analyzed and discussed. The focus lies on how quality and performance relate to each other, and how far ray tracing can be pushed with still acceptable frame rate of around 30/60 frames per second. Furthermore, implementation strategies that improve the quality, performance or both will be discussed.
- Published
- 2020
- Full Text
- View/download PDF
48. A heuristic approach for solving NP-hard ressource planning problems with heuristic tree algorithms in realtime on low end devices
- Author
-
Boigner, Thomas and Boigner, Thomas
- Abstract
Die vorliegende Masterarbeit zeigt verschiedene Lösungsmöglichkeiten von spezifischen NP-schweren Ressourcenplanungsproblemen auf. Durch die Einschränkung im Titel der Arbeit dies auf low-end Geräten in Echtzeit abzuwickeln, spielen vertikale Skalierungsmöglichkeiten keine Rolle. Vielmehr werden Constraints gesucht, Heuristiken evaluiert und optimierte Logiken ausgearbeitet, die es ermöglichen eine Terminvergabeapplikation bei jeder Abfrage in unter drei Sekunden terminieren zu lassen. Hierbei wird ein besonderes Augenmerk auf die Optimierung der Laufzeit mittels Software- und Datenbank-Architektur gelegt. Die Basis der Arbeit sind drei horizontale Prototypen, deren Laufzeitbenchmarks Aufschluss über das Optimierungspotenzial für die jeweilige Methode geben.*****This Masterthesis explores various solutions for NP-heavy specific resourceplanning problems. Scalingpossibilities are excluded from this research by limiting the scope to low-end devices which operate in realtime. Moreover, constraints are provided, heuristics are evaluated and code is optimized to enable an appointmentapplication to handle a request within three seconds. A deeper insight is given into the optimization of runtime by using software- and database architecture. The base of this thesis consists of three horizontal prototypes of which runtime benchmarks are given to provide an answer on the optimization potential of these methods.
- Published
- 2019
49. Real-time 3D-based Virtual Eye Contact for Video Communication
- Abstract
Das Problem des fehlenden Augenkontaktes vermindert den Eindruck einer natürlichen Kommunikationssituation bei Videokonferenzen. Während eine Person auf den Bildschirm blickt, wird sie von Kameras aufgenommen, die sich normalerweise direkt daneben befinden. Mit dem Aufkommen von massiv paralleler Computer Hardware und ganz speziell den sehr leistungsstarken Spielegrafikkarten ist es möglich geworden, viele Eingabeansichten für eine Echtzeit 3D Rekonstruktion zu verarbeiten. Eine größere Anzahl von Eingabeansichten mildert Verdeckungsprobleme ab und führt zu vollständigeren 3D Daten. In dieser Arbeit werden neue Algorithmen vorgeschlagen, welche eine hochqualitative Echtzeit 3D Rekonstruktion, die kontinuierliche Anpassung der photometrischen Kameraparameter und die benutzerunabhängige Schätzung der Augenkontaktkameras ermöglichen. Die Echtzeit 3D Analyse besteht aus zwei komplementären Ansätzen. Einerseits gibt es einen Algorithmus, der auf der Verarbeitung geometrischer Formen basiert und auf der anderen Seite steht eine patchbasierte Technik, die 3D Hypothesen durch das Vergleichen von Bildtexturen evaluiert. Zur Vorbereitung für die Bildsynthese ist es notwendig, Texturen von verschiedenen Ansichten anzugleichen. Hierfür wird die Anwendung eines neuen Algorithmus zur kontinuierlichen photometrischen Justierung der Kameraparameter vorgeschlagen. Die photometrische Anpassung wird iterativ, im Wechsel mit einer 3D Registrierung der entsprechenden Ansichten, ausgeführt. So ist die Qualität der photometrischen Parameter direkt mit jener der Ergebnisse der 3D Analyse verbunden und vice versa. Eine weitere wichtige Voraussetzung für eine korrekte Synthese der Augenkontaktansicht ist die Schätzung einer passenden virtuellen Augenkontaktkamera. Hierfür wird die Augenkontaktkamera kontinuierlich an die Augenposition der Benutzer angeglichen. Auf diese Weise wird eine virtuelle Kommunikationsumgebung geschaffen, die eine natürlichere Kommunikation ermöglicht., A major problem, that decreases the naturalness of conversations via video communication, is missing eye contact. While a person is looking on the display, she or he is recorded from cameras that are usually attached next to the display frame. With the advent of massively parallel computer hardware and in particular very powerful consumer graphics cards, it became possible to simultaneously process multiple input views for real-time 3D reconstruction. Here, a greater amount of input views mitigate occlusion problems and lead to a more complete set of 3D data that is available for view synthesis. In this thesis, novel algorithms are proposed that enable for high quality real-time 3D reconstruction, the on-line alignment of photometric camera parameters, and the automatic and user independent estimation of the eye contact cameras. The real-time 3D analysis consist of two complementary approaches. On the one hand, a shape based algorithm and on the other hand, a patch based technique that evaluates 3D hypotheses via comparison of image textures. Preparative to rendering, texture from multiple views needs to be aligned. For this purpose, a novel algorithm for photometric on-line adjustment of the camera parameters is proposed. The photometric adjustment is carried out iteratively in alternation with a 3D registration of the respective views. In this way, the quality of photometric parameters is directly linked to the 3D analysis results and vice versa. Based on the textured 3D data, the eye contact view is rendered. An important prerequisite for this task is the estimation of a suitable virtual eye contact camera. In this thesis, a novel approach is formulated that enables for an automatic adaptation to arbitrary new users. Therefor, the eye contact camera is dynamically adapted to the current eye positions of the users. In this way, a virtual communication environment is created that allows for a more natural conversation.
- Published
- 2019
50. Ein Ansatz zur nachvollziehbaren Verifikation medizinisch-cyber-physikalischer Systeme
- Abstract
Medizinische cyberphysikalische Systeme erfordern einerseits die Adaption an patientenindividuelle Parameter während einer Behandlung und andererseits den Nachweis eines sicheren Systemverhaltens. Wir schlagen vor, Nachweisbarkeit mittels Online Model-Checking und Nachvollziehbarkeit durch Anwendung von regelbasierten Transformationen zu verbinden.
- Published
- 2019
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.