778 results on '"Zeitreihenanalyse"'
Search Results
2. Between Rack Rents and Paternalism: Economic Behaviour and the Lease Market in Westphalia, with a Particular Focus on the 19th Century
- Author
-
Bracht Johannes and Scholten-Buschhoff Friederike
- Subjects
modern economic history ,rent ,price formation ,paternalism ,germany ,adel ,agrargeschichte ,agrargesellschaft ,geschichte des ländlichen raums ,landpacht ,landwirtschaft ,marktgesellschaft ,rittergut ,wirtschafts- und sozialgeschichte ,zeitreihenanalyse ,n 13 ,n 53 ,q 15 ,Economic history and conditions ,HC10-1085 ,Economics as a science ,HB71-74 - Abstract
Departing from research on Westphalian leases between 1600 and 1900 the paper discusses the lease market of and price determination on three Westphalian estates. While economic history approaches suppose that leases can be seen as market relations and are therefore useful indicators to measure agricultural productivity, a more anthropological perspective emphasises the social relations between lessor (here: noble estate owner) and leaseholders. The choice of an adequate perspective has significant implications for research on agricultural productivity based on rents and leases. Our results indicate that the contractual arrangement of leasehold (well defined duration, announcement, auctions) was used to achieve the highest possible leases. However, at least until the 1830s, demand for leasehold land was rather low and leaseholders could benefit from a lack of competition. Price determination of leases resulted in rents below the Ricardian rent. Therefore, we argue that important assumptions of the established price approach, which uses leases as proxies for productivity, are not met and the analysis of agricultural productivity requires additional evidence on the leaseholder’s income and profit.
- Published
- 2022
- Full Text
- View/download PDF
3. Detektion von Winterweichweizenfeldern anhand von Sentinel-1 und Sentinel-2 Satellitenbildzeitreihen : Verbesserung der räumlichen und zeitlichen Übertragbarkeit des Random Forest Classifiers
- Author
-
Weise, Jens and Weise, Jens
- Abstract
Zur Kartierung landwirtschaftlicher Flächen mithilfe von Satellitenbildern werden häufig Machine Learning Algorithmen angewandt. Ein Großteil der Anwendungen in der Fernerkundung fokussiert sich jedoch auf die Reproduktion von Daten. Gebiete, für die das Training stattgefunden hat, werden somit klassifiziert, ohne die räumlichen und zeitlichen Abhängigkeiten zu bedenken. In dieser Arbeit wurde die Übertragbarkeit des Random Forest Classifiers für die Detektion von Winterweichweizen (Triticum aestivum subsp. aestivum L.) mithilfe von Sentinel-1 und Sentinel-2 Zeitreihen getestet. Bei der Übertragung eines Classifiers werden für die Auswahl der Satellitenbild-aufnahmen meist Kalenderdaten genutzt. Aufbauend auf der Annahme, dass die Witterungsbedingungen einen erheblichen Einfluss auf die Phänologie haben und der Einbezug vergleichbarer Entwicklungsstadien wiederum einen Einfluss auf die Klassifikationsergebnisse hat, wurden drei Verfahren zur Definition der zu vergleichenden Zeitpunkte entwickelt. Die häufig genutzte Entscheidung anhand von Kalenderdaten bezieht die Unterschiede in der Phänologie nicht mit ein. Allerdings können vor allem zwischen verschiedenen Jahren mehrere Wochen zwischen dem Erreichen eines Entwicklungsstadiums liegen. Aus diesem Grund wurden akkumulierte Temperatursummen (Growing Degree Days) aus meteorologischen Daten errechnet und in einem zweiten Verfahren zur Definition der Interpolationszeitpunkte genutzt und die Ergebnisse des Ontogenesemodells SIMONTO in einem dritten Verfahren verwendet. Für drei Gebiete in Niederösterreich und das Jahr 2022 wurden Random Forest Classifier mithilfe dieser Verfahren und mit Sentinel-1 und Sentinel-2 Zeitreihen trainiert und anschließend auf alle drei Gebiete und die Jahre 2019 bis 2022 angewandt. Die Ergebnisse der 180 auf diese Weise durchgeführten Klassifikationen wurden miteinander vergli-chen, um den Einfluss des Einbezugs meteorologischer Daten zu evaluieren. Die Ergebnisse zeigen, dass durch den Ein, To map agricultural areas with the help of satellite images, machine learning algorithms are often used. However, the majority of these applications in remote sensing focus on the reproduction of data. Areas for which training has taken place are thus classified without considering the spatial and temporal dependencies. In this thesis, an investigation on the spatial and temporal transferability of random forest classifiers for the detection of common winter wheat (Triticum aestivum subsp. aestivum L.) using Sentinel-1 and Sentinel-2 time series is conducted. When transferring a classifier, calendar dates are usually used for the selection of satellite images. Based on the assumption that weather conditions have a considerable influence on phenology and that the consideration of comparable development stages in turn has an influence on the classification results, three different methods were used to define the dates to be considered and compared. The frequently used choice of fixed calendar dates does not take differences in phenology into account. However, especially between different years, the interval between reaching different stages of development can be several weeks. For this reason, accumulated temperature sums (growing degree days) were calculated from meteorological data and used in a second method to define the interpolation times and the results of the SIMONTO ontogenesis model were used in the third method. For three areas within Lower Austria and the year 2022, random forest classifiers were trained with Sentinel-1 and Sentinel-2 data interpolated using these different methods and then applied to all three areas for the years 2019 to 2022. The results of the 180 classifications carried out in this way were compared with each other to evaluate the influence of the inclusion of meteorological data. The results indicate that by the inclusion higher overall accuracies and F-scores could be achieved for the classification of common winter wheat in both the, Masterarbeit Universität Innsbruck 2024
- Published
- 2024
4. Between Rack Rents and Paternalism: Economic Behaviour and the Lease Market in Westphalia, with a Particular Focus on the 19th Century.
- Author
-
Bracht, Johannes and Scholten-Buschhoff, Friederike
- Subjects
RENTAL housing ,PATERNALISM ,RENT (Economic theory) ,ECONOMIC history ,RENT ,HOUSING market ,REAL estate business ,AGRICULTURAL productivity ,LEASES ,MARKET prices ,REAL property sales & prices - Abstract
Departing from research on Westphalian leases between 1600 and 1900 the paper discusses the lease market of and price determination on three Westphalian estates. While economic history approaches suppose that leases can be seen as market relations and are therefore useful indicators to measure agricultural productivity, a more anthropological perspective emphasises the social relations between lessor (here: noble estate owner) and leaseholders. The choice of an adequate perspective has significant implications for research on agricultural productivity based on rents and leases. Our results indicate that the contractual arrangement of leasehold (well defined duration, announcement, auctions) was used to achieve the highest possible leases. However, at least until the 1830s, demand for leasehold land was rather low and leaseholders could benefit from a lack of competition. Price determination of leases resulted in rents below the Ricardian rent. Therefore, we argue that important assumptions of the established price approach, which uses leases as proxies for productivity, are not met and the analysis of agricultural productivity requires additional evidence on the leaseholder's income and profit. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
5. A comparative analysis of AR(1) : biascorrections and Innovative solution for taming serial correlation
- Author
-
Müller, Michael Markus and Müller, Michael Markus
- Abstract
This thesis tackles the challenge of serially correlated error terms in econometric analysis and presents an innovative approach to enhance error term modeling, particularly when dealing with a limited number of time periods. The presence of serial correlation within regression residuals can potentially lead to misleading inference results. While the Newey-West method is a common tool for mitigating this issue, this study proposes a more efficient alternative by focusing on error term modeling as a primary solution. Traditionally, economists have relied on autoregressive processes of order one (AR(1)) to model serial correlation. However, it has been observed that conventional techniques like Ordinary Least Squares (OLS) and Maximum Likelihood Estimation (MLE) for estimating AR(1) processes can introduce significant bias, thereby jeopardizing the reliability of subsequent analyses. To address this concern, this thesis introduces a novel methodology that employs an unbiased estimation technique for modeling error terms. The study commences with a comprehensive examination of biascorrection techniques, encompassing analytical, simulation-based, and bootstrapping approaches, elucidating their distinct advantages. Furthermore, a resolution to the overfitting issue associated with a recent addition to the biascorrection literature by Sørbye, Nicolau, and Rue (2022) is proposed. Through the analysis of three practical examples, it is demonstrated that utilizing biased estimates of the AR(1) coefficient for error term modeling can result in excessively narrow confidence intervals, thereby increasing the risk of Type I errors. Additionally, the significant impact of incorporating biascorrection in error term modeling on the parameter estimates themselves is shown., Michael Markus Müller, Masterarbeit University Innsbruck 2023
- Published
- 2023
6. Reconstructing Dynamical Systems From Stochastic Differential Equations to Machine Learning
- Author
-
Kurths, Jürgen, Palus, Milan, Ditlevsen, Peter, Hassanibesheli, Forough, Kurths, Jürgen, Palus, Milan, Ditlevsen, Peter, and Hassanibesheli, Forough
- Abstract
Die Modellierung komplexer Systeme mit einer großen Anzahl von Freiheitsgraden ist in den letzten Jahrzehnten zu einer großen Herausforderung geworden. In der Regel werden nur einige wenige Variablen komplexer Systeme in Form von gemessenen Zeitreihen beobachtet, während die meisten von ihnen - die möglicherweise mit den beobachteten Variablen interagieren - verborgen bleiben. In dieser Arbeit befassen wir uns mit dem Problem der Rekonstruktion und Vorhersage der zugrunde liegenden Dynamik komplexer Systeme mit Hilfe verschiedener datengestützter Ansätze. Im ersten Teil befassen wir uns mit dem umgekehrten Problem der Ableitung einer unbekannten Netzwerkstruktur komplexer Systeme, die Ausbreitungsphänomene widerspiegelt, aus beobachteten Ereignisreihen. Wir untersuchen die paarweise statistische Ähnlichkeit zwischen den Sequenzen von Ereigniszeitpunkten an allen Knotenpunkten durch Ereignissynchronisation (ES) und Ereignis-Koinzidenz-Analyse (ECA), wobei wir uns auf die Idee stützen, dass funktionale Konnektivität als Stellvertreter für strukturelle Konnektivität dienen kann. Im zweiten Teil konzentrieren wir uns auf die Rekonstruktion der zugrunde liegenden Dynamik komplexer Systeme anhand ihrer dominanten makroskopischen Variablen unter Verwendung verschiedener stochastischer Differentialgleichungen (SDEs). In dieser Arbeit untersuchen wir die Leistung von drei verschiedenen SDEs - der Langevin-Gleichung (LE), der verallgemeinerten Langevin-Gleichung (GLE) und dem Ansatz der empirischen Modellreduktion (EMR). Unsere Ergebnisse zeigen, dass die LE bessere Ergebnisse für Systeme mit schwachem Gedächtnis zeigt, während sie die zugrunde liegende Dynamik von Systemen mit Gedächtniseffekten und farbigem Rauschen nicht rekonstruieren kann. In diesen Situationen sind GLE und EMR besser geeignet, da die Wechselwirkungen zwischen beobachteten und unbeobachteten Variablen in Form von Speichereffekten berücksichtigt werden. Im letzten Teil dieser Arbeit entwickeln wir ein Mod, Modeling complex systems with large numbers of degrees of freedom have become a grand challenge over the past decades. Typically, only a few variables of complex systems are observed in terms of measured time series, while the majority of them – which potentially interact with the observed ones - remain hidden. Throughout this thesis, we tackle the problem of reconstructing and predicting the underlying dynamics of complex systems using different data-driven approaches. In the first part, we address the inverse problem of inferring an unknown network structure of complex systems, reflecting spreading phenomena, from observed event series. We study the pairwise statistical similarity between the sequences of event timings at all nodes through event synchronization (ES) and event coincidence analysis (ECA), relying on the idea that functional connectivity can serve as a proxy for structural connectivity. In the second part, we focus on reconstructing the underlying dynamics of complex systems from their dominant macroscopic variables using different Stochastic Differential Equations (SDEs). We investigate the performance of three different SDEs – the Langevin Equation (LE), Generalized Langevin Equation (GLE), and the Empirical Model Reduction (EMR) approach in this thesis. Our results reveal that LE demonstrates better results for systems with weak memory while it fails to reconstruct underlying dynamics of systems with memory effects and colored-noise forcing. In these situations, the GLE and EMR are more suitable candidates since the interactions between observed and unobserved variables are considered in terms of memory effects. In the last part of this thesis, we develop a model based on the Echo State Network (ESN), combined with the past noise forecasting (PNF) method, to predict real-world complex systems. Our results show that the proposed model captures the crucial features of the underlying dynamics of climate variability.
- Published
- 2023
7. Experimentelle Entwicklung einer modellbasierten prädiktiven Regelung für den flexiblen Betrieb von Biogasanlagen
- Author
-
Dittmer, Celina and Dittmer, Celina
- Abstract
Die Transformation des Energiesystems macht aufgrund zunehmend dezentraler, fluktuierender Stromeinspeisungen durch Wind- und PV-Anlagen, regelbare Stromproduzenten dringend erforderlich. Biogasanlagen können einen substanziellen Beitrag leisten, indem der Anlagenbetrieb flexibilisiert und somit bedarfsgerecht Strom bereitgestellt wird. Durch technische Anpassungen der Anlage, wie beispielsweise dem Ausbau der Gasspeicherkapazitäten und der BHKW-Leistung, lassen sich kurzfristige Schwankungen ausgleichen. Um das Stromerzeugungspotential über längere Zeiträume verlagern zu können, ist jedoch eine angepasste Fütterungsstrategie unabdingbar. Die Steuerung der Biogasproduktion birgt in der praktischen Umsetzung einige Herausforderungen. Einerseits ist die Konversion von Biomasse in Biogas ein komplexer Vorgang und zudem individuell für jede Biogasanlage zu betrachten. Bisher entwickelte Modelle nutzen daher Parameter zu sämtlichen charakteristischen Prozessphasen und Einflussgrößen, um die anaerobe Fermentation modellieren zu können. Demgegenüber steht die oftmals rudimentäre Ausstattung der Biogasanlagen mit Messtechnik, sodass entsprechende Parameter nicht zur Verfügung stehen. Im Rahmen dieser Arbeit wurde eine modellbasierte prädiktive Regelung des Biogasanlagenbetriebes entwickelt, die eine dem Bedarf angepasste Stromproduktion ermöglicht. Dabei wurde der Anspruch gefasst, besonders praxistaugliche Modelle zu entwickeln um erstmals einen erfolgreichen Einsatz auf nahezu allen Biogasanlagen mit keinen oder nur wenigen Anpassungen an der vorhandenen Messtechnik zu erlauben. Alle Untersuchungen, die dieser Arbeit zugrunde liegen, wurden auf Basis eines Reallabors, dem Unterer Lindenhof, durchgeführt. Dieses umfasst sowohl eine Praxisbiogasanlage als auch einen Energieverbrauch, der einem Dorf mit ca. 125 Einwohnern entspricht. In einem ersten Schritt wurden Prognosemodelle evaluiert, die den Strombedarf des Reallabors über 48 Stunden im Voraus vorhersagen sollen. Da, The transformation of the energy system requires controllable producers due to increasingly decentralised, fluctuating electricity generation from wind turbines and photovoltaics. Biogas plants can make a substantial contribution here by making plant operation more flexible and thus providing electricity as needed. Technical adjustments, such as the expansion of gas storage capacities and CHP output, can compensate for short-term fluctuations. However, in order to be able to shift the potential of electricity generation over longer periods of time, an adapted feed-in strategy is essential. The control of biogas production poses several challenges in practical implementation. First, the conversion of biomass into biogas is a complex process and must be considered individually for each biogas plant. Models developed so far use parameters for all characteristic process phases and influencing variables in order to be able to model anaerobic digestion. In contrast, biogas plants are often only rudimentarily equipped with measurement technology, so that corresponding parameters are not available. In this work, a model-predictive control of biogas plant operation was developed to enable demand-driven electricity generation. The aim was to develop models that are particularly well suited for practical use. Thus, for the first time, a successful application on almost all biogas plants could be possible without or with only minor adaptations to the existing measurement technology. All studies carried out in this thesis are based on a real-world laboratory, the "Unterer Lindenhof". This includes a practical biogas plant as well as an electrical consumption corresponding to that of a village with about 125 inhabitants. In a first step, forecasting models were evaluated to predict the electricity demand of the real-world laboratory over 48 hours in advance. Four models from the field of time series analysis were examined, one TBATS and three different ARIMA models. In an evaluat
- Published
- 2023
8. Study of Climate Variability Patterns at Different Scales – A Complex Network Approach
- Author
-
Gupta, Shraddha, Kurths, Jürgen, Pappenberger, Florian, and Parlitz, Ulrich
- Subjects
nonlinear dynamics ,komplexe Netzwerke ,Klimatologie ,nichtlineare Dynamik ,time series analysis ,komplexe Systeme ,ddc:530 ,Zeitreihenanalyse ,climatology ,complex networks ,complex systems ,530 Physik - Abstract
Das Klimasystem der Erde besteht aus zahlreichen interagierenden Teilsystemen, die sich über verschiedene Zeitskalen hinweg verändern, was zu einer äußerst komplizierten räumlich-zeitlichen Klimavariabilität führt. Das Verständnis von Prozessen, die auf verschiedenen räumlichen und zeitlichen Skalen ablaufen, ist ein entscheidender Aspekt bei der numerischen Wettervorhersage. Die Variabilität des Klimas, ein sich selbst konstituierendes System, scheint in Mustern auf großen Skalen organisiert zu sein. Die Verwendung von Klimanetzwerken hat sich als erfolgreicher Ansatz für die Erkennung der räumlichen Ausbreitung dieser großräumigen Muster in der Variabilität des Klimasystems erwiesen. In dieser Arbeit wird mit Hilfe von Klimanetzwerken gezeigt, dass die Klimavariabilität nicht nur auf größeren Skalen (Asiatischer Sommermonsun, El Niño/Southern Oscillation), sondern auch auf kleineren Skalen, z.B. auf Wetterzeitskalen, in Mustern organisiert ist. Dies findet Anwendung bei der Erkennung einzelner tropischer Wirbelstürme, bei der Charakterisierung binärer Wirbelsturm-Interaktionen, die zu einer vollständigen Verschmelzung führen, und bei der Untersuchung der intrasaisonalen und interannuellen Variabilität des Asiatischen Sommermonsuns. Schließlich wird die Anwendbarkeit von Klimanetzwerken zur Analyse von Vorhersagefehlern demonstriert, was für die Verbesserung von Vorhersagen von immenser Bedeutung ist. Da korrelierte Fehler durch vorhersagbare Beziehungen zwischen Fehlern verschiedener Regionen aufgrund von zugrunde liegenden systematischen oder zufälligen Prozessen auftreten können, wird gezeigt, dass Fehler-Netzwerke helfen können, die räumlich kohärenten Strukturen von Vorhersagefehlern zu untersuchen. Die Analyse der Fehler-Netzwerk-Topologie von Klimavariablen liefert ein erstes Verständnis der vorherrschenden Fehlerquelle und veranschaulicht das Potenzial von Klimanetzwerken als vielversprechendes Diagnoseinstrument zur Untersuchung von Fehlerkorrelationen., The Earth’s climate system consists of numerous interacting subsystems varying over a multitude of time scales giving rise to highly complicated spatio-temporal climate variability. Understanding processes occurring at different scales, both spatial and temporal, has been a very crucial problem in numerical weather prediction. The variability of climate, a self-constituting system, appears to be organized in patterns on large scales. The climate networks approach has been very successful in detecting the spatial propagation of these large scale patterns of variability in the climate system. In this thesis, it is demonstrated using climate network approach that climate variability is organized in patterns not only at larger scales (Asian Summer Monsoon, El Niño-Southern Oscillation) but also at shorter scales, e.g., weather time scales. This finds application in detecting individual tropical cyclones, characterizing binary cyclone interaction leading to a complete merger, and studying the intraseasonal and interannual variability of the Asian Summer Monsoon. Finally, the applicability of the climate network framework to understand forecast error properties is demonstrated, which is crucial for improvement of forecasts. As correlated errors can arise due to the presence of a predictable relationship between errors of different regions because of some underlying systematic or random process, it is shown that error networks can help to analyze the spatially coherent structures of forecast errors. The analysis of the error network topology of a climate variable provides a preliminary understanding of the dominant source of error, which shows the potential of climate networks as a very promising diagnostic tool to study error correlations.
- Published
- 2023
- Full Text
- View/download PDF
9. Reconstructing Dynamical Systems From Stochastic Differential Equations to Machine Learning
- Author
-
Hassanibesheli, Forough, Kurths, Jürgen, Palus, Milan, and Ditlevsen, Peter
- Subjects
Machine Learning ,Nichtlineare Dynamik ,Complex systems ,Nonlinear Dynamics ,ddc:530 ,Zeitreihenanalyse ,Time Series Analysis ,Komplexe Systeme ,530 Physik ,Maschinelles Lernen - Abstract
Die Modellierung komplexer Systeme mit einer großen Anzahl von Freiheitsgraden ist in den letzten Jahrzehnten zu einer großen Herausforderung geworden. In der Regel werden nur einige wenige Variablen komplexer Systeme in Form von gemessenen Zeitreihen beobachtet, während die meisten von ihnen - die möglicherweise mit den beobachteten Variablen interagieren - verborgen bleiben. In dieser Arbeit befassen wir uns mit dem Problem der Rekonstruktion und Vorhersage der zugrunde liegenden Dynamik komplexer Systeme mit Hilfe verschiedener datengestützter Ansätze. Im ersten Teil befassen wir uns mit dem umgekehrten Problem der Ableitung einer unbekannten Netzwerkstruktur komplexer Systeme, die Ausbreitungsphänomene widerspiegelt, aus beobachteten Ereignisreihen. Wir untersuchen die paarweise statistische Ähnlichkeit zwischen den Sequenzen von Ereigniszeitpunkten an allen Knotenpunkten durch Ereignissynchronisation (ES) und Ereignis-Koinzidenz-Analyse (ECA), wobei wir uns auf die Idee stützen, dass funktionale Konnektivität als Stellvertreter für strukturelle Konnektivität dienen kann. Im zweiten Teil konzentrieren wir uns auf die Rekonstruktion der zugrunde liegenden Dynamik komplexer Systeme anhand ihrer dominanten makroskopischen Variablen unter Verwendung verschiedener stochastischer Differentialgleichungen (SDEs). In dieser Arbeit untersuchen wir die Leistung von drei verschiedenen SDEs - der Langevin-Gleichung (LE), der verallgemeinerten Langevin-Gleichung (GLE) und dem Ansatz der empirischen Modellreduktion (EMR). Unsere Ergebnisse zeigen, dass die LE bessere Ergebnisse für Systeme mit schwachem Gedächtnis zeigt, während sie die zugrunde liegende Dynamik von Systemen mit Gedächtniseffekten und farbigem Rauschen nicht rekonstruieren kann. In diesen Situationen sind GLE und EMR besser geeignet, da die Wechselwirkungen zwischen beobachteten und unbeobachteten Variablen in Form von Speichereffekten berücksichtigt werden. Im letzten Teil dieser Arbeit entwickeln wir ein Modell, das auf dem Echo State Network (ESN) basiert und mit der PNF-Methode (Past Noise Forecasting) kombiniert wird, um komplexe Systeme in der realen Welt vorherzusagen. Unsere Ergebnisse zeigen, dass das vorgeschlagene Modell die entscheidenden Merkmale der zugrunde liegenden Dynamik der Klimavariabilität erfasst., Modeling complex systems with large numbers of degrees of freedom have become a grand challenge over the past decades. Typically, only a few variables of complex systems are observed in terms of measured time series, while the majority of them – which potentially interact with the observed ones - remain hidden. Throughout this thesis, we tackle the problem of reconstructing and predicting the underlying dynamics of complex systems using different data-driven approaches. In the first part, we address the inverse problem of inferring an unknown network structure of complex systems, reflecting spreading phenomena, from observed event series. We study the pairwise statistical similarity between the sequences of event timings at all nodes through event synchronization (ES) and event coincidence analysis (ECA), relying on the idea that functional connectivity can serve as a proxy for structural connectivity. In the second part, we focus on reconstructing the underlying dynamics of complex systems from their dominant macroscopic variables using different Stochastic Differential Equations (SDEs). We investigate the performance of three different SDEs – the Langevin Equation (LE), Generalized Langevin Equation (GLE), and the Empirical Model Reduction (EMR) approach in this thesis. Our results reveal that LE demonstrates better results for systems with weak memory while it fails to reconstruct underlying dynamics of systems with memory effects and colored-noise forcing. In these situations, the GLE and EMR are more suitable candidates since the interactions between observed and unobserved variables are considered in terms of memory effects. In the last part of this thesis, we develop a model based on the Echo State Network (ESN), combined with the past noise forecasting (PNF) method, to predict real-world complex systems. Our results show that the proposed model captures the crucial features of the underlying dynamics of climate variability.
- Published
- 2023
- Full Text
- View/download PDF
10. Automated and robust geometric and spectral fusion of multi-sensor, multi-spectral satellite images
- Author
-
Scheffler, D., Hostert, Patrick, Guanter, Luis, and Herold, Martin
- Subjects
Spektrale Harmonisierung ,Co-registration ,Burn severity ,Brandschäden ,Satellite image harmonization ,Time series analysis ,Remote sensing ,Fernerkundung ,Harmonisierung von Satellitendaten ,Co-Registrierung ,550 Geowissenschaften ,Analysis ready data ,ddc:550 ,Zeitreihenanalyse ,Analysebereite Daten ,Spectral harmonization - Abstract
Earth observation satellite data acquired in recent years and decades provide an ideal data basis for accurate long-term monitoring and mapping of the Earth's surface and atmosphere. However, the vast diversity of different sensor characteristics often prevents synergetic use. Hence, there is an urgent need to combine heterogeneous multi-sensor data to generate geometrically and spectrally harmonized time series of analysis-ready satellite data. This dissertation provides a mainly methodical contribution by presenting two newly developed, open-source algorithms for sensor fusion, which are both thoroughly evaluated as well as tested and validated in practical applications. AROSICS, a novel algorithm for multi-sensor image co-registration and geometric harmonization, provides a robust and automated detection and correction of positional shifts and aligns the data to a common coordinate grid. The second algorithm, SpecHomo, was developed to unify differing spectral sensor characteristics. It relies on separate material-specific regressors for different land cover classes enabling higher transformation accuracies and the estimation of unilaterally missing spectral bands. Based on these algorithms, a third study investigated the added value of synthesized red edge bands and the use of dense time series, enabled by sensor fusion, for the estimation of burn severity and mapping of fire damage from Landsat. The results illustrate the effectiveness of the developed algorithms to reduce multi-sensor, multi-temporal data inconsistencies and demonstrate the added value of geometric and spectral harmonization for subsequent products. Synthesized red edge information has proven valuable when retrieving vegetation-related parameters such as burn severity. Moreover, using sensor fusion for combining multi-sensor time series was shown to offer great potential for more accurate monitoring and mapping of quickly evolving environmental processes. Die in den letzten Jahrzehnten aufgenommenen Satellitenbilder zur Erdbeobachtung bieten eine ideale Grundlage für eine genaue Langzeitüberwachung und Kartierung der Erdoberfläche und Atmosphäre. Unterschiedliche Sensoreigenschaften verhindern jedoch oft eine synergetische Nutzung. Daher besteht ein dringender Bedarf heterogene Multisensordaten zu kombinieren und als geometrisch und spektral harmonisierte Zeitreihen nutzbar zu machen. Diese Dissertation liefert einen vorwiegend methodischen Beitrag und stellt zwei neu entwickelte Open-Source-Algorithmen zur Sensorfusion vor, die gründlich evaluiert, getestet und validiert werden. AROSICS, ein neuer Algorithmus zur Co-Registrierung und geometrischen Harmonisierung von Multisensor-Daten, ermöglicht eine robuste und automatische Erkennung und Korrektur von Lageverschiebungen und richtet die Daten an einem gemeinsamen Koordinatengitter aus. Der zweite Algorithmus, SpecHomo, wurde entwickelt, um unterschiedliche spektrale Sensorcharakteristika zu vereinheitlichen. Auf Basis von materialspezifischen Regressoren für verschiedene Landbedeckungsklassen ermöglicht er nicht nur höhere Transformationsgenauigkeiten, sondern auch die Abschätzung einseitig fehlender Spektralbänder. Darauf aufbauend wurde in einer dritten Studie untersucht, inwieweit sich die Abschätzung von Brandschäden aus Landsat mittels synthetischer Red-Edge-Bänder und der Verwendung dichter Zeitreihen, ermöglicht durch Sensorfusion, verbessern lässt. Die Ergebnisse zeigen die Effektivität der entwickelten Algorithmen zur Verringerung von Inkonsistenzen bei Multisensor- und Multitemporaldaten sowie den Mehrwert einer geometrischen und spektralen Harmonisierung für nachfolgende Produkte. Synthetische Red-Edge-Bänder erwiesen sich als wertvoll bei der Abschätzung vegetationsbezogener Parameter wie z. B. Brandschweregraden. Zudem zeigt die Arbeit das große Potenzial zur genaueren Überwachung und Kartierung von sich schnell entwickelnden Umweltprozessen, das sich aus einer Sensorfusion ergibt.
- Published
- 2023
11. The empirical distance covariance of weakly dependent data
- Author
-
Kroll, Marius
- Subjects
Schwache Abhängigkeit ,U-Statistik ,Zeitreihenanalyse ,510 Mathematik ,ddc:510 ,Asymptotische Statistik ,Stochastische Abhängigkeit - Abstract
Die vorliegende Dissertation entwickelt Theorie für die empirische Distance Covariance von schwach abhängigen Daten. In einem ersten Teil wird das asymptotische Verhalten der empirischen Distance Covariance von Daten in separablen metrischen Räumen unter Mischungsannahmen untersucht und verschiedene Konvergenzresultate hergeleitet. Aufbauend hierauf wird ein Bootstrap-Verfahren für die schwache Grenzverteilung der empirischen Distance Covariance vorgestellt und dessen Basis ein Test auf Unabhängigkeit von Zeitreihen konstruiert. Zum Beweis der Bootstrap-Konsistenz wird eine neue Schranke für den Wassersteinabstand eines empirischen Maßes zu seiner Limesverteilung unter Mischungsannahmen hergeleitet. Schließlich wird das genannte Bootstrap-Verfahren in einer abgewandelten Form verwendet um asymptotische Konfidenzintervalle für die Distance Covariance zu konstruieren.
- Published
- 2023
- Full Text
- View/download PDF
12. Cyclic nonlinear correlation analysis for time series
- Author
-
Christopher M. A. Bonenberger, Friedhelm Schwenker, Wolfgang Ertel, and Markus Schneider
- Subjects
PCA ,Time series ,General Computer Science ,Hauptkomponentenanalyse ,Filter ,General Engineering ,Correlation ,Discrete fourier transform ,DDC 620 / Engineering & allied operations ,ddc:000 ,General Materials Science ,Correlation (Statistics) ,Zeitreihenanalyse ,Kernel PCA ,DDC 000 / Computer science, information & general works ,Electrical and Electronic Engineering ,ddc:620 ,Circulant matrices - Abstract
Principal component analysis (PCA) and kernel PCA allow the decorrelation of data with respect to a basis that is found via variance maximization. However, these techniques are based on pointwise correlations. Especially in the context of time series analysis this is not optimal. We present a novel generalization of PCA that allows to imprint any desired correlation pattern. Thus the proposed method can be used to incorporate previously known statistical dependencies between input variables into the model which is increasing the overall performance. This is achieved by generalizing the projection onto the direction of maximum variance—as known from PCA—to a projection onto a multi-dimensional subspace. We focus on the use of cyclic correlation patterns, which is especially of interest in the domain of time series analysis. Beneath introducing the presented variation of PCA, we discuss the role of this method with respect to other well-known time series analysis techniques., publishedVersion
- Published
- 2022
13. Ein neuer Algorithmus zur Zeitsynchronisierung von Ereignis-basierten Zeitreihendaten als Alternative zur Kreuzkorrelation
- Author
-
Schranz, Christoph and Mayr, Sebastian
- Subjects
event-based time series data, synchronization, cross-correlation ,Synchronisierung ,ddc:Spiele ,ddc:790 Sport ,Zeitreihenanalyse ,ddc:Unterhaltung ,Ereignis-basierte Zeitreihendaten, Synchronisierung, Kreuzkorrelation ,ddc:700 Künste & Freizeit und Erholung ,Kreuzkorrelation - Abstract
Mit der Verwendung von Sensordaten aus mehreren Quellen entsteht oft die Notwendigkeit einer Synchronisierung der entstandenen Messreihen. Ein Standardverfahren dazu ist die Kreuzkorrelation, die jedoch übereinstimmende Zeitstempel voraussetzt und empfindlich gegenüber Ausreißern reagiert. In diesem Paper wird daher ein alternativer Algorithmus für die Synchronisierung von Ereignis-basierten Zeitreihendaten vorgestellt. With the use of sensor data from multiple sources, the need for synchronization of the resulting measurement series often arises. A standard method for this is cross-correlation, but this requires matching timestamps and is sensitive to outliers. This paper therefore presents an alternative algorithm for the synchronization of event-based time series data.
- Published
- 2022
14. Essays in International Finance, Energy Economics, and Applied Time Series Econometrics
- Author
-
Menkhoff, Lukas, Burda, Michael, Boer, Lukas, Menkhoff, Lukas, Burda, Michael, and Boer, Lukas
- Abstract
Diese Dissertation beantwortet verschiedene politikrelevante ökonomische Fragen in den Bereichen Handelspolitik, Geldpolitik, sowie Rohstoffmärkte und Energieökonomik mit Hilfe von strukturellen Vektorautoregressionsmodellen (SVAR). SVARs stellen eine effektive Möglichkeit dar, die Beziehungen zwischen verschiedenen makroökonomischen und/oder Finanzmarkt-Variablen zu modellieren und werden verwendet, um die dynamischen kausalen Effekte von ökonomischen Schocks zu schätzen. Für jede ökonomische Fragestellung wird eine Identifikationsstrategie angewandt, die auf die betrachteten Daten und ihre statistischen Eigenschaften sowie die zugrundeliegenden Annahmen über ökonomische Mechanismen zwischen den betrachteten Zeitreihen zugeschnitten ist. Im Einzelnen besteht diese Dissertation aus vier Kapiteln. In den ersten beiden Kapiteln werden die Auswirkungen von Handelspolitik auf Finanzmärkte und auf die Makroökonomie geschätzt. Das dritte Kapitel liefert einen methodischen Beitrag zur SVAR-Literatur, der in einer Anwendung zu den Effekten von Geldpolitik dargestellt wird. Das letzte Kapitel verlässt die Felder der Handels- und Geldpolitik und wendet sich Rohstoffmärkten und der Energiewirtschaft zu, stützt sich dabei aber ebenfalls auf Zeitreihenmethoden. Es analysiert die Rolle von Metallen in der Energiewende., This dissertation answers various policy relevant economic questions in the fields of trade policy, monetary policy, and commodity markets and energy economics using structural vector autoregression (SVAR) models. SVARs constitute a parsimonious way to model the relations between different macroeconomic and/or financial variables and they are used to estimate the dynamic causal effects of economic shocks. For each economic question, this dissertation applies an identification strategy that is tailored to the relevant data and its statistical properties as well as the underlying assumptions about economic mechanisms among the regarded time series. Specifically, this dissertation consists of four chapters. The first two chapters estimate the effects of trade policy on financial markets and on the macroeconomy. The third chapter makes a methodological contribution to the SVAR literature in an application to monetary policy shocks. The final chapter moves away from trade and monetary policy to commodity markets and energy economics but also relies on time series methods. It analyzes the role of metals for the clean energy transition.
- Published
- 2022
15. Detecting changes in the mean and variance of a time series
- Author
-
Schmidt, Sara Kristin (M. Sc.)
- Subjects
Nichtparametrisches Verfahren ,Schwache Abhängigkeit ,U-Statistik ,Zeitreihenanalyse ,ddc:510 ,Asymptotische Statistik - Abstract
Die vorliegende Dissertation entwickelt Testverfahren zur Detektion von Änderungen verschiedener Charakteristika einer kurzzeitabhängigen Zeitreihe. Nach einer kurzen Einführung in die mathematischen Grundlagen betrachtet der erste Teil der Arbeit einen Test auf Änderungen in der Varianz, der explizit auch unter Vorliegen eines nicht konstanten Mittelwertes anwendbar ist. Anschließend wird im zweiten Teil ein Test auf Änderungen im Mittelwert unter Heteroskedastizität untersucht. Die den Verfahren zugrundeliegenden Teststatistiken basieren auf dem paarweisen Vergleich lokaler Varianz- bzw. Mittelwertschätzer. Zur Herleitung ihres asymptotischen Verhaltens werden Grenzwertsätze für spezielle U-Statistiken von zeilenweise nicht stationären, kurzzeitabhängigen Dreiecksschemata nachgewiesen. Abschließend werden die resultierenden Testverfahren in Simulationsstudien analysiert und mit Hilfe von Datenbeispielen praktisch veranschaulicht.
- Published
- 2022
16. Bildung von Typperioden zur Komplexitätsreduktion der Strukturoptimierung verfahrenstechnischer Produktionssysteme am Beispiel der Methanolproduktion aus Hüttengasen
- Author
-
Beek, Mathias Theodor van (M. Sc.)
- Subjects
Systemanalyse ,Optimierung ,Zeitreihenanalyse ,Erneuerbare Energien ,ddc:620 ,Cluster-Analyse - Abstract
Die gemischt-ganzzahlige lineare Optimierung ist im Stand der Forschung für Planungsprobleme technischer Systeme erprobt, benötigt jedoch für komplexere Systeme zu hohe Rechenzeiten. Deshalb wird im Rahmen der Dissertation ein Framework zur Bildung und Bewertung von Typperioden im Optimierungskontext entwickelt, um die Rechenzeiten systematisch zu reduzieren. Dabei liegt der Fokus auf der Auswahl und Entwicklung geeigneter Methoden zur Datenvorbereitung, Normierung, Zeitreihentransformation, Clustering-Algorithmen-Auswahl und Bewertung. Das Framework wird an einem neuartigen Optimierungsmodell zur Auslegung der gekoppelten Produktion von Stahl und Methanol mit einem am deutschen Intraday-Spotmarkt betriebenen Elektrolyseur exemplarisch angewendet. Im Vergleich zu etablierten, mathematischen Bewertungsmethoden erweisen sich die entwickelten Dauerlinien als besonders geeignet, um die Genauigkeit der resultierenden Optimierungsergebnisse zu prognostizieren.
- Published
- 2022
17. Explainable adaptation of time series forecasting
- Author
-
Saadallah, Amal, Morik, Katharina, and Hammer, Barbara
- Subjects
Ensemble pruning ,Neuronales Netz ,Bestärkendes Lernen ,Prognose ,Industrie 4.0 ,Ensemble aggregation ,Regions of competence ,Meta-learning ,Deep neural networks ,Online model selection ,Data Mining ,Deep reinforcement learning ,Sensortechnik ,Modellwahl ,Time series variables selection ,Deep learning ,Metalernen ,Explainability ,Industry 4.0 ,Sensor data ,Time series forecasting ,Simulation data mining ,Zeitreihenanalyse ,Model-based quality prediction ,Erklärung - Abstract
A time series is a collection of data points captured over time, commonly found in many fields such as healthcare, manufacturing, and transportation. Accurately predicting the future behavior of a time series is crucial for decision-making, and several Machine Learning (ML) models have been applied to solve this task. However, changes in the time series, known as concept drift, can affect model generalization to future data, requiring thus online adaptive forecasting methods. This thesis aims to extend the State-of-the-Art (SoA) in the ML literature for time series forecasting by developing novel online adaptive methods. The first part focuses on online time series forecasting, including a framework for selecting time series variables and developing ensemble models that are adaptive to changes in time series data and model performance. Empirical results show the usefulness and competitiveness of the developed methods and their contribution to the explainability of both model selection and ensemble pruning processes. Regarding the second part, the thesis contributes to the literature on online ML model-based quality prediction for three Industry 4.0 applications: NC-milling, bolt installation in the automotive industry, and Surface Mount Technology (SMT) in electronics manufacturing. The thesis shows how process simulation can be used to generate additional knowledge and how such knowledge can be integrated efficiently into the ML process. The thesis also presents two applications of explainable model-based quality prediction and their impact on smart industry practices.
- Published
- 2022
- Full Text
- View/download PDF
18. Event impact analysis for time series
- Author
-
Scharwächter, Erik, Müller, Emmanuel, and Jentsch, Carsten
- Subjects
Time series ,Anomalieerkennung ,Änderungserkennung ,Anomaly detection ,Kausale Erklärung ,Event coincidence analysis ,Event series ,Change detection ,Zeitreihenanalyse ,Event impact analysis ,Causal inference - Abstract
Time series arise in a variety of application domains—whenever data points are recorded over time and stored for subsequent analysis. A critical question is whether the occurrence of events like natural disasters, technical faults, or political interventions leads to changes in a time series, for example, temporary deviations from its typical behavior. The vast majority of existing research on this topic focuses on the specific impact of a single event on a time series, while methods to generically capture the impact of a recurring event are scarce. In this thesis, we fill this gap by introducing a novel framework for event impact analysis in the case of randomly recurring events. We develop a statistical perspective on the problem and provide a generic notion of event impacts based on a statistical independence relation. The main problem we address is that of establishing the presence of event impacts in stationary time series using statistical independence tests. Tests for event impacts should be generic, powerful, and computationally efficient. We develop two algorithmic test strategies for event impacts that satisfy these properties. The first is based on coincidences between events and peaks in the time series, while the second is based on multiple marginal associations. We also discuss a selection of follow-up questions, including ways to measure, model and visualize event impacts, and the relationship between event impact analysis and anomaly detection in time series. At last, we provide a first method to study event impacts in nonstationary time series. We evaluate our methodological contributions on several real-world datasets and study their performance within large-scale simulation studies.
- Published
- 2022
19. Online monitoring of dynamic networks using flexible multivariate control charts
- Author
-
Flossdorf, Jonathan, Fried, Roland, and Jentsch, Carsten
- Subjects
online monitoring ,change-point detection ,multivariate control chart ,Change-point-Problem ,temporal graphs ,Multivariate Analyse ,Zeitreihenanalyse ,network analysis ,Gro��es System - Abstract
The identification of differences in dynamic networks between various time points is an important task and involves statistical procedures like two-sample tests or changepoint detection. Due to the rather complex nature of temporal graphs, the analysis is challenging which is why the complexity is typically reduced to a metric or some sort of a model. This is not only likely to result in a loss of relevant information, but common approaches also use restrictive assumptions and are therefore heavily limited in their usability. We propose an online monitoring approach usable for flexible network structures and able to handle various types of changes. It is based on a sound choice of a set of network characteristics under consideration of their mathematical properties which is crucial in order to cover the relevant information. Subsequently, those metrics are jointly monitored in a suitable multivariate control chart scheme which performs superior to a univariate analysis and enables both parametric and non-parametric usage. The user also benefits from a handy interpretation of the structural reasons for the detected changes which is a crucial advantage in the rather complex field of dynamic networks. Our findings are supported by an extensive simulation study., Discussion Paper / SFB823;33/2021
- Published
- 2022
- Full Text
- View/download PDF
20. Herunterskalieren von Grundwasserbildern mit maschinellen Lerntechniken
- Author
-
Rahimi Rahbar, Seyedeh Rozita
- Subjects
Grundwasser ,Multiples Regressionsmodell ,Multiple Regression Model ,Spatial analysis ,Herunterskalieren ,Time-series analysis ,Machine learning ,Downscaling ,Zeitreihenanalyse ,Hydrology ,Zufälliger Wald ,Groundwater ,Hydrologie ,Maschinelles Lernen ,Räumliche Analyse ,Random forest - Abstract
Aufgrund des Klimawandels, eines unzureichenden Managements der Grundwassernutzung und der wachsenden Bevölkerung hat der Grundwasserverbrauch (GW) erheblich zugenommen. Daher ist die Überwachung und Beobachtung von Grundwasserveränderungen von entscheidender Bedeutung, um das verfügbare Grundwasser und seine weltweite Bewirtschaftung besser zu verstehen. Aufgrund des Mangels an zuverlässigen und ausreichenden In-situ-Beobachtungen können Fernerkundung und hydrologische Modelle als alternative Quellen verwendet werden, um die Änderungen der GW-Speicherung auf globaler und/oder regionaler Ebene zu überwachen und zu bewerten. Diese hydrologischen Modelle haben jedoch oft eine geringe räumliche Auflösung, die auf kleinem Maßstab nicht viele Informationen liefert. Daher ist das Hauptziel dieser Arbeit, die GW-Speicheranomalie (GWSA) des WaterGAP Global Hydrology Model (WGHM) von einer groben räumlichen Auflösung (0,5 Grad) auf eine feinere räumliche Auflösung (0,1 Grad) unter Verwendung feiner räumlicher Auflösung herunterzuskalieren Auflösung von Hilfsdatensätzen (0,1 Grad) wie Verdunstung, Oberflächen- und Untergrundabfluss, Schneehöhe, volumetrisches Bodenwasser und Bodentemperatur aus dem ERA5-Land-Modell sowie Produkt zur globalen Niederschlagsmessung (IMERG). Wir haben die Qazvin-Ebene im Zentraliran als Fallstudie ausgewählt, da sie in den letzten Jahren eine große Menge Grundwasser verloren hat. Verschiedene Modelle des maschinellen Lernens wie multiple lineare Regression (MLR), Polynome und Random Forest (RF)-Modelle wurden untersucht, um die WGHM-basierte GWSA herunterzuskalieren. Dann wurde die Leistung jedes Modells während der Validierung des Testdatensatzes bewertet und das RF-Modell wurde basierend auf seinen hohen Skill-Scores im Vergleich zu anderen Modellen ausgewählt. Dann wurde die GWSA bei 0,1 Grad (10 km) vorhergesagt. Die herunterskalierten Ergebnisse wurden am Ende auch mit den In-situ-Beobachtungen verglichen, um die Zuverlässigkeit der WGHM-basierten GWSA und der herunterskalierten GWSA zu sehen. Die Ergebnisse zeigten eine hohe Übereinstimmung mit der In-situ-GWSA über der Qazvin-Ebene sowohl in saisonalen als auch in monatlichen Zeitskalen mit einem Korrelationskoeffizienten von 0,994 bzw. 0,991 für das Original (0,5 Grad) und das herunterskalierte (0,1 Grad) GWSA. Im Allgemeinen zeigte das herunterskalierte Produkt deutlich, dass die entwickelte Herunterskalierungstechnik, die in dieser Studie verwendet wird, in der Lage ist, die Hilfsdaten mit hoher räumlicher Auflösung zu verwenden, und das Modell daraus lernen kann, und schließlich kann man die GWSA-Merkmale auf einer höheren Ebene erfassen räumliche Auflösung. Due to climate change, not adequately management of groundwater usage, and the growing population, groundwater (GW) consumption has increased significantly. Therefore, monitoring and observing groundwater changes is vital to have a better understanding of the available groundwater and its management of it worldwide. Due to the lack of reliable and sufficient in-situ observations, remote sensing and hydrological models can be used as an alternative source to monitor and evaluate the GW storage changes on global and/or regional scales. However, often these hydrological models have a low spatial resolution which will not give much information on a small scale. Therefore, the main aim of this thesis is to downscale the GW storage anomaly (GWSA) of the WaterGAP Global Hydrology Model (WGHM) from a coarse spatial resolution (0.5-degree) to a finer spatial resolution (0.1-degree) using fine spatial resolution auxiliary datasets (0.1-degree) such as evaporation, surface, and subsurface runoff, snow depth, volumetric soil water, and soil temperature from the ERA5-Land model as well as global precipitation measurement (IMERG) product. We selected the Qazvin Plain which is located in central Iran as the case study because it has lost a big amount of groundwater during the last several years. Different Machine Learning such as multiple linear regression (MLR), polynomial, and random forest (RF) models was examined to downscale the WGHM-based GWSA. Then the performance of each model was evaluated during the validation of the test dataset and RF model was selected based on its high skill scores compared to other models. Then the GWSA was predicted at 0.1-degree (10-km). The downscaled results were also compared with the in-situ observations at the end, to see the reliability of the WGHM-based GWSA and the downscaled GWSA. The results showed high agreement with the in-situ GWSA over Qazvin Plain in both seasonal and monthly time scales, with a correlation coefficient of 0.994 and 0.991, respectively, for the original (0.5-degree) and the downscaled (0.1-degree) GWSA. In general, the downscaled product clearly indicated that the developed downscaling technique that is used in this study, is able to use the high spatial resolution auxiliary data and the model can learn from that, and finally one can capture the GWSA features at a higher spatial resolution.
- Published
- 2022
21. Spatial and spatio-temporal regression modelling with conditional autoregressive random effects for epidemiological and spatially referenced data
- Author
-
Djeudeu-Deudjui, Dany-Armand, Ickstadt, Katja, and Doebler, Philipp
- Subjects
Räumliche Statistik ,Longitudinal data ,Depression ,Umwelteinfluss ,Multilevel conditional autoregressive model ,Autoregressiver Prozess ,Decision tree ,Zeitreihenanalyse ,Entscheidungsbaum ,Spatio-temporal-autocorrelation - Abstract
Regression models are suitable to analyse the association between health outcomes and environmental exposures. However, in urban health studies where spatial and temporal changes are of importance, spatial and spatio-temporal variations are usually neglected. This thesis develops and applies regression methods incorporating latent random effects terms with Conditional Autoregressive (CAR) structures in classical regression models to account for the spatial effects for cross-sectional analysis and spatio-temporal effects for longitudinal analysis. The thesis is divided into two main parts. Firstly, methods to analyse data for which all variables are given on an areal level are considered. The longitudinal Heinz Nixdorf Recall Study is used throughout this thesis for application. The association between the risk of depression and greenness at the district level is analysed. A spatial Poisson model with a latent CAR structured-Random effect is applied for selected time points. Then, a sophisticated spatio-temporal extension of the Poisson model results to a negative association between greenness and depression. The findings also suggest strong temporal autocorrelation and weak spatial effects. Even if the weak spatial effects are suggestive of neglecting them, as in the case of this thesis, spatial and spatio-temporal random effects should be taken into account to provide reliable inference in urban health studies. Secondly, to avoid ecological and atomic fallacies due to data aggregation and disaggregation, all data should be used at their finest spatial level given. Multilevel Conditional Autoregressive (CAR) models help to simultaneously use all variables at their initial spatial resolution and explain the spatial effect in epidemiological studies. This is especially important where subjects are nested within geographical units. This second part of the thesis has two goals. Essentially, it further develops the multilevel models for longitudinal data by adding existing random effects with CAR structures that change over time. These new models are named MLM tCARs. By comparing the MLM tCARs to the classical multilevel growth model via simulation studies, we observe a better performance of MLM tCARs in retrieving the true regression coefficients and with better fits. The models are comparatively applied on the analysis of the association between greenness and depressive symptoms at the individual level in the longitudinal Heinz Nixdorf Recall Study. The results show again negative association between greenness and depression and a decreasing linear individual time trend for all models. We observe once more very weak spatial variation and moderate temporal autocorrelation. Besides, the thesis provides comprehensive decision trees for analysing data in epidemiological studies for which variables have a spatial background.
- Published
- 2022
- Full Text
- View/download PDF
22. Can teachers’ diagnostic competence be fostered through training and the use of a diary?
- Author
-
Klug, Julia, Gerich, Mara, and Schmitz, Bernhard
- Subjects
DIAGNOSTIC teaching ,EDUCATIONAL programs ,DIARY (Literary form) ,EVALUATION - Abstract
Copyright of Journal for Educational Research Online / Journal für Bildungsforschung Online is the property of Waxmann Verlag GmbH and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2016
23. Physics-based Machine Learning Approaches to Complex Systems and Climate Analysis
- Author
-
Kurths, Jürgen, Romano, M. Carmen, Leite da Silva Dias, Pedro, Gelbrecht, Maximilian, Kurths, Jürgen, Romano, M. Carmen, Leite da Silva Dias, Pedro, and Gelbrecht, Maximilian
- Abstract
Komplexe Systeme wie das Klima der Erde bestehen aus vielen Komponenten, die durch eine komplizierte Kopplungsstruktur miteinander verbunden sind. Für die Analyse solcher Systeme erscheint es daher naheliegend, Methoden aus der Netzwerktheorie, der Theorie dynamischer Systeme und dem maschinellen Lernen zusammenzubringen. Durch die Kombination verschiedener Konzepte aus diesen Bereichen werden in dieser Arbeit drei neuartige Ansätze zur Untersuchung komplexer Systeme betrachtet. Im ersten Teil wird eine Methode zur Konstruktion komplexer Netzwerke vorgestellt, die in der Lage ist, Windpfade des südamerikanischen Monsunsystems zu identifizieren. Diese Analyse weist u.a. auf den Einfluss der Rossby-Wellenzüge auf das Monsunsystem hin. Dies wird weiter untersucht, indem gezeigt wird, dass der Niederschlag mit den Rossby-Wellen phasenkohärent ist. So zeigt der erste Teil dieser Arbeit, wie komplexe Netzwerke verwendet werden können, um räumlich-zeitliche Variabilitätsmuster zu identifizieren, die dann mit Methoden der nichtlinearen Dynamik weiter analysiert werden können. Die meisten komplexen Systeme weisen eine große Anzahl von möglichen asymptotischen Zuständen auf. Um solche Zustände zu beschreiben, wird im zweiten Teil die Monte Carlo Basin Bifurcation Analyse (MCBB), eine neuartige numerische Methode, vorgestellt. Angesiedelt zwischen der klassischen Analyse mit Ordnungsparametern und einer gründlicheren, detaillierteren Bifurkationsanalyse, kombiniert MCBB Zufallsstichproben mit Clustering, um die verschiedenen Zustände und ihre Einzugsgebiete zu identifizieren. Bei von Vorhersagen von komplexen Systemen ist es nicht immer einfach, wie Vorwissen in datengetriebenen Methoden integriert werden kann. Eine Möglichkeit hierzu ist die Verwendung von Neuronalen Partiellen Differentialgleichungen. Hier wird im letzten Teil der Arbeit gezeigt, wie hochdimensionale räumlich-zeitlich chaotische Systeme mit einem solchen Ansatz modelliert und vorhergesagt werden können., Complex systems such as the Earth's climate are comprised of many constituents that are interlinked through an intricate coupling structure. For the analysis of such systems it therefore seems natural to bring together methods from network theory, dynamical systems theory and machine learning. By combining different concepts from these fields three novel approaches for the study of complex systems are considered throughout this thesis. In the first part, a novel complex network construction method is introduced that is able to identify the most important wind paths of the South American Monsoon system. Aside from the importance of cross-equatorial flows, this analysis points to the impact Rossby Wave trains have both on the precipitation and low-level circulation. This connection is then further explored by showing that the precipitation is phase coherent to the Rossby Wave. As such, the first part of this thesis demonstrates how complex networks can be used to identify spatiotemporal variability patterns within large amounts of data, that are then further analysed with methods from nonlinear dynamics. Most complex systems exhibit a large number of possible asymptotic states. To investigate and track such states, Monte Carlo Basin Bifurcation analysis (MCBB), a novel numerical method is introduced in the second part. Situated between the classical analysis with macroscopic order parameters and a more thorough, detailed bifurcation analysis, MCBB combines random sampling with clustering methods to identify and characterise the different asymptotic states and their basins of attraction. Forecasts of complex system are the next logical step. When doing so, it is not always straightforward how prior knowledge in data-driven methods. One possibility to do is by using Neural Partial Differential Equations. Here, it is demonstrated how high-dimensional spatiotemporally chaotic systems can be modelled and predicted with such an approach in the last part of the thesis.
- Published
- 2021
24. Complex networks across fields: from climate variability to online dynamics
- Author
-
Kurths, Juergen, Rodrigues, Francisco, Lange, Holger, Wolf, Frederik Peter Wilhelm, Kurths, Juergen, Rodrigues, Francisco, Lange, Holger, and Wolf, Frederik Peter Wilhelm
- Abstract
Komplexe Netzwerke sind mächtige Werkzeuge, die die Untersuchung komplexer Systeme unterstützen. In vielen Bereichen werden komplexe Netzwerke eingesetzt, um die Dynamik interagierender Entitäten wie Neuronen, Menschen oder sogar Wettersysteme zu verstehen. Darüber hinaus erweitern sich die Anwendungsbereiche mit der stetigen Entwicklung neuer theoretischer Ansätze. In dieser Arbeit wollen wir sowohl den theoretischen Rahmen der Netzwerkwissenschaften weiterentwickeln als auch komplexe Netzwerke in der Klimatologie und der computergestützten Sozialwissenschaft anwenden., Complex networks are powerful tools enabling the study of complex systems. In many fields, complex networks are used as a tool to gain an understanding of the dynamics of interacting entities such as neurons in a brain, humans on social media, or global weather systems. At the same time, new theoretical frameworks that extend the toolbox of Network Science promote the application of network tools in new research fields. In this thesis, we aim for both, advancing the theoretical framework of Network Science as well as applying complex networks in Climatology and Computational Social Science.
- Published
- 2021
25. Physics-based Machine Learning Approaches to Complex Systems and Climate Analysis
- Author
-
Gelbrecht, Maximilian, Kurths, Jürgen, Romano, M. Carmen, and Leite da Silva Dias, Pedro
- Subjects
Nichtlineare Dynamik ,Klimatologie ,Neuronale gewöhnliche Differentialgleichungen ,climatology ,Komplexe Systeme ,530 Physik ,nonlinear dynamics ,machine learning ,time series analysis ,neural ordinary differential equations ,ddc:530 ,Zeitreihenanalyse ,ddc:621 ,complex systems ,621 Angewandte Physik ,Maschinelles Lernen - Abstract
Komplexe Systeme wie das Klima der Erde bestehen aus vielen Komponenten, die durch eine komplizierte Kopplungsstruktur miteinander verbunden sind. Für die Analyse solcher Systeme erscheint es daher naheliegend, Methoden aus der Netzwerktheorie, der Theorie dynamischer Systeme und dem maschinellen Lernen zusammenzubringen. Durch die Kombination verschiedener Konzepte aus diesen Bereichen werden in dieser Arbeit drei neuartige Ansätze zur Untersuchung komplexer Systeme betrachtet. Im ersten Teil wird eine Methode zur Konstruktion komplexer Netzwerke vorgestellt, die in der Lage ist, Windpfade des südamerikanischen Monsunsystems zu identifizieren. Diese Analyse weist u.a. auf den Einfluss der Rossby-Wellenzüge auf das Monsunsystem hin. Dies wird weiter untersucht, indem gezeigt wird, dass der Niederschlag mit den Rossby-Wellen phasenkohärent ist. So zeigt der erste Teil dieser Arbeit, wie komplexe Netzwerke verwendet werden können, um räumlich-zeitliche Variabilitätsmuster zu identifizieren, die dann mit Methoden der nichtlinearen Dynamik weiter analysiert werden können. Die meisten komplexen Systeme weisen eine große Anzahl von möglichen asymptotischen Zuständen auf. Um solche Zustände zu beschreiben, wird im zweiten Teil die Monte Carlo Basin Bifurcation Analyse (MCBB), eine neuartige numerische Methode, vorgestellt. Angesiedelt zwischen der klassischen Analyse mit Ordnungsparametern und einer gründlicheren, detaillierteren Bifurkationsanalyse, kombiniert MCBB Zufallsstichproben mit Clustering, um die verschiedenen Zustände und ihre Einzugsgebiete zu identifizieren. Bei von Vorhersagen von komplexen Systemen ist es nicht immer einfach, wie Vorwissen in datengetriebenen Methoden integriert werden kann. Eine Möglichkeit hierzu ist die Verwendung von Neuronalen Partiellen Differentialgleichungen. Hier wird im letzten Teil der Arbeit gezeigt, wie hochdimensionale räumlich-zeitlich chaotische Systeme mit einem solchen Ansatz modelliert und vorhergesagt werden können., Complex systems such as the Earth's climate are comprised of many constituents that are interlinked through an intricate coupling structure. For the analysis of such systems it therefore seems natural to bring together methods from network theory, dynamical systems theory and machine learning. By combining different concepts from these fields three novel approaches for the study of complex systems are considered throughout this thesis. In the first part, a novel complex network construction method is introduced that is able to identify the most important wind paths of the South American Monsoon system. Aside from the importance of cross-equatorial flows, this analysis points to the impact Rossby Wave trains have both on the precipitation and low-level circulation. This connection is then further explored by showing that the precipitation is phase coherent to the Rossby Wave. As such, the first part of this thesis demonstrates how complex networks can be used to identify spatiotemporal variability patterns within large amounts of data, that are then further analysed with methods from nonlinear dynamics. Most complex systems exhibit a large number of possible asymptotic states. To investigate and track such states, Monte Carlo Basin Bifurcation analysis (MCBB), a novel numerical method is introduced in the second part. Situated between the classical analysis with macroscopic order parameters and a more thorough, detailed bifurcation analysis, MCBB combines random sampling with clustering methods to identify and characterise the different asymptotic states and their basins of attraction. Forecasts of complex system are the next logical step. When doing so, it is not always straightforward how prior knowledge in data-driven methods. One possibility to do is by using Neural Partial Differential Equations. Here, it is demonstrated how high-dimensional spatiotemporally chaotic systems can be modelled and predicted with such an approach in the last part of the thesis.
- Published
- 2021
- Full Text
- View/download PDF
26. Complex networks across fields: from climate variability to online dynamics
- Author
-
Wolf, Frederik Peter Wilhelm, Kurths, Juergen, Rodrigues, Francisco, and Lange, Holger
- Subjects
Nichtlineare Dynamik ,Klimatologie ,non-linear dynamics ,networks ,time series analysis ,komplexe Systeme ,ddc:530 ,Zeitreihenanalyse ,climatology ,Netzwerke ,complex systems ,530 Physik - Abstract
Komplexe Netzwerke sind mächtige Werkzeuge, die die Untersuchung komplexer Systeme unterstützen. In vielen Bereichen werden komplexe Netzwerke eingesetzt, um die Dynamik interagierender Entitäten wie Neuronen, Menschen oder sogar Wettersysteme zu verstehen. Darüber hinaus erweitern sich die Anwendungsbereiche mit der stetigen Entwicklung neuer theoretischer Ansätze. In dieser Arbeit wollen wir sowohl den theoretischen Rahmen der Netzwerkwissenschaften weiterentwickeln als auch komplexe Netzwerke in der Klimatologie und der computergestützten Sozialwissenschaft anwenden. Complex networks are powerful tools enabling the study of complex systems. In many fields, complex networks are used as a tool to gain an understanding of the dynamics of interacting entities such as neurons in a brain, humans on social media, or global weather systems. At the same time, new theoretical frameworks that extend the toolbox of Network Science promote the application of network tools in new research fields. In this thesis, we aim for both, advancing the theoretical framework of Network Science as well as applying complex networks in Climatology and Computational Social Science.
- Published
- 2021
27. Classification and repeatability studies of transient electromagnetic measurements with respect to the development of CO2-monitoring techniques
- Author
-
Spitzer, Klaus, Schaeben, Helmut, Tezkan, Bülent, Technische Universität Bergakademie Freiberg, Bär, Matthias, Spitzer, Klaus, Schaeben, Helmut, Tezkan, Bülent, Technische Universität Bergakademie Freiberg, and Bär, Matthias
- Abstract
The mitigation of greenhouse gases, like CO2 is a challenging aspect for our society. A strategy to hamper the constant emission of CO2 is utilizing carbon capture and storage technologies. CO2 is sequestrated in subsurface reservoirs. However, these reservoirs harbor the risk of leakage and appropriate geophysical monitoring methods are needed. A crucial aspect of monitoring is the assignment of measured data to certain events occurring. Especially if changes in the measured data are small, suitable statistical methods are needed. In this thesis, a new statistical workflow based on cluster analysis is proposed to detect similar transient electromagnetic signals. The similarity criteria dynamic time warping, the autoregressive distance, and the normalized root-mean-square distance are investigated and evaluated with respect to the classic Euclidean norm. The optimal number of clusters is determined using the gap statistic and visualized with multidimensional scaling. To validate the clustering results, silhouette values are used. The statistical workflow is applied to a synthetic data set, a long-term monitoring data set and a repeat measurement at a pilot CO2-sequestration site in Brooks, Alberta.
- Published
- 2020
28. Complex systems methods for detecting dynamical anomalies in past climate variability
- Author
-
Kurths, Jürgen, Lange, Holger, Rypdal, Martin, Lekscha, Jaqueline Stefanie, Kurths, Jürgen, Lange, Holger, Rypdal, Martin, and Lekscha, Jaqueline Stefanie
- Abstract
Die Analyse von Proxy-Zeitreihen aus Paläoklimaarchiven wie zum Beispiel Baumringen, Seesedimenten, Tropfsteinen und Eisbohrkernen mittels gefensterter Rekurrenznetzwerkanalyse ermöglicht die Identifizierung und Charakterisierung dynamischer Anomalien in der Klimavariabilität der Vergangenheit. Das Ziel der vorliegenden Arbeit ist die Entwicklung einer zuverlässigeren Routine zur gefensterten Rekurrenznetzwerkanalyse. Aufbauend auf dem bestehenden methodischen Rahmen werden die Bereiche der Phasenraumrekonstruktion und des Signifikanztests als verbesserungsfähig identifiziert. Deshalb werden verschiedene Methoden zur Rekonstruktion des Phasenraums aus unregelmäßig abgetasteten, verrauschten Daten verglichen. Außerdem wird ein allgemeiner flächenweiser Signifikanztest eingeführt, der, basierend auf einem ausgewählten Nullmodell, Korrelationen in den Analyseergebnissen numerisch abschätzt, um damit das Problem hoher Raten an falsch positiv signifikanten Ergebnissen zu adressieren. Im zweiten Teil der Arbeit wird die entwickelte Methodik genutzt, um die nichtlineare Variabilität des Klimas der Vergangenheit in Nord- und Südamerika zu untersuchen, indem vier reale Zeitreihen verschiedener Proxys studiert werden. Außerdem werden Proxy-System-Modelle genutzt, um auf die Frage der Eignung von Daten verschiedener Paläoklimaarchive zur Charakterisierung der Klimavariabilität mittels gefensterter Rekurrenznetzwerkanalyse einzugehen. Mit der Arbeit wird der Einsatz nichtlinearer Methoden zur Analyse von Paläoklima-Zeitreihen vorangebracht, das Potential und die Grenzen der gefensterten Rekurrenznetzwerkanalyse aufgezeigt und zukünftige relevante Fragestellungen, die die erhaltenen Ergebnisse und Schlussfolgerungen komplementieren können, identifiziert., Studying palaeoclimate proxy data from archives such as tree rings, lake sediments, speleothems, and ice cores using windowed recurrence network analysis offers the possibility to characterise dynamical anomalies in past climate variability. This thesis aims at developing a more reliable framework of windowed recurrence network analysis by comparing different phase space reconstruction approaches for non-uniformly sampled noisy data and by tackling the problem of increased numbers of false positive significant points when correlations within the analysis results can not be neglected. For this, different phase space reconstruction approaches are systematically compared and a generalised areawise significance test which implements a numerical estimation of the correlations within the analysis results is introduced. In particular, the test can be used to identify patches of possibly false positive significant points. The developed analysis framework is applied to detect and characterise dynamical anomalies in past climate variability in North and South America by studying four real-world palaeoclimatic time series from different archives. Furthermore, the question whether palaeoclimate proxy time series from different archives are equally well suited for tracking past climate dynamics with windowed recurrence network analysis is approached by using the framework of proxy system modelling. This thesis promotes the use of non-linear methods for analysing palaeoclimate proxy time series, provides a detailed assessment of potentials and limitations of windowed recurrence network analysis and identifies future research directions that can complement the obtained results and conclusions.
- Published
- 2020
29. Stochastic forecasting in demography and social insurance
- Author
-
Vanella, Patrizio and Vanella, Patrizio
- Abstract
Die Prognose demografischer Prozesse ist in vielen Bereichen von großer Bedeutung, um sich auf diese Entwicklungen im Rahmen von Planungsprozessen frühzeitig einstellen zu können. In den meisten Fällen werden dafür anstelle echter Prognosen deterministische Projektionen herangezogen. Diese unterliegen einigen Limitationen, welche im Verlaufe dieser Dissertation diskutiert werden. Die Arbeit stellt ein Rahmenwerk für die stochastische Prognose demografischer Prozesse und darauf aufbauender Probleme, wie die Versicherungsnachfrage, dar. Der Fokus der Arbeit liegt dabei auf der demografischen Entwicklung in Deutschland und ihrer Konsequenzen für die gesetzliche Rentenversicherung und die Pflegeversicherung. Der Beitrag besteht aus sie-ben Kapiteln, die für sich genommen wissenschaftliche Papiere darstellen, die individuell entweder bereits in wissenschaftlichen Fachzeitschriften oder –büchern publiziert wurden o-der sich derzeit im Begutachtungsverfahren befinden. Nichtsdestotrotz ist die Zusammenstel-lung und Anreihung der einzelnen Kapitel dergestalt, dass diese schlüssig verbunden und lo-gisch aufeinander aufbauend sind. Die Zielgruppen dieser Arbeit sind sowohl Bevölkerungswissenschaftler und Forscher in an-grenzenden Disziplinen, als auch Abteilungen in Statistikämtern oder Lebensversicherungsun-ternehmen, die Prognosen für die Bevölkerung oder Subpopulationen erstellen. Insbesondere sollen den Lesern die beiden Primärmethoden Hauptkomponentenanalyse und Zeitreihenana-lyse nähergebracht werden, die außerhalb der akademischen Forschung selten praktische An-wendung finden, insbesondere für Prognosen. Das mag darauf zurückzuführen sein, dass Mo-dellierer die Methoden entweder überhaupt nicht kennen oder ihnen die praktische Erfahrung in der Anwendung dieser auf reale Daten fehlt. Die Dissertation adressiert diese Probleme, da das besondere Augenmerk auf einer verständli-chen und nachvollziehbaren Illustration der methodischen Anwendung und der Betonung der Anwendungs
- Published
- 2020
30. Graphing and measuring Covid's first wave impact on the Bolivian economy
- Author
-
Barja Daza, Gover
- Subjects
O54 ,Bolivia ,ARMA-GARCH models ,E37 ,Interrupted time series analysis ,ARCH-Modell ,Y10 ,Wirkungsanalyse ,Coronavirus ,Bolivien ,ddc:330 ,Zeitreihenanalyse ,Covid-19 ,C22 ,E32 - Abstract
The Bolivian monthly index of economic activity along with ARMA models are used in an attempt to graph and measure the impact of Covid's pandemic on the Bolivian economy. The accumulated difference between the observed and counterfactual values show an overall 12.6% loss of economic activity in the 10 months from February to November 2020 of the first Covid wave, with a tilted W-shape short-run recovery just before the beginning of the second wave in December 2020. Break[1]down into the twelve Bolivian economic sectors show wide heterogeneity in depth of impact and speeds of recovery during the same period.
- Published
- 2021
31. Enflasyon dinamiklerindeki değişim: Döviz kuru geçişkenliği güçleniyor mu?
- Author
-
Kara, Hakan and Sarıkaya, Çağrı
- Subjects
C51 ,ddc:330 ,Zeitreihenanalyse ,Türkei ,C32 ,Inflation ,Phillips-Kurve ,C22 ,E31 - Published
- 2021
32. COVID-19-Pandemie – Auswirkungen auf die Gewalt im sozialen Nahraum in Niederösterreich
- Author
-
Fellner, Hannes
- Subjects
Gewalt im sozialen Nahraum ,Gewalt in der Familie ,PartnerInnengewalt ,Niederösterreich ,Time series analysis ,Barring order ,Domestic violence ,Intimate partner violence ,COVID-19-bedingte Beschränkungen ,Betretungsverbot ,Risk factors ,Violence in the close social environment ,Lower Austria ,Restrictions due to COVID-19 ,(attempted) murder ,Zeitreihenanalyse ,(versuchter) Mord ,Risikofaktoren - Abstract
Diese Arbeit untersucht Auswirkungen auf die Gewalt im sozialen Nahraum in Niederösterreich im COVID-19-Pandemiejahr und erörtert, ob es aufgrund der gesetzlich angeordneten COVID-19-bedingten Beschränkungen zu einer Veränderung in Form und Häufigkeit der Gewalt im sozialen Nahraum gekommen ist. Grundlage der quantitativen Studie sind kriminalstatistische Daten, Aktenmaterial zu Mordfällen (inkl. Versuche) aus dem Bereich Gewalt im sozialen Nahraum, polizeilich ausgesprochene Betretungsverbote und Daten des Gewaltschutzzentrums Niederösterreich, die im Zuge der KlientInnen-Betreuung aufgenommen wurden. Um Veränderungen vor, während und nach den bislang drei Lockdowns erkennen zu können, wurden Daten des Zeitraums 1. Jänner 2010 bis 28. Februar 2021 herangezogen und insbesondere der Zeitraum der COVID-19-Pandemie, unterteilt in verschiedene Perioden, untersucht. Das Datenmaterial wurde deskriptiv und mittels Zeitreihenanalyse inferenzstatistisch ausgewertet. Weiterführende Analysen des Kreises der TäterInnen und der Opfer im Zusammenhang mit Risikofaktoren und Beziehungsverhältnissen wurden ebenfalls im Hinblick auf veränderte Muster und Trends durchgeführt. Die Ergebnisse zeigen, dass die Gewalt im sozialen Nahraum seit Jahren zunimmt und nicht nur langjährige Gewaltspiralen mit der Tötung der zumeist weiblichen (Ex-) Partnerin enden. Die Zeitreihenanalysen bestätigen die Hinweise aus der deskriptiven Auswertung, dass es durch die COVID-19-bedingten Ausgangsbeschränkungen zu einer Zunahme der Gewalt im sozialen Nahraum gekommen ist. Der überwiegende Anteil der Opfer von Gewalt im sozialen Nahraum waren Frauen im Alter von 22 bis 60 Jahren. Über ein Viertel der Mordopfer waren Personen über 60 Jahre. Im Gegensatz zu den Morddelikten war aus den Daten des GSZ NÖ ein überproportionaler Anteil an Nicht-ÖsterreicherInnen sowohl bei den TäterInnen als auch bei den KlientInnen festzustellen. Ebenso war während der COVID-19-Pandemie ein wesentlicher Anstieg der Gewalt gegen unmündige Minderjährige festzustellen. Bei Personen, welche mit minderjährigen Kindern im gleichen Haushalt lebten, wurde ebenfalls ein steigendes Risiko identifiziert, Gewaltopfer zu werden. Bei den TäterInnen stieg die psychiatrische Thematik vom Jahr 2019 auf 2020 besonders stark an und stellte gefolgt von Alkohol- und Suchtthematik einen wesentlichen Anteil bei den Risikofaktoren dar. TäterInnen, die während der KlientInnen-Betreuung durch das GSZ NÖ, auch gegen andere KlientInnen Gewalt ausübten, nahmen ebenfalls stark zu. Die Ergebnisse legen nahe, dass vor allem das Vorliegen von zwei oder mehr Risikofaktoren die Gefahr von Gewalt im sozialen Nahraum deutlich erhöht. Die rechtzeitige und zielgerichtete Erkennung von Risikofaktoren stellt in diesem sensiblen Bereich eines der wichtigsten Instrumente für die befassten Behörden und Institutionen dar. Der enge Informationsaustausch zwischen allen Einrichtungen bietet dazu viele Ansätze, ist aber vor allem aufgrund datenschutzrechtlicher Hindernisse limitiert. This paper studies the impact of violence in the close social environment in Lower Austria during the pandemic Covid-19 year and debates if there has been a change in type and occurrence in the social environment based on lawful ordered restrictions. In this quantitative study related to the field of violence in the close social environment, is criminal statistical data, file material of homicide cases (including attempts), barring orders as well as data from the center for protection against violence of Lower Austria which have been recorded in the course of clients care. Data from the period of 1st of January 2010 till 28th of February 2021 was used to analyze changes prior, during and after the three Covid-19 lockdowns. The file material has been descriptive interferential statistically evaluated by means of a time-series analysis. Continuative analysis of the group of offenders and victims, in correlation with risk factors and relationships, with the focus on changed patterns and trends, has been done. The results display that violence in the close social environment is increasing and will continue to do so, not just long-lasting spirals of violence which generally result in the killing of female (ex-) partners. The time series analyses confirm the indication from the descriptive analyses that the Covid-19 curfews led to an increase of violence in the close social environment. The main group of violence victims in the close social environment were females within the age of 22 to 60 years old. More than a quarter of murder victims were older than 60 years old. In contrast to the homicide cases, the data from the center for protection against violence of Lower Austria, show a disproportionate part of foreigners (non-Austrian citizens), offenders as well as clients. There was also a noticeable increase of violence against underage persons during the Corona-19 pandemic. Persons, who lived together with minors, were identified to become a victim of violence. Among offenders’ psychological issues rose extraordinarily and presented, followed by drug- and alcohol abuse, a crucial part of contributing violence factors. The number of offenders within the center for protection against violence, who showed violence, even towards other clients, rose drastically as well. Results show, that the presence of two or more risk factors, clearly increases the risk of violence in the social environment. A timely and specific recognition of risk factors provides, in this sensitive field, one of the most important means of prevention for the concerned authorities and institutions. The close data exchange among all institutions offers many prevention approaches although it is especially limited due to data protective laws. Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers Arbeit an der Bibliothek noch nicht eingelangt - Daten nicht geprüft Wien, FH Campus Wien, Masterarb., 2021
- Published
- 2021
33. Deep Learning Techniques for Time Series Forecasting
- Author
-
Kristan, Thomas
- Subjects
Deep Learning ,Wettervorhersage ,Time Series Forecasting ,Recurrent Neural Network ,Zeitreihenanalyse ,Convolutional Neural Network ,Time Series Analysis ,Zeitreihenprognose - Abstract
Zeitreihenanalysen und -prognosen spielen in vielen wissenschaftlichen Bereichen wie Medizin, Natur- und Sozialwissenschaften eine essenzielle Rolle. Konventionelle numerische Ansätze sind jedoch oft nicht in der Lage, komplexe Korrelationen innerhalb der Daten zu finden, benötigen leistungsfähige Computer und sind häufig nicht für große Datenmengen geeignet. Wissenschaftler sind daher ständig auf der Suche nach präziseren und leistungsfähigeren Methoden zur Analyse von Zeitreihen. In diesem Zusammenhang bietet Deep Learning heutzutage einen der vielversprechendsten Ansätze. Ziel dieser Bachelorarbeit ist es daher, die zwei gängigsten Deep-Learning-Modelle in Bezug auf Zeitreihenprognose gegenüberzustellen. Um zu verstehen, wie Zeitreihenprognose im Allgemeinen funktioniert, wurden zunächst die wichtigsten Komponenten einer Zeitreihe detailliert aufgeführt. Anschließend wurden die Kernkonzepte des Deep Learnings erläutert, um die notwendigen Grundlagen für das Verständnis der Funktionsweise der beiden Modelle 1D Convolutional Neural Networks (1D-CNN) und Recurrent Neural Networks (RNN) zu schaffen. Um die Leistungsfähigkeit dieser beiden Deep-Learning-Techniken zu veranschaulichen, wurden sie implementiert, trainiert und mit einem Wetter-Datensatz getestet. Beide Modelle generierten bemerkenswert genaue Wettervorhersagen. Obwohl RNNs für die Arbeit mit Zeitreihen prädestiniert sind, war ihre Laufzeit deutlich länger als die des 1D-CNNs. Außerdem erzielten beide Modelle ähnlich gute Ergebnisse, was darauf hindeutet, dass für diesen speziellen Anwendungsfall die Implementierung eines 1D-CNNs ausreichend ist. Außerdem war auffällig, dass die Vorhersagen umso fehlerhafter wurden, je weiter die Prognosen in der Zukunft lagen. Time series analysis and forecasting play an essential role in many scientific fields such as medical, agricultural, natural, and social studies. However, conventional numerical approaches often lack the ability to find complex correlations within the data, require powerful computers, and are not suitable for handling huge amounts of data. Thus, scientists are constantly searching for more precise and powerful methods to analyze time series. In this context, deep learning offers one of the most promising approaches nowadays. Hence, the aim of this bachelor thesis is to juxtapose the two most common types of deep neural networks with regard to time series forecasting. To understand how time series forecasting works in general, first, the key components of a time series were listed in detail. Subsequently, the core concepts of deep learning were explained to provide the required fundamentals for understanding the operating principles of the two models 1D convolutional neural networks (1D CNN) and recurrent neural networks (RNN). To illustrate the power of these two deep learning techniques, they have been implemented, trained, and tested with a weather dataset. Both models generated remarkably accurate weather forecasts. Even though RNNs are predestined for working with time series, its runtime was significantly longer than the one of the 1D CNN. Furthermore, both models achieved similarly good results which indicates that for this specific use case the implementation of a 1D CNN is sufficient. Moreover, it was also noticeable that the predictions became more erroneous the further the forecasts were in the future. Thomas Kristan Abweichender Titel laut Übersetzung der Verfasserin/des Verfassers Bachelorarbeit Graz, Fachhochschule Joanneum 2021
- Published
- 2021
34. Automatisierte hybride Zeitreihenprognose: Design, Benchmarking und Anwendungsfälle
- Author
-
Bauer, André
- Subjects
Skalierbarkeit ,ddc:000 ,Prognose ,Zeitreihenanalyse ,Cloud Computing - Abstract
These days, we are living in a digitalized world. Both our professional and private lives are pervaded by various IT services, which are typically operated using distributed computing systems (e.g., cloud environments). Due to the high level of digitalization, the operators of such systems are confronted with fast-paced and changing requirements. In particular, cloud environments have to cope with load fluctuations and respective rapid and unexpected changes in the computing resource demands. To face this challenge, so-called auto-scalers, such as the threshold-based mechanism in Amazon Web Services EC2, can be employed to enable elastic scaling of the computing resources. However, despite this opportunity, business-critical applications are still run with highly overprovisioned resources to guarantee a stable and reliable service operation. This strategy is pursued due to the lack of trust in auto-scalers and the concern that inaccurate or delayed adaptations may result in financial losses. To adapt the resource capacity in time, the future resource demands must be "foreseen", as reacting to changes once they are observed introduces an inherent delay. In other words, accurate forecasting methods are required to adapt systems proactively. A powerful approach in this context is time series forecasting, which is also applied in many other domains. The core idea is to examine past values and predict how these values will evolve as time progresses. According to the "No-Free-Lunch Theorem", there is no algorithm that performs best for all scenarios. Therefore, selecting a suitable forecasting method for a given use case is a crucial task. Simply put, each method has its benefits and drawbacks, depending on the specific use case. The choice of the forecasting method is usually based on expert knowledge, which cannot be fully automated, or on trial-and-error. In both cases, this is expensive and prone to error. Although auto-scaling and time series forecasting are established research fields, existing approaches cannot fully address the mentioned challenges: (i) In our survey on time series forecasting, we found that publications on time series forecasting typically consider only a small set of (mostly related) methods and evaluate their performance on a small number of time series with only a few error measures while providing no information on the execution time of the studied methods. Therefore, such articles cannot be used to guide the choice of an appropriate method for a particular use case; (ii) Existing open-source hybrid forecasting methods that take advantage of at least two methods to tackle the "No-Free-Lunch Theorem" are computationally intensive, poorly automated, designed for a particular data set, or they lack a predictable time-to-result. Methods exhibiting a high variance in the time-to-result cannot be applied for time-critical scenarios (e.g., auto-scaling), while methods tailored to a specific data set introduce restrictions on the possible use cases (e.g., forecasting only annual time series); (iii) Auto-scalers typically scale an application either proactively or reactively. Even though some hybrid auto-scalers exist, they lack sophisticated solutions to combine reactive and proactive scaling. For instance, resources are only released proactively while resource allocation is entirely done in a reactive manner (inherently delayed); (iv) The majority of existing mechanisms do not take the provider's pricing scheme into account while scaling an application in a public cloud environment, which often results in excessive charged costs. Even though some cost-aware auto-scalers have been proposed, they only consider the current resource demands, neglecting their development over time. For example, resources are often shut down prematurely, even though they might be required again soon. To address the mentioned challenges and the shortcomings of existing work, this thesis presents three contributions: (i) The first contribution-a forecasting benchmark-addresses the problem of limited comparability between existing forecasting methods; (ii) The second contribution-Telescope-provides an automated hybrid time series forecasting method addressing the challenge posed by the "No-Free-Lunch Theorem"; (iii) The third contribution-Chamulteon-provides a novel hybrid auto-scaler for coordinated scaling of applications comprising multiple services, leveraging Telescope to forecast the workload intensity as a basis for proactive resource provisioning. In the following, the three contributions of the thesis are summarized: Contribution I - Forecasting Benchmark To establish a level playing field for evaluating the performance of forecasting methods in a broad setting, we propose a novel benchmark that automatically evaluates and ranks forecasting methods based on their performance in a diverse set of evaluation scenarios. The benchmark comprises four different use cases, each covering 100 heterogeneous time series taken from different domains. The data set was assembled from publicly available time series and was designed to exhibit much higher diversity than existing forecasting competitions. Besides proposing a new data set, we introduce two new measures that describe different aspects of a forecast. We applied the developed benchmark to evaluate Telescope. Contribution II - Telescope To provide a generic forecasting method, we introduce a novel machine learning-based forecasting approach that automatically retrieves relevant information from a given time series. More precisely, Telescope automatically extracts intrinsic time series features and then decomposes the time series into components, building a forecasting model for each of them. Each component is forecast by applying a different method and then the final forecast is assembled from the forecast components by employing a regression-based machine learning algorithm. In more than 1300 hours of experiments benchmarking 15 competing methods (including approaches from Uber and Facebook) on 400 time series, Telescope outperformed all methods, exhibiting the best forecast accuracy coupled with a low and reliable time-to-result. Compared to the competing methods that exhibited, on average, a forecast error (more precisely, the symmetric mean absolute forecast error) of 29%, Telescope exhibited an error of 20% while being 2556 times faster. In particular, the methods from Uber and Facebook exhibited an error of 48% and 36%, and were 7334 and 19 times slower than Telescope, respectively. Contribution III - Chamulteon To enable reliable auto-scaling, we present a hybrid auto-scaler that combines proactive and reactive techniques to scale distributed cloud applications comprising multiple services in a coordinated and cost-effective manner. More precisely, proactive adaptations are planned based on forecasts of Telescope, while reactive adaptations are triggered based on actual observations of the monitored load intensity. To solve occurring conflicts between reactive and proactive adaptations, a complex conflict resolution algorithm is implemented. Moreover, when deployed in public cloud environments, Chamulteon reviews adaptations with respect to the cloud provider's pricing scheme in order to minimize the charged costs. In more than 400 hours of experiments evaluating five competing auto-scaling mechanisms in scenarios covering five different workloads, four different applications, and three different cloud environments, Chamulteon exhibited the best auto-scaling performance and reliability while at the same time reducing the charged costs. The competing methods provided insufficient resources for (on average) 31% of the experimental time; in contrast, Chamulteon cut this time to 8% and the SLO (service level objective) violations from 18% to 6% while using up to 15% less resources and reducing the charged costs by up to 45%. The contributions of this thesis can be seen as major milestones in the domain of time series forecasting and cloud resource management. (i) This thesis is the first to present a forecasting benchmark that covers a variety of different domains with a high diversity between the analyzed time series. Based on the provided data set and the automatic evaluation procedure, the proposed benchmark contributes to enhance the comparability of forecasting methods. The benchmarking results for different forecasting methods enable the selection of the most appropriate forecasting method for a given use case. (ii) Telescope provides the first generic and fully automated time series forecasting approach that delivers both accurate and reliable forecasts while making no assumptions about the analyzed time series. Hence, it eliminates the need for expensive, time-consuming, and error-prone procedures, such as trial-and-error searches or consulting an expert. This opens up new possibilities especially in time-critical scenarios, where Telescope can provide accurate forecasts with a short and reliable time-to-result. Although Telescope was applied for this thesis in the field of cloud computing, there is absolutely no limitation regarding the applicability of Telescope in other domains, as demonstrated in the evaluation. Moreover, Telescope, which was made available on GitHub, is already used in a number of interdisciplinary data science projects, for instance, predictive maintenance in an Industry 4.0 context, heart failure prediction in medicine, or as a component of predictive models of beehive development. (iii) In the context of cloud resource management, Chamulteon is a major milestone for increasing the trust in cloud auto-scalers. The complex resolution algorithm enables reliable and accurate scaling behavior that reduces losses caused by excessive resource allocation or SLO violations. In other words, Chamulteon provides reliable online adaptations minimizing charged costs while at the same time maximizing user experience., Heutzutage leben wir in einer digitalisierten Welt. Sowohl unser berufliches als auch unser privates Leben ist von verschiedenen IT-Diensten durchzogen, welche typischerweise in verteilten Computersystemen (z.B. Cloud-Umgebungen) betrieben werden. Die Betreiber solcher Systeme sind aufgrund des hohen Digitalisierungsgrades mit schnellen und wechselnden Anforderungen konfrontiert. Insbesondere Cloud-Umgebungen unterliegen starken Lastschwankungen und entsprechenden schnellen und unerwarteten Änderungen des Bedarfs an Rechenressourcen. Um dieser Herausforderung zu begegnen, können so genannte Auto-Scaler, wie z.B. der schwellenwertbasierte Mechanismus von Amazon Web Services EC2, eingesetzt werden, um eine elastische Skalierung der Rechenressourcen zu ermöglichen. Doch trotz dieser Gelegenheit werden geschäftskritische Anwendungen nach wie vor mit deutlich überdimensionierten Rechenkapazitäten betrieben, um einen stabilen und zuverlässigen Dienstbetrieb zu gewährleisten. Diese Strategie wird aufgrund des mangelnden Vertrauens in Auto-Scaler und der Sorge verfolgt, dass ungenaue oder verzögerte Anpassungen zu finanziellen Verlusten führen könnten. Um die Ressourcenkapazität rechtzeitig anpassen zu können, müssen die zukünftigen Ressourcenanforderungen "vorhergesehen" werden. Denn die Reaktion auf Veränderungen, sobald diese beobachtet werden, führt zu einer inhärenten Verzögerung. Mit anderen Worten, es sind genaue Prognosemethoden erforderlich, um Systeme proaktiv anzupassen. Ein wirksamer Ansatz in diesem Zusammenhang ist die Zeitreihenprognose, welche auch in vielen anderen Bereichen angewandt wird. Die Kernidee besteht darin, vergangene Werte zu untersuchen und vorherzusagen, wie sich diese Werte im Laufe der Zeit entwickeln werden. Nach dem "No-Free-Lunch Theorem" gibt es keinen Algorithmus, der für alle Szenarien am besten funktioniert. Daher ist die Auswahl einer geeigneten Prognosemethode für einen gegebenen Anwendungsfall eine wesentliche Herausforderung. Denn jede Methode hat - abhängig vom spezifischen Anwendungsfall - ihre Vor- und Nachteile. Deshalb basiert üblicherweise die Wahl der Prognosemethode auf Trial-and-Error oder auf Expertenwissen, welches nicht vollständig automatisiert werden kann. Beide Ansätze sind teuer und fehleranfällig. Obwohl Auto-Skalierung und Zeitreihenprognose etablierte Forschungsgebiete sind, können die bestehenden Ansätze die genannten Herausforderungen nicht vollständig bewältigen: (i) Bei unserer Untersuchung zur Zeitreihenvorhersage stellten wir fest, dass die meisten der überprüften Artikel nur eine geringe Anzahl von (meist verwandten) Methoden berücksichtigen und ihre Performanz auf einem kleinen Datensatz von Zeitreihen mit nur wenigen Fehlermaßen bewerten, während sie keine Informationen über die Ausführungszeit der untersuchten Methoden liefern. Daher können solche Artikel nicht als Hilfe für die Wahl einer geeigneten Methode für einen bestimmten Anwendungsfall herangezogen werden; (ii) Bestehende hybride open-source Prognosemethoden, die sich mindestens zwei Methoden zunutze machen, um das "No-Free-Lunch Theorem" anzugehen, sind rechenintensiv, schlecht automatisiert, für einen bestimmten Datensatz ausgelegt oder haben eine unvorhersehbare Laufzeit. Methoden, die eine hohe Varianz in der Ausführungszeit aufweisen, können nicht für zeitkritische Szenarien angewendet werden (z.B. Autoskalierung), während Methoden, die auf einen bestimmten Datensatz zugeschnitten sind, Einschränkungen für mögliche Anwendungsfälle mit sich bringen (z.B. nur jährliche Zeitreihen vorhersagen); (iii) Auto-Scaler skalieren typischerweise eine Anwendung entweder proaktiv oder reaktiv. Obwohl es einige hybride Auto-Scaler gibt, fehlt es ihnen an ausgeklügelten Lösungen zur Kombination von reaktiver und proaktiver Skalierung. Beispielsweise werden Ressourcen nur proaktiv freigesetzt, während die Ressourcenzuweisung vollständig reaktiv (inhärent verzögert) erfolgt; (iv) Die Mehrheit der vorhandenen Mechanismen berücksichtigt bei der Skalierung einer Anwendung in einer öffentlichen Cloud-Umgebung nicht das Preismodell des Anbieters, was häufig zu überhöhten Kosten führt. Auch wenn einige kosteneffiziente Auto-Scaler vorgeschlagen wurden, berücksichtigen sie nur den aktuellen Ressourcenbedarf und vernachlässigen ihre Entwicklung im Laufe der Zeit. Beispielsweise werden Ressourcen oft vorzeitig abgeschaltet, obwohl sie vielleicht bald wieder benötigt werden. Um den genannten Herausforderungen und den Defiziten der bisherigen Arbeiten zu begegnen, werden in dieser Arbeit drei Beiträge vorgestellt: (i) Der erste Beitrag - ein Prognosebenchmark - behandelt das Problem der begrenzten Vergleichbarkeit zwischen bestehenden Prognosemethoden; (ii) Der zweite Beitrag stellt eine automatisierte hybride Zeitreihen-Prognosemethode namens Telescope vor, die sich der Herausforderung des "No-Free-Lunch Theorem" stellt; (iii) Der dritte Beitrag stellt Chamulteon, einen neuartigen hybriden Auto-Scaler für die koordinierte Skalierung von Anwendungen mit mehreren Diensten, bereit, der Telescope zur Vorhersage der Lastintensität als Grundlage für eine proaktive Ressourcenbereitstellung nutzt. Im Folgenden werden die drei Beiträge der Arbeit zusammengefasst: Beitrag I - Prognosebenchmark Um gleiche Ausgangsbedingungen für die Bewertung von Prognosemethoden anhand eines breiten Spektrums zu schaffen, schlagen wir einen neuartigen Benchmark vor, der Prognosemethoden auf der Grundlage ihrer Performanz in einer Vielzahl von Szenarien automatisch bewertet und ein Ranking erstellt. Der Benchmark umfasst vier verschiedene Anwendungsfälle, die jeweils 100 heterogene Zeitreihen aus verschiedenen Bereichen abdecken. Der Datensatz wurde aus öffentlich zugänglichen Zeitreihen zusammengestellt und so konzipiert, dass er eine viel höhere Diversität aufweist als bestehende Prognosewettbewerbe. Neben dem neuen Datensatz führen wir zwei neue Maße ein, die verschiedene Aspekte einer Prognose beschreiben. Wir haben den entwickelten Benchmark zur Bewertung von Telescope angewandt. Beitrag II - Telescope Um eine generische Prognosemethode bereitzustellen, stellen wir einen neuartigen, auf maschinellem Lernen basierenden Prognoseansatz vor, der automatisch relevante Informationen aus einer gegebenen Zeitreihe extrahiert. Genauer gesagt, Telescope extrahiert automatisch intrinsische Zeitreihenmerkmale und zerlegt die Zeitreihe dann in Komponenten, wobei für jede dieser Komponenten ein Prognosemodell erstellt wird. Jede Komponente wird mit einer anderen Methode prognostiziert und dann wird die endgültige Prognose aus den vorhergesagten Komponenten unter Verwendung eines regressionsbasierten Algorithmus des maschinellen Lernens zusammengestellt. In mehr als 1300 Experiment-Stunden, in denen 15 konkurrierende Methoden (einschließlich Ansätze von Uber und Facebook) auf 400 Zeitreihen verglichen wurden, übertraf Telescope alle Methoden und zeigte die beste Prognosegenauigkeit in Verbindung mit einer niedrigen und zuverlässigen Ausführungszeit. Im Vergleich zu den konkurrierenden Methoden, die im Durchschnitt einen Prognosefehler (genauer gesagt, den symmetric mean absolute forecast error) von 29% aufwiesen, wies Telescope einen Fehler von 20% auf und war dabei 2556 mal schneller. Insbesondere die Methoden von Uber und Facebook wiesen einen Fehler von 48% bzw. 36% auf und waren 7334 bzw. 19 mal langsamer als Telescope. Beitrag III - Chamulteon Um eine zuverlässige Auto-Skalierung zu ermöglichen, stellen wir einen hybriden Auto-Scaler vor, der proaktive und reaktive Techniken kombiniert, um verteilte Cloud-Anwendungen, die mehrere Dienste umfassen, koordiniert und kostengünstig zu skalieren. Genauer gesagt, werden proaktive Anpassungen auf der Grundlage von Prognosen von Telescope geplant, während reaktive Anpassungen auf der Grundlage tatsächlicher Beobachtungen der überwachten Lastintensität ausgelöst werden. Um auftretende Konflikte zwischen reaktiven und proaktiven Anpassungen zu lösen, wird ein komplexer Konfliktlösungsalgorithmus implementiert. Außerdem überprüft Chamulteon Anpassungen im Hinblick auf das Preismodell des Cloud-Anbieters, um die anfallenden Kosten in öffentlichen Cloud-Umgebungen zu minimieren. In mehr als 400 Experiment-Stunden, in denen fünf konkurrierende Auto-Skalierungsmechanismen unter fünf verschiedene Arbeitslasten, vier verschiedene Anwendungen und drei verschiedene Cloud-Umgebungen evaluiert wurden, zeigte Chamulteon die beste Auto-Skalierungsleistung und Zuverlässigkeit bei gleichzeitiger Reduzierung der berechneten Kosten. Die konkurrierenden Methoden lieferten während (durchschnittlich) 31% der Versuchszeit zu wenige Ressourcen. Im Gegensatz dazu reduzierte Chamulteon diese Zeit auf 8% und die SLO-Verletzungen (Service Level Objectives) von 18% auf 6%, während es bis zu 15% weniger Ressourcen verwendete und die berechneten Kosten um bis zu 45% senkte. Die Beiträge dieser Arbeit können als wichtige Meilensteine auf dem Gebiet der Zeitreihenprognose und der automatischen Skalierung in Cloud Computing angesehen werden. (i) In dieser Arbeit wird zum ersten Mal ein Prognosebenchmark präsentiert, der eine Vielzahl verschiedener Bereiche mit einer hohen Diversität zwischen den analysierten Zeitreihen abdeckt. Auf der Grundlage des zur Verfügung gestellten Datensatzes und des automatischen Auswertungsverfahrens trägt der vorgeschlagene Benchmark dazu bei, die Vergleichbarkeit von Prognosemethoden zu verbessern. Die Benchmarking-Ergebnisse von verschiedenen Prognosemethoden ermöglichen die Auswahl der am besten geeigneten Prognosemethode für einen gegebenen Anwendungsfall. (ii) Telescope bietet den ersten generischen und vollautomatischen Zeitreihen-Prognoseansatz, der sowohl genaue als auch zuverlässige Prognosen liefert, ohne Annahmen über die analysierte Zeitreihe zu treffen. Dementsprechend macht es teure, zeitaufwändige und fehleranfällige Verfahren überflüssig, wie z.B. Trial-and-Error oder das Hinzuziehen eines Experten. Dies eröffnet neue Möglichkeiten, insbesondere in zeitkritischen Szenarien, in denen Telescope genaue Vorhersagen mit einer kurzen und zuverlässigen Antwortzeit liefern kann. Obwohl Telescope für diese Arbeit im Bereich des Cloud Computing eingesetzt wurde, gibt es, wie die Auswertung zeigt, keinerlei Einschränkungen hinsichtlich der Anwendbarkeit von Telescope in anderen Bereichen. Darüber hinaus wird Telescope, das auf GitHub zur Verfügung gestellt wurde, bereits in einer Reihe von interdisziplinären datenwissenschaftlichen Projekten eingesetzt, z.B. bei der vorausschauenden Wartung im Rahmen von Industry 4.0, bei der Vorhersage von Herzinsuffizienz in der Medizin oder als Bestandteil von Vorhersagemodellen für die Entwicklung von Bienenstöcken. (iii) Im Kontext der elastischen Ressourcenverwaltung ist Chamulteon ein wichtiger Meilenstein für die Stärkung des Vertrauens in Auto-Scaler. Der komplexe Konfliktlösungsalgorithmus ermöglicht ein zuverlässiges und genaues Skalierungsverhalten, das Verluste durch übermäßige Ressourcenzuweisung oder SLO-Verletzungen reduziert. Mit anderen Worten, Chamulteon bietet zuverlässige Ressourcenanpassungen, die die berechneten Kosten minimieren und gleichzeitig die Benutzerzufriedenheit maximieren.
- Published
- 2021
- Full Text
- View/download PDF
35. New aspects of sequential change point detection
- Author
-
Gösmann, Josua Nicolas
- Subjects
Statistischer Test ,Strukturbruch ,510 Mathematik ,Zeitreihenanalyse ,ddc:510 ,Zeitreihe ,Sequentialanalyse - Abstract
Die vorliegende Arbeit behandelt die sequentielle Erkennung von Strukturbrüchen in Zeitreihen. Dazu werden Methoden betrachtet, die durch einen stabilen, initialen Datensatz kalibriert werden und so den Fehler erster Art asymptotisch über den gesamten Testzeitraum kontrollieren. Nach der Einleitung in das Fachgebiet wird zunächst ein Verfahren entwickelt, das auf einer Trennung der Daten zu jedem möglichen Bruchzeitpunkt basiert und bei dem optional eine Schätzung der Varianz durch eine Selbstnormalisierung vermieden werden kann. Das erste Verfahren wird dann modifiziert, um damit auch das Szenario eines unbegrenzten Testzeitraums behandeln zu können. Abschließend wird eine hochdimensionale Methode entwickelt, bei der die Dimension der Daten in Abhängigkeit der Länge des stabilen Datensatzes wachsen darf. Die Eigenschaften der entwickelten Verfahren werden zusätzlich anhand von Simulationsstudien untersucht und mögliche Anwendungen anhand von Datenbeispielen illustriert.
- Published
- 2020
36. Long range dependence for stable random processes
- Author
-
Marco Oesting, Evgeny Spodarev, Albert Rapp, and Vitalii Makogin
- Subjects
Statistics and Probability ,alpha‐stable ,short memory ,short range dependence ,Characteristic function (probability theory) ,Gaussian processes ,max-stable ,01 natural sciences ,60G10, 60G52, 60G70 ,moving average ,Markov-Prozess ,Stochastischer Prozess ,010104 statistics & probability ,characteristic function ,Stochastic processes ,Moving average ,Time-series analysis ,0502 economics and business ,Range (statistics) ,FOS: Mathematics ,Statistical physics ,0101 mathematics ,ddc:510 ,extremal Gaussian process ,050205 econometrics ,Mathematics ,Brown-Resnick process ,ddc:519 ,positive association ,Stochastic process ,Applied Mathematics ,max‐stable ,05 social sciences ,Probability (math.PR) ,Brown‐Resnick process ,Function (mathematics) ,Covariance ,long/short memory ,long/short range dependence ,Kernel (statistics) ,alpha-stable ,DDC 510 / Mathematics ,Zeitreihenanalyse ,Statistics, Probability and Uncertainty ,Marginal distribution ,extremal coefficient ,Mathematics - Probability ,level set - Abstract
We investigate long and short memory in α‐stable moving averages and max‐stable processes with α‐Fréchet marginal distributions. As these processes are heavy‐tailed, we rely on the notion of long range dependence based on the covariance of indicators of excursion sets. Sufficient conditions for the long and short range dependence of α‐stable moving averages are proven in terms of integrability of the corresponding kernel functions. For max‐stable processes, the extremal coefficient function is used to state a necessary and sufficient condition for long range dependence., publishedVersion
- Published
- 2020
37. Classification and repeatability studies of transient electromagnetic measurements with respect to the development of CO2-monitoring techniques
- Author
-
Bär, Matthias, Spitzer, Klaus, Schaeben, Helmut, Tezkan, Bülent, and Technische Universität Bergakademie Freiberg
- Subjects
Speicher ,Endlagerung ,Tharandter Wald ,Statistische Analyse ,Unterirdische Lagerung ,%22">Medicine Hat ,Speichergestein ,Transient Elektromagnetik, CO2-Sequestration, Zeitreihenanalyse, Zeitreihenmodelle, Monitoring ,Carbon dioxide capture and storage ,ddc:550 ,transient electromagnetics, CO2-sequestration, time series analysis, time series models, monitoring ,Zeitreihe ,Umweltüberwachung ,Mathematisches Modell ,Erdgasfeld ,Kohlendioxid ,%22">Alberta ,Transienten-Elektromagnetik ,Langzeitverhalten ,Gasspeicherung ,Datenauswertung ,Sequestrierung ,Zustandsüberwachung ,Folgenutzung ,Langzeitversuch ,Zeitreihenanalyse ,Erdgaslagerstätte - Abstract
The mitigation of greenhouse gases, like CO2 is a challenging aspect for our society. A strategy to hamper the constant emission of CO2 is utilizing carbon capture and storage technologies. CO2 is sequestrated in subsurface reservoirs. However, these reservoirs harbor the risk of leakage and appropriate geophysical monitoring methods are needed. A crucial aspect of monitoring is the assignment of measured data to certain events occurring. Especially if changes in the measured data are small, suitable statistical methods are needed. In this thesis, a new statistical workflow based on cluster analysis is proposed to detect similar transient electromagnetic signals. The similarity criteria dynamic time warping, the autoregressive distance, and the normalized root-mean-square distance are investigated and evaluated with respect to the classic Euclidean norm. The optimal number of clusters is determined using the gap statistic and visualized with multidimensional scaling. To validate the clustering results, silhouette values are used. The statistical workflow is applied to a synthetic data set, a long-term monitoring data set and a repeat measurement at a pilot CO2-sequestration site in Brooks, Alberta.
- Published
- 2020
38. High-dimensional time series under long-range dependence and nonstationarity
- Author
-
Düker, Marie-Christine
- Subjects
Abhängigkeit ,Grenzwertsatz ,510 Mathematik ,Zeitreihenanalyse ,Matrix (Mathematik) ,ddc:510 ,Dimension - Abstract
This thesis is concerned with high-dimensional time series in the context of long-range dependence and nonstationarity. The first two parts concern the phenomenon of long-range dependence which can be characterized in the time domain as well as in the spectral domain. In the time domain, the temporal correlation decays power-like. Certain representations as a linear process can model such a behavior. The focus here is on deriving (functional) limit theorems for the sample mean and the sample autocovariances for vector-valued and Hilbert-space valued linear processes. In the spectral domain, the local Whittle estimator is studied with a special focus on a potential sparsity structure of the long-run variance and the precision matrix. The third part of this thesis pays attention to possibly nonstationary multivariate time series determined by a vector of deterministic functions and seeks for the number of linearly independent linear combinations which lead to stationarity over time., Die vorliegende Arbeit beschäftigt sich mit hochdimensionalen Zeitreihen unter Langzeitabhängigkeit und Nichtstationarität. Langzeitabhängigkeit kann sowohl im Zeit- also auch im Spektralbereich charakterisiert werden. Im Zeitbereich ist eine Möglichkeit Langzeitabhängigkeit zu modellieren eine Darstellung als linearer Prozess. Ein Teil der Arbeit befasst sich damit (funktionale) Grenzwertsätze für den empirischen Mittelwert und die empirischen Autokovarianzen von vektor- und Hilbertraum-wertigen linearen Prozessen unter Langzeitabhängigkeit herzuleiten. Im Spektralbereich wird der sog. "local Whittle"-Schätzer betrachtet. Es werden asymptotische Resultate für die Schätzer der "long-run variance" und der "precision" Matrix unter Berücksichtigung einer möglichen "sparsity"-Struktur hergeleitet. Der letzte Teil der Arbeit befasst sich mit nichtstationären, multivariaten Zeitreihen und der Suche nach Linearkombinationen der zugrundeliegenden Zeitreihe, die zu Stationarität führen.
- Published
- 2020
39. Time series analyses with psychometric data
- Author
-
Stadnitski, Tatjana
- Subjects
Computer and Information Sciences ,Statistical methods ,Psychometrics ,Science ,Emotions ,Social Sciences ,Systems Science ,ddc:150 ,Time-series analysis ,Psychology ,Humans ,Longitudinal Studies ,Assessments ,Time Series Analysis ,DDC 150 / Psychology ,Models, Statistical ,Cointegration ,Simulation and Modeling ,Statistics ,Biology and Life Sciences ,Dynamical Systems ,Research and analysis methods ,Monte Carlo method ,Physical sciences ,White Noise ,Research Design ,Data Interpretation, Statistical ,Signal Processing ,Medicine ,Mathematical and statistical techniques ,Engineering and Technology ,Zeitreihenanalyse ,Psychometrie ,Mathematics ,Research Article - Abstract
Understanding of interactional dynamics between several processes is one of the most important challenges in psychology and psychosomatic medicine. Researchers exploring behavior or other psychological phenomena mostly deal with ordinal or interval data. Missing values and consequential non-equidistant measurements represent a general problem of longitudinal studies from this field. The majority of process-oriented methodologies was originally designed for equidistant data measured on ratio scales. Therefore, the goal of this article is to clarify the conditions for satisfactory performance of longitudinal methods with data typical in psychological and psychosomatic research. This study examines the performance of the Johansen test, a procedure incorporating a set of sophisticated time series techniques, in reference to data quality utilizing a Monte Carlo method. The main results of the conducted simulation studies are: (1) Time series analyses require samples of at least 70 observations for an accurate estimation and inference. (2) Discrete data and failing equidistance of measurements due to irregular missing values appear unproblematic. (3) Relevant characteristics of stationary processes can be adequately captured using 5- or 7-point ordinal scales. (4) For trending processes, at least 10-point scales are necessary to ensure an acceptable quality of estimation and inference., publishedVersion
- Published
- 2020
40. Macroeconomic effects of technological innovations
- Author
-
Rujin, Svetlana (M. Sc.)
- Subjects
Empirische Wirtschaftsforschung ,ddc:330 ,Technischer Fortschritt ,Zeitreihenanalyse ,Produktivität ,Makroökonomie - Abstract
Zahlreiche ökonomische Analysen verweisen auf die enorme Bedeutung von technologischen Innovationen für das Wachstum einer Volkswirtschaft. Insbesondere Unterschiede im Wachstum der Arbeitsproduktivität könnten dabei einen Großteil der Einkommensunterschiede zwischen Volkswirtschaften erklären. Dementsprechend steht eine international vergleichende Analyse der makroökonomischen Wirkungen von technologischen Innovationen im Zentrum dieser Dissertation und insbesondere: (i) die Auswirkungen technologischer Impulse auf den Arbeitsmarkt und Analyse der Bedeutung unterschiedlicher institutioneller Arrangements für diese Anpassungen; (ii) die Bedeutung der Impulse des technologischen Anführers für die anderen Volkswirtschaften und Implikationen der unterschiedlichen institutionellen Arrangements; (iii) ob eine Verbesserung der Wachstumsaussichten (abgeleitet aus den antizipierten Veränderungen der Technologie) zum Abbau des Leistungsbilanzüberschusses in entwickelten Volkswirtschaften führt.
- Published
- 2020
41. Die Vernetzung Wiens mit den Städten Europas
- Author
-
Zenz, David
- Subjects
Big Data ,Politik ,M30 ,Search Engine Queries ,Google Trends ,Z30 ,R00 ,C82 ,Policy ,Z10 ,C80 ,ddc:330 ,Zeitreihenanalyse ,C49 ,Time Series Analysis ,C87 ,C88 ,Suchanfragen - Abstract
Wir stellen ein Maß für die Beziehung zwischen zwei Städten/Regionen basierend auf Suchanfragen vor, ausgehend von Merkmalen der Suchanfragen-Zeitreihen nach Zerlegung der Zeitreihe mittels STL (Komponentenzerlegung mittels lokaler linearer Kernregression). Grundlage für das Maß sind einerseits die Eigenschaft 'Trendstärke', welches die Stärke des zugrundeliegenden Trends (egal ob steigend oder fallend) der Zeitreihe beschreibt, sowie das Feature 'linearity' der letzten fünf Jahre, welches uns die Richtung des Trends gibt. Die Kombination aus diesen Features der beiden Richtungen der Suchanfragen gibt uns ein Maß, welches für die Analyse der Entwicklung des vorgestellten Beziehungsmaßes über den Beobachtungszeitraum 2004-2020 in unterschiedlichen Suchkategorien zwischen zwei Städte/Regionen verwendet werden kann. Wir präsentieren Beispiele basierend auf Wien als point-of-interest im Kontext 'Wien und die Städte Europas', und schlagen ein Dashboard mit den verwendeten Indikatoren für Politik-Entscheidungen vor. We introduce a measure of linkage for the relationship between cities/regions, based on time series features of search engine queries. The used features are backed by time series decomposition using STL, i.e. seasonal and trend decomposition using Loess, precisely the strength of the trend and the linearity of a time series. The combination of these two features for both sides of search interest, e.g. the search interest for a certain topic in the city of Berlin based on search queries posed in Vienna, allows for the analysis of the development of this computed measure of linkage for the period 2004-2020 in various search engine categories provided by Google Trends between cities/regions in Europe. We then present examples based on the city of Vienna as a point-of-interest for selected topics and propose a dashboard for policy decisions.
- Published
- 2020
42. Smoothing time fixed effects
- Author
-
Gösser, Niklas and Moshgbar, Nima
- Subjects
Zeit ,ddc:330 ,Zeitreihenanalyse ,Systematischer Fehler - Abstract
Controlling for time fixed effects in analyses on longitudinal data by means of timedummy variables has long been a standard tool in every applied econometrician's toolbox. In order to obtain unbiased estimates, time fixed effects are typically put forward to control for macroeconomic shocks and are (almost) automatically implemented when longitudinal data are analyzed. The applied econometrician's toolbox contains however no standard method to control for time fixed effects when time-dummy variables are not applicable. A number of empirical applications are crucially concerned with both suffering from bias due to omitting time and time-dummies being inapplicable. This paper introduces a simple and readily available parametric approach to approximate time fixed effects in case time dummy variables are not applicable. Applying Monte Carlo simulations, we show that under certain regulatory conditions, trend polynomials (smoothing time fixed effects) yield consistent estimates by controlling for time fixed effects, also in cases time-dummy variables are inapplicable. As the introduced approach implies testing nested hypotheses, a standard testing procedure enables the identification of the order of the trend polynomial. Applications that may considerably suffer from bias in case time fixed effects are neglected are among others cartel overcharge estimations, merger and regulation analyses and analyses of economic and financial crises. These applications typically divide time into event and control periods, such that standard time dummies may not be applicable due to perfect multicollinearity. In turn, their estimates of interest most crucially need to be purged from other (unobserved) time dependent factors to be consistent as time may by construction induce omitted-variable bias.
- Published
- 2020
43. Detecting changes in locally stationary time series
- Author
-
Heinrichs, Florian (M. Sc.)
- Subjects
Veränderung ,Strukturanalyse ,Nichtparametrische Regression ,Strukturbruch ,Zeitreihenanalyse ,510 Mathematik ,ddc:510 - Abstract
Das Entdecken struktureller Veränderungen in Zeitreihen ist eine der wichtigsten Herausforderungen der modernen Statistik, da nur so eine zuverlässige statistische Inferenz gewährleistet werden kann. Nach einer kurzen Einleitung in die mathematischen Grundlagen, werden in dieser Arbeit drei Testverfahren entwickelt, mit denen Zeitreihen auf Stationarität untersucht werden können. Der erste Test basiert auf einer CUSUM-Statistik und testet die Annahme der schwachen Stationarität funktionaler Zeitreihen gegen die Alternative gradueller Veränderungen. Die anderen beiden Tests erkennen relevante Abweichungen in Erwartungswerten reeller Zeitreihen, die sich stetig über die Zeit entwickeln dürfen. Der eine dieser beiden Tests definiert eine Abweichung als relevant, falls die maximale Abweichung von einem Vergleichswert groß ist, wohingegen der andere Test den L2 Abstand betrachtet.
- Published
- 2020
- Full Text
- View/download PDF
44. Statistical inference for high dimensional panel functional time series
- Author
-
Zhou, Zhou and Dette, Holger
- Subjects
Konfidenzintervall ,Statistischer Test ,physical dependence ,Gaussian approximation ,high dimensional functional time series ,simultaneous confidence bands ,spatio-temporal data ,Zeitreihenanalyse ,Gauß-Approximation ,hypotheses tests - Abstract
In this paper we develop statistical inference tools for high dimensional functional time series. We introduce a new concept of physical dependent processes in the space of square integrable functions, which adopts the idea of basis decomposition of functional data in these spaces, and derive Gaussian and multiplier bootstrap approximations for sums of high dimensional functional time series. These results have numerous important statistical consequences. Exemplarily, we consider the development of joint simultaneous confidence bands for the mean functions and the construction of tests for the hypotheses that the mean functions in the spatial dimension are parallel. The results are illustrated by means of a small simulation study and in the analysis of Canadian temperature data., Discussion Paper / SFB823;4/2020
- Published
- 2020
45. Vergleich von Kategorien in Industrieprozessdaten
- Author
-
Hobiger, Johanna
- Subjects
Schnittstellenerweiterung ,category comparison ,time series analysis ,Zeitreihenanalyse ,API extension ,VRVis ,Kategorienvergleich ,C++ ,Python - Abstract
Big Data in industriellen Prozessen bringt die Notwendigkeit mit sich, Methoden für effiziente Analysen zu entwickeln. Die Visual Analytics Gruppe des VRVis widmet sich mit ihrer Software Visplore dieser Aufgabe. Eine noch fehlende Möglichkeit zum qualitativen und quantitativen Vergleich zweier Zeitreihenabschnitte, genannt "Kategorien", wird implementiert. Dazu werden die Programmiersprachen C++ und Python im Rahmen der C-API verwendet, mit dem Ziel, die bereits bestehende Schnittstelle zwischen Visplore und Python ("VisplorePy") zu erweitern. Die größte Herausforderung besteht darin, zahlreiche bisher entwickelte Zeitreihenanalysemethoden für die bestehende Aufgabenstellung zu begutachten und letztendlich eine eigene Methode zu entwickeln. Um zwei Kategorien zu vergleichen, werden mit Hilfe von Splines Kurven durch die Datenpunkte gelegt, diese werden integriert und die Größen der Flächen verglichen. Das Größenverhältnis wird den Usern im entwickelten Prototypen in der Kommandozeile des Terminals ausgegeben. Ein mögliches Design des zukünfigen Dashboards in Visplore mit Liniendiagramm und Kurvenvergleich wurde in Jupyter erstellt. Die Methode wird an unterschiedlichen Datensets getestet (Industrieprozessdaten, Herzfrequenzdaten und Aktienmarktdaten), um Stärken und Schwächen offenzulegen. Diese werden anschließend für weiterführende Implementierungen diskutiert. Use of Big Data in industrial processes implies the necessity to develop methods for efficient analyses. The Visual Analytics Group of VRVis dedicates itself to this task with its software Visplore. A still missing functionality for the qualitative and quantitative comparison of two time series sections, called "categories", is implemented. For this purpose, the programming languages C++ and Python are used within the C-API with the goal of extending the already implemented API between Visplore and Python ("VisplorePy"). The biggest challenge is to evaluate numerous time series analysis methods developed so far for the given task and finally to design an own method. To compare two categories, curves are laid through the data points with the help of splines, are integrated and the sizes of the areas are compared. In the developed prototype the size ratio is displayed to the users in the command line of the terminal. A possible design of the future dashboard in Visplore with line chart and curve comparison was created in Jupyter. The method is tested on different data sets (industrial process data, heart rate data and stock market data) to reveal strengths and weaknesses which are then discussed for further implementations. vorgelegt von: Johanna Hobiger Auch als Printexemplar in der Bibliothek verfügbar Wien, FH Campus Wien, Masterarb., 2020
- Published
- 2020
46. Predicting and Controlling Chaotic Systems with Machine Learning
- Author
-
Mabrouk, Youssef
- Subjects
Künstliche Intelligenz ,Vorhersage ,Gruppe Komplexe Plasmen ,Zeitreihenanalyse ,Komplexe Systeme - Published
- 2020
47. Weighing up the Credit-to-GDP gap: A cautionary note
- Author
-
Karagedikli, Özer and Rummel, Ole J.
- Subjects
Welt ,Bruttoinlandsprodukt ,Kreditgeschäft ,ddc:330 ,Malaysia ,Indonesien ,Zeitreihenanalyse ,Argentinien ,J31 ,J64 ,Prognoseverfahren ,USA ,Bankenkrise - Abstract
It has been argued that credit-to-GDP gaps (credit gap) are useful early warning indicators for banking crises. In addition, the Basel Committee on Banking Supervision has also advocated using these gaps - estimated using a one-sided Hodrick-Prescott filter with a smoothing parameter of 400,000 - to inform policy on the appropriate counter-cyclical capital buffer. We use the weighted average representation of the same filter and show that it attaches high weights to observations from the past, including the distant past: up to 40 lags (10 years) of past data are used in the calculation of the one-sided trend/permanent component of the credit-to-GDP ratio. We show how past data that belongs to the ‘old-regime’ prior to the crises continue to influence the estimates of the trend for years to come. By using narrative evidence from a number of countries that experienced deep financial crises, we show that this leads to some undesirable influence on the trend estimates that is at odds with the post-crisis environment.
- Published
- 2020
48. Pivotal tests for relevant differences in the second order dynamics of functional time series
- Author
-
van Delft, Anne and Dette, Holger
- Subjects
self-normalization ,Martingaltheorie ,spectral analysis ,martingale theory ,Datenanalyse ,Spektralanalyse ,Martingaletheorie ,Zeitreihenanalyse ,relevant tests ,Zeitreihe ,time series ,functional data - Abstract
Motivated by the need to statistically quantify differences between modern (complex) datasets which commonly result as high-resolution measurements of stochastic processes varying over a continuum, we propose novel testing procedures to detect relevant differences between the second order dynamics of two functional time series. In order to take the between-function dynamics into account that characterize this type of functional data, a frequency domain approach is taken. Test statistics are developed to compare differences in the spectral density operators and in the primary modes of variation as encoded in the associated eigenelements. Under mild moment conditions, we show convergence of the underlying statistics to Brownian motions and obtain pivotal test statistics via a self-normalization approach. The latter is essential because the nuisance parameters can be unwieldly and their robust estimation infeasible, especially if the two functional time series are dependent. Besides from these novel features, the properties of the tests are robust to any choice of frequency band enabling also to compare energy contents at a single frequency. The finite sample performance of the tests are verified through a simulation study and are illustrated with an application to fMRI data., Discussion Paper / SFB823;10/2020
- Published
- 2020
- Full Text
- View/download PDF
49. Regionale Google-Suchanfragen: Prädiktor für die Wiener Arbeitslosenquote?
- Author
-
Frühwirt, Peter and Frühwirt, Peter
- Abstract
Die Arbeit untersucht, ob Internet-Suchanfragen die ökonomischen Aktivitäten der Bevölkerung einer Stadt abbilden können. Der beobachtete ökonomische Indikator ist die Arbeitslosenquote von Wien und die verwendeten Suchanfragen sind jene von Google. Zur Analyse wird zuerst ein Basismodell in Form eines autoregressiven Zeitreihenmodells zur Prognose der Arbeitslosenquote erstellt, welches danach um die erklärende Variable der Google-Suchanfragen erweitert wird. Anschließend werden das Basismodell und das erweiterte Modell hinsichtlich der Prognosequalität der Wiener Arbeitslosenquote verglichen. Es zeigt sich, dass das Ausmaß der Google-Suche nach bestimmten arbeitsmarktrelevanten Schlüsselwörtern einen zusätzlichen Erklärungswert zur einmonatigen Prognose der Arbeitslosenquote von Wien liefert. Allerdings ist dieser zusätzliche Erklärungswert nicht konstant über den gesamten Beobachtungszeitraum vorhanden.*****The thesis analyses if internet searches can reflect the economic activities of a city´s population. The observed economic indicator is the unemployment rate of Vienna and the search queries used are those of Google. First, a base model in the form of an autoregressive time series model for predicting the unemployment rate is built, which is then augmented by the explanatory variable of Google search queries. Afterwards, the base model and the extended model are compared with respect to the forecasting quality of the Viennese unemployment rate. It turns out that the number of the Google searches for specific keywords relevant to the labour market provides a further explanatory value for the one-month forecast of the unemployment rate of Vienna. However, this additional explanatory value is not constant over the whole observation period.
- Published
- 2019
50. Boundary signal estimation problem
- Author
-
Wildi, Marc and Wildi, Marc
- Published
- 2019
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.