85 results on '"Théorie des valeurs extrêmes"'
Search Results
2. Estimation des niveaux marins extrêmes en utilisant de l’information régionale et historique.
- Author
-
Saint Criq, Laurie and Saint Criq, Laurie
- Abstract
L’estimation des niveaux marins de l’aléa naturel submersion marine à prendre en compte pour la protection des centrales nucléaires constitue un enjeu de sûreté important pour l’IRSN. Pour estimer les niveaux marins de période de retour élevée, une analyse statistique locale peut être menée. Cependant, la faible qualité des données, due notamment à de courtes durées d’observation, a pour conséquence de fortes incertitudes d’estimation. L’information additionnelle, régionale et/ou historique, est utilisée en réponse à cette problématique. L’information régionale consiste à valoriser des données disponibles à des site proches du site de référence, et l’information historique consiste à valoriser des évènements observés avant le début des enregistrements au site de référence. Si l’exploitation de l’information additionnelle renforce les ajustement statistiques, elle pose aussi des difficultés méthodologiques. Les niveaux marins extrêmes sont généralement estimés en ajustant une distribution statistique sur les surcotes de pleine mer météorologiques stochastiques, puis en faisant une convolution avec la distribution empirique des marées hautes astronomiques prédictibles. Les observations historiques sont des niveaux marins majeurs extraits des archives dont on peut estimer les surcotes de pleine mer associées. Si une surcote de pleine mer extrême coïncide avec une marée haute d’intensité faible ou modérée, elle n’engendre pas automatiquement un niveau marin extrême traçable dans les archives. L’exhaustivité des surcotes de pleine mer extrêmes historiques ne peut donc pas être garantie, cela peut conduire à des estimations biai sées. La problématique liée à l’information historique est donc sa possible non exhaustivité. L’information régionale se décompose généralement en deux étapes, la formation de régions homogènes et l’estimation régionale. Les problématiques qui en découlent sont donc de choisir une méthode pertinente pour former les régions et une méthode pertinent
- Published
- 2022
3. Analyse multivariée de la dépendance temporelle des extrêmes pour la modélisation des précipitations sévères
- Author
-
Buriticá, Gloria and STAR, ABES
- Subjects
Large deviations ,Time series ,Grandes déviations ,Séries temporelles à variation régulière ,Séries temporelles environnementales ,Extreme value theory ,Théorie des valeurs extrêmes ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Regularly varying time series - Abstract
Nowadays, it is common in environmental sciences to use extreme value theory to assess the risk of natural hazards. In hydrology, rainfall amounts reach high-intensity levels frequently, which suggests modeling heavy rainfall from a heavy-tailed distribution. In this setting, risk management is crucial for preventing the outrageous economic and societal consequences of flooding or land-sliding. Furthermore, climate dynamics can produce extreme weather lasting numerous days over the same region. However, even in the stationary setting, practitioners often disregard the temporal memories of multivariate extremes.This thesis is motivated by the case study of fall heavy rainfall amounts from a station's network in France. Its main goal is twofold. First, it proposes a theoretical framework for modeling time dependencies of multivariate stationary regularly varying time series. Second, it presents new statistical methodologies to thoughtfully aggregate extreme recordings in space and time.To achieve this plan, we consider consecutive observations, or blocks, and analyze their extreme behavior as their lp-norm reaches high levels, for p > 0. This consideration leads to the theory of p-clusters, which model extremal lp-blocks. In the case p=∞, we recover the classical cluster (of exceedances). For p < ∞, we built on large deviations principles for heavy-tailed observations. Then, we study in depth two setups where p-cluster theory appears valuable. First, we design disjoint blocks estimators to infer statistics of p-clusters, e.g., the extremal index. Actually, p-clusters are linked through a change of norms functional. This relationship opens the road for improving cluster inference since we can now estimate the same quantity with different choices of p. We show cluster inference based on p < \infty is advantageous compared to the classical p=∞ strategy in terms of bias. Second, we propose the stable sums method for high return levels inference. This method enhances marginal inference by aggregating extremes in space and time using the lα-norm, where α > 0 is the (tail) index of the series. In simulation, it appears to be robust for dealing with temporal memories and it is justified by the α-cluster theory., Il est commun dans les sciences de l'environnement d'utiliser la théorie des valeurs extrêmes pour évaluer le risque des dangers naturels. En hydrologie, les précipitations atteignent fréquemment des hauts niveaux d'intensité, ce qui suggère de modéliser les pluies sévères à l'aide d'une distribution à queue lourde. Dans ce contexte, la gestion du risque est cruciale pour prévenir des conséquences économiques et sociétales majeures telles que des inondations ou des glissements de terrain. Par ailleurs, les dynamiques du climat peuvent produire des conditions météorologiques extrêmes pendant plusieurs jours sur la même région. Cependant, dans le cadre stationnaire, les praticiens négligent souvent les dépendances temporelles des extrêmes multivariées. Cette thèse propose un cadre théorique pour la modélisation des dépendances temporelles des séries chronologiques stationnaires à variation régulière et des nouvelles méthodologies statistiques pour agréger les observations spatiotemporelles des extrêmes.Plus précisément, nous développons l'étude de cas sur les précipitations extrêmes d'un réseau météo en France. Nous considérons des observations consécutives, ou blocs, et analysons leur comportement lorsque leur lp-norme atteint des niveaux extrêmes, pour p > 0. Cette approche conduit à la théorie des p-clusters qui sert à modéliser les lp-blocs extrémaux. Dans le cas p= ∞, nous retrouvons la définition classique du cluster extrémal . Pour p 0 est l'indice (de queue) de la série. En simulation, cette méthode paraît robuste pour traiter les dépendances temporelles et se justifie par la théorie des α-cluster.
- Published
- 2022
4. Inférence statistique pour les mesures de risques extrêmes : Implication pour l'assurance des catastrophes naturelles
- Author
-
Bousebata, Meryem, STAR, ABES, Laboratoire Jean Kuntzmann (LJK), Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA), Modelling and Inference of Complex and Structured Stochastic Systems (MISTIS), Inria Grenoble - Rhône-Alpes, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jean Kuntzmann (LJK), Université Grenoble Alpes (UGA)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes [2020-....], Stéphane Girard, and Geoffroy Enjolras
- Subjects
Extreme value theory ,Assurance ,Bayesian statistic ,Insurance ,Statistique bayésienne ,Catastrophes naturelles ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,[SPI.GCIV.RISQ]Engineering Sciences [physics]/Civil Engineering/Risques ,Natural disasters ,Statistique non paramétrique ,Théorie des valeurs extrêmes ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,[SPI.GCIV.RISQ] Engineering Sciences [physics]/Civil Engineering/Risques ,Nonparametric statistic - Abstract
This thesis takes place in extreme value statistics and agricultural insurance frameworks. For the first line of research, the extreme quantile of a response variable Y can often be linked to a vector of covariates X of dimension p. When p is large compared to the sample size n, the conditional distribution of Y given X becomes difficult to estimate, especially when dealing with extreme values. The first contribution of this thesis is to propose a new approach, called Extreme-PLS, for dimension reduction in conditional extreme values settings. This approach consists in reducing the dimension of X by maximizing the covariance between a linear combination of coordinates X and Y given large values of Y. We establish the asymptotic normality of the Extreme-PLS estimator under a single-index model. The second contribution provides a Bayesian extension to the Extreme-PLS method to address data scarcity problems in distribution tails. This approach allows to identify the direction of dimension reduction by introducing a prior information on it. It provides a Bayesian framework for computing the posterior distribution of the direction, where the likelihood function is obtained from a von Mises-Fisher distribution adapted to hyperballs. Three prior distributions are considered: conjugate, hierarchical and sparse priors. Finally, the performance of both approaches is evaluated on simulated data, and an application on French farm income data is provided as an illustration.Regarding the second line of research, climate disruption and market deregulation have increased and impacted agricultural production and income. Farmers' incomes are faced with two main types of risk related to price and yield volatility. Protection against these risks fall within a good risk management and thus farmers' insurance coverage. The third contribution of this thesis concerns the study and modelling of the dependence structure between crop yield and price risks using copulas. We also use conditional copulas to take into account the effect of other covariates such as crop insurance purchase, claims and weather factors. The last contribution focuses on considering the natural hedge mechanism, i.e. the negative dependence between yields and prices, in a revenue insurance scheme. We analyse its effect on the value of the actuarially fair premium on an example of revenue insurance contract pricing. The results show that a natural hedge is likely to reduce insurance premiums in France.All studies focus on French farm income data in the cereal (maize and wheat) and wine sectors., Cette thèse s'inscrit dans le cadre de la statistique des valeurs extrêmes et de l'assurance agricole. Pour le premier axe de recherche, le quantile extrême d'une variable réponse Y peut souvent être lié à un vecteur de covariables X de dimension p. Lorsque p est grand comparé à la taille de l'échantillon n, la distribution conditionnelle de Y étant donné X devient difficile à estimer, surtout lorsqu'on a affaire à des valeurs extrêmes. La première contribution de cette thèse est de proposer une nouvelle approche, appelée Extreme-PLS, pour la réduction de la dimension dans le cadre des valeurs extrêmes conditionnelles. Cette approche consiste à réduire la dimension de X en maximisant la covariance entre une combinaison linéaire des composants de X et de Y étant donné de grandes valeurs de Y. Nous établissons la normalité asymptotique de l'estimateur Extreme-PLS sous un modèle à indice unique. La deuxième contribution est une extension bayésienne de la méthode Extreme-PLS pour traiter les problèmes de rareté des données dans les queues de distribution. Cette approche permet d'identifier la direction de la réduction de la dimension en introduisant des informations a priori sur celle-ci. Elle fournit un cadre bayésien pour calculer la distribution postérieure de la direction, où la fonction de vraisemblance est obtenue à partir d'une distribution de von Mises-Fisher adaptée aux hyper boules. Trois distributions postérieures sont considérées : loi conjuguée, hiérarchique et sparse.Enfin, la performance des deux approches est évaluée sur des données simulées, et une application sur des données de revenus agricoles françaises est fournie à titre d'illustration.En ce qui concerne le deuxième axe de recherche, les dérèglements climatiques et la dérégulation des marchés ont augmenté et impacté la production et les revenus agricoles. Les revenus des agriculteurs sont confrontés à deux principaux types de risques liés à la volatilité des prix et des rendements. La protection contre ces risques relève d'une bonne gestion des risques et donc de la couverture d'assurance des agriculteurs. La troisième contribution de cette thèse concerne l'étude et la modélisation de la structure de dépendance entre le rendement des cultures et les risques de prix par les copules. Nous utilisons également les copules conditionnelles pour prendre en compte l'effet d'autres covariables telles que l'achat d'assurance récolte, les sinistres et les facteurs météorologiques. La dernière contribution porte sur la prise en compte du mécanisme de couverture naturelle, c-à-d la dépendance négative entre les rendements et les prix, dans un régime d'assurance des revenus. Nous analysons son effet sur la valeur de la prime actuariellement juste sur un exemple de tarification de contrat d'assurance revenu. Les résultats montrent qu'une couverture naturelle est susceptible de réduire les primes d'assurance en France.L'ensemble des études se concentrent sur les données du revenu agricole français dans les secteurs céréaliers (maïs et blé) et viticoles.
- Published
- 2022
5. On Reparameterisations of the Poisson Process Model for Extremes in a Bayesian Framework
- Author
-
Théo Moins, Julyan Arbel, Anne Dutfoy, Stéphane Girard, Modèles statistiques bayésiens et des valeurs extrêmes pour données structurées et de grande dimension (STATIFY), Inria Grenoble - Rhône-Alpes, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jean Kuntzmann (LJK), Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA), PERformance et prévention des Risques Industriels du parC par la simuLation et les EtudeS (EDF R&D PERICLES), EDF R&D (EDF R&D), and EDF (EDF)-EDF (EDF)
- Subjects
Processus de Poisson ,Extreme-Value theory ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Poisson processes ,Bayesian inference ,Théorie des valeurs extrêmes ,Inférence bayésienne - Abstract
National audience; Combining extreme value analysis with Bayesian methods has several advantages, such as the consideration of prior information or the ability to study irregular cases for frequentist statistics. We focus here on a model of extremes by Poisson process, and propose an alternative of a recent study on a parameterisation of the model which orthogonalizes the parameters to improve posterior sampling by Markov chain Monte-Carlo method (MCMC).; Combiner l'analyse des valeurs extrêmes avec des méthodes bayésiennes a plusieurs avantages, comme la prise en compte d'information a priori ou encore la possibilité d'étudier des cas irréguliers en statistique fréquentiste. Nous nous attardons ici sur un modèle d'extrêmes par processus de Poisson, et proposons une approche alternative à une étude récente sur une reparamétrisation du modèle qui orthogonalise les paramètres pour améliorer l'échantillonnage a posteriori par méthode de Monte-Carlo par chaînes de Markov (MCMC).
- Published
- 2021
6. On the approximation of extreme quantiles with neural networks
- Author
-
Michaël Allouche, Stéphane Girard, Emmanuel Gobet, Centre de Mathématiques Appliquées - Ecole Polytechnique (CMAP), École polytechnique (X)-Centre National de la Recherche Scientifique (CNRS), Modèles statistiques bayésiens et des valeurs extrêmes pour données structurées et de grande dimension (STATIFY), Inria Grenoble - Rhône-Alpes, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Laboratoire Jean Kuntzmann (LJK), Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes (UGA)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP ), Université Grenoble Alpes (UGA), This action benefited from the support of the Chair Stress Test, Risk Management and Financial Steering, led by the French Ecole polytechnique and its foundation and sponsored by BNP Paribas., and ANR-19-P3IA-0003,MIAI,MIAI @ Grenoble Alpes(2019)
- Subjects
generative models ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Extreme value theory ,modèle génératif ,neural networks ,Théorie des valeurs extrêmes ,réseau de neurones - Abstract
National audience; In this study, we propose a new parametrization for the generator of a Generative adversarial network (GAN) adapted to data from heavy-tailed distributions. We provide an analysis of the uniform error between an extreme quantile and its GAN approximation. Numerical experiments are conducted both on real and simulated data.; Dans cette étude nous proposons une nouvelle paramétrisation du générateur d'un réseau antagoniste génératif (GAN) adaptée aux données issues d'une distribution a queue lourde. Nous apportons une analyse de l'erreur d'approximation en norme uniforme d'un quantile extrême par le GAN ainsi construit. Des simulations numériques sont réalisées sur des données réelles et simulées. Mots-clés. Théorie des valeurs extrêmes, réseau de neurones, modèle génératif.
- Published
- 2021
7. Spatiotemporal modeling of extreme events and point patterns
- Author
-
Opitz, Thomas and Opitz, Thomas
- Subjects
Extreme-value theory ,géométrie stochastique ,statistique spatiotemporelle ,Point processes ,Stochastic geometry ,Spatiotemporal statistics ,Théorie des valeurs extrêmes ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,processus ponctuels - Published
- 2021
8. Chance constraint optimization of a complex system : Application to the design of a floating offshore wind turbine
- Author
-
Cousin, Alexis, STAR, ABES, Centre de Mathématiques Appliquées - Ecole Polytechnique (CMAP), École polytechnique (X)-Centre National de la Recherche Scientifique (CNRS), Institut Polytechnique de Paris, and Josselin Garnier
- Subjects
[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Floating offshore wind turbine ,[MATH.MATH-PR] Mathematics [math]/Probability [math.PR] ,Eolienne offshore flottante ,Extreme Value Theory ,[MATH.MATH-OC] Mathematics [math]/Optimization and Control [math.OC] ,[MATH.MATH-OC]Mathematics [math]/Optimization and Control [math.OC] ,Krigeage adaptatif ,Adaptive Kriging ,RBDO ,Monte Carlo ,Théorie des valeurs extrêmes ,Fatigue - Abstract
In this thesis, we propose a methodology to optimize the configuration of the mooring lines by minimizing the material cost while satisfying Fatigue Limit State (FLS) constraints. These constraints inherit the randomness of the marine environment as well as uncertainties on material properties and model parameters. Therefore, we face an optimization problem with a deterministic cost function and constraints involving probabilities of threshold exceedance of the maximum and the integral over a period [0,T] of time-dependent random processes.Having to evaluate these failure probabilities at each loop of the optimization algorithm is the main difficulty. Indeed, reliability methods require many time-consuming simulations. The estimation of these probabilities is all the more challenging as we are dealing with rare events. To solve this problem efficiently, we propose a two-step methodology. First, considering T sufficiently large, we use the properties of the constraints and limit theorems of the extreme value theory and the ergodic theory to reformulate the original constraints into time-independent ones. We thus obtain an equivalent problem for which classical algorithms perform poorly. The second step of the procedure consists in solving the reformulated problem with a new method based on an adaptive kriging strategy well suited to the reformulated constraints. This method is called AK-ECO for Adaptive Kriging for Expectation Constraints Optimization.An academic case of a harmonic oscillator presenting all the characteristics of the industrial problem is introduced to illustrate the methodology. The procedure is then applied with success to the FOWT problem. The two steps composing this methodology are described in a general framework so that they can be applied to other optimization problems involving probabilistic constraints depending on the maximum or the integral of random processes., Nous proposons dans cette thèse une approche permettant d'optimiser la configuration des lignes d'ancrage d'une éolienne flottante offshore, en minimisant le coût des matériaux tout en respectant des contraintes d'un état limite de fatigue. Ces contraintes héritent du caractère aléatoire des conditions environnementales ainsi que d'incertitudes sur des paramètres du modèle. Par conséquent, nous sommes confrontés à un problème d'optimisation avec une fonction de coût déterministe et des contraintes impliquant des probabilités de dépassement de seuil du maximum et de l'intégrale de processus aléatoires dépendant du temps, évalués sur une période [0,T]f.La principale difficulté est de devoir évaluer ces probabilités à chaque boucle de l'algorithme d'optimisation. En effet, les méthodes de fiabilité nécessitent de nombreux appels à un code de calcul coûteux. L'estimation de ces probabilités est d'autant plus difficile que nous sommes confrontés à des événements rares. Pour résoudre efficacement ce problème, nous proposons une méthodologie en deux étapes. Premièrement, en considérant que T est suffisamment grand, nous utilisons les propriétés des contraintes et des théorèmes limite de la théorie des valeurs extrêmes et de la théorie ergodique pour reformuler les contraintes initiales en contraintes indépendantes du temps. Nous obtenons ainsi un problème équivalent pour lequel les algorithmes classiques sont peu performants. La deuxième étape de notre procédure consiste à résoudre le problème reformulé avec une nouvelle méthode basée sur une stratégie de krigeage adaptative. Cette méthode est appelée AK-ECO pour Adaptive Kriging for Expectation Constraints Optimization.Le cas académique d'un oscillateur harmonique présentant toutes les caractéristiques du problème industriel est introduit afin d'illustrer notre méthodologie. La procédure est ensuite appliquée avec succès au problème de l’éolienne flottante. Les deux étapes qui composent cette méthodologie sont décrites dans un cadre général afin de pouvoir être appliquées à d'autres problèmes d'optimisation impliquant des contraintes probabilistes dépendant du maximum ou de l'intégrale de processus aléatoires.
- Published
- 2021
9. Contributions to statistical aspects of extreme value theory and risk assessment
- Author
-
Stupfler, Gilles, Centre de Recherche en Économie et Statistique (CREST), Ecole Nationale de la Statistique et de l'Analyse de l'Information [Bruz] (ENSAI)-École polytechnique (X)-École Nationale de la Statistique et de l'Administration Économique (ENSAE Paris)-Centre National de la Recherche Scientifique (CNRS), Ecole Nationale de la Statistique et de l'Analyse de l'Information [Bruz] (ENSAI), Université de Rennes 1 (UR1), and Bernard Delyon
- Subjects
Analyse statistique des extrêmes ,Risk management ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Extreme Value Theory ,Extreme Value Statistics ,[STAT.TH]Statistics [stat]/Statistics Theory [stat.TH] ,Gestion de risque ,Théorie des valeurs extrêmes ,[STAT.ME]Statistics [stat]/Methodology [stat.ME] - Abstract
This report describes my research activities since I defended my PhD thesis. Chapter 1 outlines my research interests and summarises the background and main contributions of my research. These are organised into strands of work representing my research interests which can very roughly be classified into conditional extreme value analysis, multivariate extreme value theory and its offshoots, extremes in missing data contexts and risk assessment using extreme value theory. This last theme of research is currently my primary area of work. Chapter 2, which is the main chapter of this report, then expands further upon my contributions to this field, mostly through the introduction, study and estimation of risk measures at extreme levels, presenting and discussing the main results of my work in detail andproviding some perspectives for future research.
- Published
- 2020
10. Etude de l’Occurrence des Précipitations et des Sécheresses Extrêmes en Afrique au Nord de l’Équateur : Estimation des Périodes de Retour et des Niveaux de Retour
- Author
-
Chamani, Roméo, Département de physique (Faculté des sciences, Université de Yaoundé 1), Faculté des Sciences - Yaoundé I, Université de Yaoundé I-Université de Yaoundé I, Université de Douala, and David Monkam
- Subjects
[PHYS]Physics [physics] ,variabilité climatique à grande échelle ,extreme drought ,extreme value theory ,précipitations extrêmes ,sécheresses extrêmes ,large-scale modes of climate variability ,northern Africa ,Afrique au Nord de l’Équateur ,return period ,extreme rainfall ,Sahel ,niveaux de retour ,return level ,périodes de retour ,théorie des valeurs extrêmes - Abstract
The occurrence of extreme hydro-climatic events such as floods and severe droughts has adverse impacts on society and economy of African countries, especially those of south of the Sahara, because of their low levels of development, which is associated with the high vulnerability of their populations. A study that analyzes their occurrence and their evolution, for the forecasting purposes, is a necessity for the region. This thesis focuses on the occurrence of the July–September (JAS) extreme rainfall and droughts in the northern Africa. Specifically, it addresses the issue of modeling their occurrences, estimating their return periods (RP) and their return levels (RL) in the context of stationary and non-stationary climate, and to evaluate the influence of the large-scale modes of climate variability (L-SMCV) on both their occurrence and the intensity of their RL. To conduct this investigation, we used monthly rainfall data from the Climatic Research Unit of the University of East Anglia in England, over the period 1901–2014; and those of four climate indices—the El Niño southern oscillation, the North Atlantic oscillation, the Pacific decadal oscillation, and the Atlantic multi-decadal oscillation—from the Global Climate Observing System Working Group on Surface Pressure. Two classical statistical approaches derived from the extreme value theory were used to identify and model the JAS extreme hydro-climatic events in the northern Africa: the peaks-over-threshold approach, which models the excesses above the threshold according to a generalized Pareto distribution, and the block maxima approach, which supposes that the maxima follow a distribution of generalized extreme value. The results reveal a good fit between these statistical approaches and the JAS extremes—wet and dry extremes—across the northern Africa. It appears that the areas with high occurrences of JAS extreme rainfall for a fixed RP are those of Guinean coastal regions and those of highlands on the mainland. In general, over most northern Africa, the RL of JAS extreme rainfall have decreased after 1970, while there was an increase in RLs of JAS extreme droughts in the West African Sahel with respect to 1901–70 period. In Sahel as a whole, the JAS extreme rainfall will intensify in the future, whilst in its western part, the JAS dry extremes are expected to amplify after 2009. The assessment of the influence of L-SMCVs JAS extreme rainfall indicates that the Atlantic multi-decadal oscillation significantly impacts RLs in semi-arid area, and therefore, can be considered as a predictor of JAS extreme rainfall in this part of the northern Africa. The most extreme years have been detected and sometimes associated with an El Niño oscillation phase. The length of RP associated with these years depends on their intensities and it varies from one area to another. As a result, an investigation that deals with the modeling of hydro-climatic events in northern Africa requires first an analysis that takes into account the spatial heterogeneity of the rainfall distribution, and then, should be performed on distinct climatic zones.; L’occurrence des événements hydroclimatiques extrêmes tels que les inondations et les sécheresses sévères a des impacts négatifs sur la société et l’économie des pays africains, en particulier ceux au sud du Sahara, en raison de leurs faibles niveaux de développement auquel est associée la très forte vulnérabilité de leurs populations. Une étude qui analyse leurs occurrences et leurs évolutions, ceci à des fins prévisionnelles, est une nécessité pour la région. Cette thèse étudie l’occurrence des précipitations et les sécheresses extrêmes de la saison de Juillet–Septembre (JAS) en Afrique au Nord de l’Équateur. Plus spécifiquement, il est question de modéliser leurs occurrences, d’estimer leurs périodes de retour (PR) et leurs niveaux de retour (NR) dans un contexte de climat stationnaire et non-stationnaire, et d’évaluer l’influence des modes de la variabilité climatique à grande échelle (MVCGE) aussi bien sur leurs survenues que sur l’intensité de leurs NR. Pour mener cette investigation, nous nous sommes basés sur les données mensuelles des précipitations de l’unité de recherche sur le climat de l’université d’East Anglia, en Angleterre sur la période 1901–2014; et celles de quatre indices du climat — l’El Niño-oscillation, l’oscillation nord-atlantique, l’oscillation décennale du Pacifique et l’oscillation atlantique multi-décennale — de la Global Climate Observing System Working Group on Surface Pressure. Les deux approches statistiques classiques issues de la théorie des valeurs extrêmes ont été mises à contribution afin d’identifier et de modéliser les événements climatiques extrêmes de JAS en Afrique au Nord de l’Équateur : l’approche des dépassements de seuil qui modélise les excès au-dessus du seuil suivant une distribution de Pareto généralisée et l’approche des maxima par blocs, qui suppose que les maximas suivent une distribution de valeurs extrêmes généralisées. Les résultats montrent une bonne adéquation entre ces modèles statistiques et les extrêmes de JAS — humides et secs — à travers l’Afrique au Nord de l’Équateur. Les zones à fortes occurrences de précipitations extrêmes de JAS pour une PR donnée sont celles des régions côtières dites guinéennes et celles des hauts reliefs sur le continent. De manière générale, sur presque toute l’Afrique au Nord de l’Équateur, les NR des précipitations extrêmes de JAS ont diminué après les années 1970, alors que sur la même période, on note une augmentation des NR des sécheresses extrêmes dans le Sahel Ouest africain par rapport à la période pré-1970. Il a été observé qu’au Sahel, les précipitations extrêmes de JAS s’intensifieront à l’avenir. En même temps, dans sa partie ouest, on assistera également à une amplification des extrêmes secs de JAS après 2009. L’évaluation de l’influence des MVCGE sur les précipitations extrêmes de JAS indique que l’oscillation atlantique multi-décennale impacte significativement les NR en zone semi-aride, et de ce fait, peut être considérée comme un prédicteur des précipitations extrêmes de JAS dans cette partie de l’Afrique au Nord de l’Équateur. Les années extrêmes les plus sévères ont été détectées et parfois associées à une phase de l’El Niño-oscillation. La longueur des PR associées aux quantités de précipitations de ces années dépend de leurs intensités et varie d’une zone à une autre. Par conséquent, une investigation qui porte sur la modélisation des événements hydroclimatiques en Afrique au Nord de l’Équateur nécessite au préalable la prise en compte de l’hétérogénéité spatiale de la distribution des précipitations, alors, devrait reposer sur les zones climatiques distinctes.
- Published
- 2020
11. Effet de la méso-architecture sur le comportement en fatigue des structures lattices optimisées obtenues par fabrication additive
- Author
-
REFAI, Khalil, Institut de Mécanique et d'Ingénierie (I2M), Université de Bordeaux (UB)-Institut Polytechnique de Bordeaux-Centre National de la Recherche Scientifique (CNRS)-Institut National de Recherche pour l’Agriculture, l’Alimentation et l’Environnement (INRAE)-Arts et Métiers Sciences et Technologies, HESAM Université (HESAM)-HESAM Université (HESAM), HESAM Université, Nicolas Saintier, Marco Montemurro, Carole Nadot-Martin [Président], Joseph Morlier [Rapporteur], and Charles Brugger
- Subjects
Structures cellulaires ,NURBS ,Fabrication additive ,Additive manufacturing ,[PHYS.COND.CM-GEN]Physics [physics]/Condensed Matter [cond-mat]/Other [cond-mat.other] ,High-cycle multiaxial fatigue ,Optimisation Topologique ,Extreme Value Theory ,Topology Optimisation ,Cellular structures ,Fatigue multiaxial à grand nombre de cycles ,Théorie des valeurs extrêmes - Abstract
A numerical approach is proposed to assess the high cycle fatigue strength of periodic cellular structures produced by SLM under multiaxial loads. The model is based on a general numerical homogenisation scheme and an explicit description of the Elementary Cell combined to an extreme values analysis making use of a fatigue indicator parameter based on Crossland’s criterion. Also, geometric discrepancy and surface roughness are experimentally characterised and considered in the numerical model using three methods which are compared to the experimental fatigue strength. Topology optimisation (TO) pushes the boundaries of design freedom even further. In our study, Topology Optimisation was developed to prevent fatigue failure using SIMP method revisited and reformulated within the mathematical framework of Non-Uniform Rational BSpline functions.; Une approche numérique est proposée pour évaluer la résistance en fatigue à grand nombre de cycles des structures cellulaires périodiques produites par SLM sous des chargements multiaxiaux. Le modèle est basé sur un schéma général d'homogénéisation numérique et une description explicite de la cellule élémentaire combinée à une analyse des valeurs extrêmes utilisant un paramètre indicateur de fatigue basé sur le critère de Crossland. De plus, l'écart géométrique et la rugosité de surface sont caractérisés expérimentalement et prisent en compte dans le modèle numérique en utilisant trois méthodes qui sont comparées à la résistance en fatigue expérimentale. L'optimisation topologique (OT) repousse encore plus loin les limites de la liberté de conception. Dans notre étude, l'OT a été développée pour prévenir les défaillances dues à la fatigue en utilisant la méthode SIMP reformulée dans le cadre mathématique des fonctions NURBS (Non-Uniform Rational BSpline).
- Published
- 2020
12. Extreme Financial cycles.
- Author
-
Candelon, Bertrand, Gaulier, Guillaume, and Hurlin, Christophe
- Subjects
INVESTORS ,FINANCE ,EXTREME value theory ,CALCULUS ,ECONOMIC policy ,DISTRIBUTION (Probability theory) ,BUSINESSPEOPLE - Abstract
Copyright of Revue d'Economie Politique is the property of Editions Dalloz Sirrey and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2012
- Full Text
- View/download PDF
13. La medición del riesgo en eventos extremos. Una revisión metodológica en contexto.
- Author
-
Uribe, Jorge and Ulloa, Inés
- Subjects
PORTFOLIO management (Investments) ,METHODOLOGY ,VALUE at risk ,FINANCIAL risk ,STOCKS (Finance) ,FINANCIAL markets ,GLOBAL Financial Crisis, 2008-2009 ,STOCK exchanges - Abstract
Copyright of Lecturas de Economia is the property of Universidad de Antioquia, Facultad de Ciencias Economicas and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2012
- Full Text
- View/download PDF
14. FONDEMENTS DE LA THÉORIE DES VALEURS EXTRÊMES, SES PRINCIPALES APPLICATIONS ET SON APPORT À LA GESTION DES RISQUES DU MARCHE PÉTROLIER.
- Author
-
RAGGAD, Bechir
- Subjects
EXTREME value theory ,CLIMATE change risk management ,PETROLEUM industry ,RISK management in business ,DISTRIBUTION (Probability theory) - Abstract
Copyright of Mathématiques & Sciences Humaines is the property of Editions du CNRS and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2009
- Full Text
- View/download PDF
15. The analysis of design wind speed estimates specified in the National Building Code of Canada.
- Author
-
Pandey, M. D. and Y. An
- Subjects
- *
CONSTRUCTION laws , *WIND speed , *DIFFERENCES , *MAXIMUM likelihood statistics , *ORDER statistics - Abstract
The design wind pressures specified in the 2005 National Building Code of Canada (NBCC) have been derived from the Gumbel distribution fitted to annual maximum wind speed data collected up to early 1990s. The statistical estimates of the annual maxima method are affected by a relatively large sampling variability, since the method considers a fairly small subset of available wind speed records. Advanced statistical methods have emerged in recent years with the purpose of reducing both sampling and model uncertainties associated with extreme quantile estimates. The two most notable methods are the peaks-over-threshold (POT) and annually r largest order statistics (r-LOS), which extend the data set by including additional maxima observed in wind speed time series. The objective of the paper is to explore the use of advanced extreme value theory for updating the design wind speed estimates specified in the Canadian building design code. The paper re-examines the NBCC method for design wind speed estimation and presents the analysis of the latest Canadian wind speed data by POT, r-LOS, and annual maxima methods. The paper concludes that r-LOS method is an effective alternative for the estimation of extreme design wind speed. [ABSTRACT FROM AUTHOR]
- Published
- 2007
- Full Text
- View/download PDF
16. Extreme value theory for dynamical systems, with applications in climate and neuroscience
- Author
-
Theophile Caby, Centre de Physique Théorique - UMR 7332 (CPT), Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS), CPT - E7 Systèmes dynamiques : théories et applications, Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS)-Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS), Université de Toulon, Università degli studi dell' Insubria (Come, Italie). Facolta' scienze matematiche, fisiche e naturali, Giorgio Mantica, and Sandro Vaienti
- Subjects
Fractal dimensions ,Extreme value theory ,[MATH.MATH-DS]Mathematics [math]/Dynamical Systems [math.DS] ,Climate science ,Neurosciences ,Climatologie ,Théorie des valeurs extrêmes ,Dimensions fractales ,Neuroscience - Abstract
Throughout the thesis, we will discuss, improve and provide a conceptual framework in which methods based on recurrence properties of chaotic dynamics can be understood. We will also provide new EVT-based methods to compute quantities of interest and introduce new useful indicators associated to the dynamics. Our results will have full mathematical rigor, although emphasis will be placed on physical applications and numerical computations, as the use of such methods is developing rapidly. We will start by an introductory chapter to the dynamical theory of extreme events, in which we will describe the principal results of the theory that will be used throughout the thesis. After a small chapter where we introduce some abjects that are characteristic of the invariant measure of the system, namely local dimensions and generalized dimensions, w1 devote the following chapters to the use of EVT to compute such dimensional quantities. One of these method defines naturally a navel global indicator on the hyperbolic properties of the system. ln these chapters, we will present several numerical applications of the methods, bath in real world and idealized systems, and study the influence of different kinds of noise on these indicators. We will then investigate a matter of physical importanc related to EVT: the statistics of visits in some particular small target subsets of the phase-space, in particular for partly random, noisy systems. The results presented in this section are mostly numerical and conjectural, but reveal some universal behavior of the statistics of visits. The eighth chapter makes the connection betweer several local quantities associated to the dynamics and computed using a finite amount of data (local dimensions, hitting times, return times) and the generalized dimensions of the system, that are computable by EVT methods. These relations, stated in the language of large deviation theory (that we will briefly present), have profound physical implications, and constitute a conceptual framework in which the distribution of such computed local quantities can be understood. We then take advantage of these connections to design further methods to compute the generalized dimensions of a system. Finally, in the last part of the thesis, which is more experimental, we extend the dynamical theory of extreme events to more complex observables, which will allow us to study phenomena evolving over long temporal scales. We will consider the example of firing cascades in a model of neural network. Through this example, we will introduce a navel approach to study such complex systems.; Tout au long de la thèse, nous discuterons, améliorerons et fournirons un cadre conceptuel dans lequel des méthodes basées sur les propriétés de récurrence de dynamiques chaotiques peuvent être comprises. Nous fournirons également de nouvelles méthodes basées sur l'EVT pour calculer les quantités d'intérêt et présenteronsr de nouveaux indicateurs utiles associés à la dynamique. Nos résultats auront une rigueur mathématique totale, même si l'accent sera mis sur les applications physiques et les calculs numériques, car l'utilisation de telles méthodes se développe rapidement. Nous commencerons par un chapitre introductif à la théorie dynamique des événements extrêmes, dans lequel nous décrirons les principaux résultats de la théorie qui seront utilisés tout au long de la thèse. Après un petit chapitre dans lequel nous introduisons certains objets caractéristiques de la mesure invariante du système, à savoir les dimensions locales et les dimensions généralisées, nous consacrons les chapitres suivants à l'utilisation de EVT pour calculer de telles quantités dimensionnelles. L'une de ces méthodes définit naturellement un nouvel indicateur global sur les propriétés hyperboliques du système. Dans ces chapitres, nous présenterons plusieurs applications numériques des méthodes, à la fois dans des systèmes réels et idéalisés, et étudierons l'influence de différents types de bruit sur ces indicateurs. Nous examinerons ensuite une question d'importance physique liée à l'EVT : les statistiques de visites dans certains sous-ensembles cibles spécifiques de l'espace de phase, en particulier pour les systèmes partiellement aléatoires et bruyants. Les résultats présentés dans cette section sont principalement numériques et hypothétiques, mais révèlent un comportement universel des statistiques de visites. Le huitième chapitre établit la connexion entre plusieurs quantités locales associées à la dynamique et calculées à l'aide d'une quantité finie de données (dimensions locales, temps de frappe, temps de retour) et les dimensions généralisées du système, calculables par les méthodes EVT. Ces relations, énoncées dans le langage de la théorie des grandes déviations (que nous exposerons brièvement), ont de profondes implications physiques et constituent un cadre conceptuel dans lequel la distribution de ces quantités locales calculées peut être comprise. Nous tirons ensuite parti de ces connexions pour concevoir d'autres méthodes permettant de calculer les dimensions généralisées d'un système. Enfin, dans la dernière partie de la thèse, qui est plus expérimentale, nous étendons la théorie dynamique des événements extrêmes à des observables
- Published
- 2019
17. Statistical properties of coupled map lattices and recurrence of local dendrite maps
- Author
-
Ghoudi, Hamza, Centre de Physique Théorique - UMR 7332 (CPT), Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS), CPT - E7 Systèmes dynamiques : théories et applications, Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS)-Aix Marseille Université (AMU)-Université de Toulon (UTLN)-Centre National de la Recherche Scientifique (CNRS), Université de Toulon, Université de Sfax (Tunisie), Sandro Vaienti, Hawete Hattab, and STAR, ABES
- Subjects
Random dynamical systems ,Dendrite locale ,Extreme value theory ,[MATH.MATH-DS]Mathematics [math]/Dynamical Systems [math.DS] ,Point périodique récurrent ,[MATH.MATH-DS] Mathematics [math]/Dynamical Systems [math.DS] ,Local dendrite ,Théorie des valeurs extremes ,Synchronization ,Coupled lattice maps ,Systèmes dynamiques aléatoires ,Almost periodic ,Synchronisation ,Ensemble minimal ,Minimal sets ,Presque périodique ,Periodic recurrent point ,Réseaux des applications couplées - Abstract
This thesis is divided into two parts the first is devoted to the study of the statistical properties of Dynamical systems and the other is about properties of topological dynamical systems.ln the first part, we recall the basic notions of random dynamical systems and the theory of extreme values. Then, by applying this theory to the cou pied map lattices, we show that the probability of the appearance of synchronization is related to the distribution of the maximum of a certain observable evaluated a long almost ail orbits. Moreover, we show that such a distribution belongs to the family of extreme value laws, where the parameter of this distribution (extremal index) allows us to obtain a detailed description of the probability of synchronization. Finally, we support the theoretical results by robust numerical computations that allow us to go beyond the theoretical framework. ln a second part, we give some basic notions of topological dynamical systems. Next, we study the relations between the sets of recurrent points and periodic points of a continuous self mapping of a local dendrite whose the endpoints set is countable., Cette thèse est divisée en deux grandes parties : la première est consacrée aux propriétés statistiques des systèmes dynamiques et l’autre porte sur des propriétés des systèmes dynamiques topologiques.Dans la première partie, d’abord nous rappelons quelques notions de base des systèmes dynamiques aléatoire et de la théorie des valeurs extrêmes. Ensuite, par l’application de cette théorie aux réseaux des applications couplées nous montrons que la probabilité de l’apparition de la synchronisation dans ces réseaux est liée à la distribution du maximum d’une certaine observable évaluée le long de presque toutes les orbites. De plus, nous montrons qu’une telle distribution appartient à la famille des lois des valeurs extrêmes, où le paramètre de cette distribution (indice extrémal) nous permet d’obtenir une description détaillée de la probabilité de synchronisation. Enfin, nous illustrerons les résultats théoriques par des calculs numériques robustes qui nous permettent d’aller au-delà du cadre théorique fourni.Dans la seconde partie, nous commençons par introduire quelques notions de base des systèmes dynamiques topologiques. Ensuite, nous étudions la relation entre les ensembles des points récurrents et périodiques d’une application continue de dendrites locales dans lui-même dans lequel l’ensemble des points d’extrémité est dénombrable.
- Published
- 2019
18. Extremes of log-correlated random fields and the Riemann zeta function, and some asymptotic results for various estimators in statistics
- Author
-
Ouimet, Frédéric, Fribergh, Alexander, and Arguin, Louis-Pierre
- Subjects
ultramétricité ,estimateurs de Bernstein ,statistique asymptotique ,extreme value theory ,probability ,Ghirlanda-Guerra identities ,fonction zêta de Riemann ,complete monotonicity ,Bernstein estimators ,monotonicité complète ,large deviations ,champ libre gaussien ,asymptotic statistics ,environnements inhomogènes ,inhomogeneous environment ,multinomial probabilities ,champs log-corrélés ,Riemann zeta function ,goodness-of-fit tests ,mathematics ,uniform law of large numbers ,Laplace distribution ,grandes déviations ,marche aléatoire branchante ,statistique ,Gibbs measure ,log-correlated fields ,identités de Ghirlanda-Guerra ,loi de Laplace ,Gaussian fields ,ultrametricity ,mathématiques ,mesure de Gibbs ,statistics ,probabilités multinomiales ,probabilité ,champs gaussiens ,branching random walk ,loi uniforme des grands nombres ,théorie des valeurs extrêmes ,Gaussian free field ,tests d'ajustements - Abstract
Dans cette thèse, nous étudions les valeurs extrêmes de certains champs aléatoires log-corrélés qui sont gaussiens (le champ libre gaussien inhomogène et la marche aléatoire branchante inhomogène) ou approximativement gaussiens (le log-module de la fonction zêta de Riemann sur la ligne critique et un modèle-jouet randomisé de celui-ci), ainsi que les propriétés asymptotiques de divers estimateurs en statistique. Outre l'introduction et la conclusion, la thèse est divisée en trois parties, chacune contenant trois articles. La première partie contient trois articles sur les champs gaussiens log-corrélés. Le premier article montre le premier ordre de convergence du maximum et du nombre de hauts points pour le champ libre gaussien inhomogène sur tout son domaine. Le deuxième article utilise les résultats du premier article pour montrer que la loi limite de la mesure de Gibbs est une cascade de Ruelle avec un certain nombre d'échelles effectives (un arbre de processus de Poisson-Dirichlet). Le troisième article montre la tension du maximum recentré pour la marche aléatoire branchante inhomogène. La deuxième partie contient trois articles sur la fonction zêta de Riemann. Le premier article montre que, à basse température, la loi limite de la mesure de Gibbs d'un modèle-jouet randomisé du log-module de zêta sur la ligne critique est un processus de Poisson-Dirichlet. Le deuxième article concerne le problème ouvert de la tension du maximum recentré pour ce modèle-jouet sur un intervalle de longueur $O(1)$. Nous simplifions le problème en montrant que le maximum continue se situe à une constante près d'un maximum discret sur $O(\log T \sqrt{\log \log T})$ points. Le troisième article montre le premier ordre de convergence du maximum et de l'énergie libre pour le log-module de la fonction zêta de Riemann sur des intervalles courts de longueur $O(\log^{\theta} T)$, $\theta > -1$, de la ligne critique. La troisième partie contient trois articles traitant de sujets divers en statistique asymptotique. Le premier article montre la monotonicité complète des probabilités multinomiales et ouvre la porte sur l'étude des propriétés asymptotiques des estimateurs de Bernstein sur le simplexe. Le deuxième article prouve une loi uniforme des grands nombres pour les sommes contenant des termes qui « explosent ». Le troisième article trouve la loi limite d'une statistique de score modifiée lorsqu'on teste un membre donné de la famille des lois exponentielles de puissances contre la famille des lois de puissances asymétriques. La thèse contient neuf articles dont sept sont déjà publiés dans des journaux évalués par les pairs. Toute l'information se trouve sur mon site web personnel : https://sites.google.com/site/fouimet26/research., In this thesis, we study the extreme values of certain log-correlated random fields that are Gaussian (the scale-inhomogeneous Gaussian free field and the time-inhomogeneous branching random walk) or approximatively Gaussian (the log-modulus of the Riemann zeta function on the critical line and a randomized toy model of it), as well as asymptotic properties of various estimators in statistics. Apart from the introduction and conclusion, the thesis is divided in three parts, each containing three articles. The first part contains three articles on log-correlated Gaussian fields. The first article shows the first order convergence of the maximum and the number of high points for the scale-inhomogeneous Gaussian free field on its full domain. The second article uses the results from the first article to show that the limiting law of the Gibbs measure is a Ruelle probability cascade with a certain number of effective scales (a tree of Poisson-Dirichlet processes). The third article shows the tightness of the recentered maximum for the time-inhomogeneous branching random walk. The second part contains three articles on the Riemann zeta function. The first article shows that, at low temperature, the limiting law of the Gibbs measure for a randomized toy model of the log-modulus of zeta on the critical line is a Poisson-Dirichlet process. The second article deals with the open problem of the tightness of the recentered maximum for this toy model on an interval of length $O(1)$. We simplify the problem by showing that the continuous maximum is at the order of constant away from a discrete maximum over $O(\log T \sqrt{\log \log T})$ points. The third article shows the first order of convergence of the maximum and the free energy for the log-modulus of the Riemann zeta function on short intervals of length $O(\log^{\theta} T)$, $\theta > -1$, on the critical line. The third part contains three articles treating various topics in asymptotic statistics. The first article shows the complete monotonicity of multinomial probabilities and opens the door to the study of the asymptotic properties of Bernstein estimators on the simplex. The second article shows a uniform law of large numbers for sums containing terms that ``blow up''. The third article finds the limiting law of a modified score statistic when we test a given member of the exponential power distribution family against the family of asymmetric power distributions. The thesis contains nine articles of which seven are already published in peer-reviewed journals. All the information is gathered on my personal website : https://sites.google.com/site/fouimet26/research.
- Published
- 2019
19. Etude de l’erreur relative d’extrapolation associée à l’estimateur de Weissman pour les quantiles extrêmes
- Author
-
Clément Albert, Anne Dutfoy, Stéphane Girard, Modelling and Inference of Complex and Structured Stochastic Systems (MISTIS ), Inria Grenoble - Rhône-Alpes, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Laboratoire Jean Kuntzmann (LJK ), Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes [2016-2019] (UGA [2016-2019])-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes [2016-2019] (UGA [2016-2019]), EDF (EDF), Société Française de Statistique, and Girard, Stephane
- Subjects
Erreur d'extrapolation ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Quantiles extrêmes ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Théorie des valeurs extrêmes ,Propriétés asymptotiques - Abstract
National audience; Nous étudions le comportement asymptotique de l'erreur d'extrapolation (relative) associée à l'estimateur deWeissman, un estimateur semi-paramétrique des quantiles extrêmes dédié au domaine d'attraction de Fréchet. Des conditions sont alors fournies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. Nous montrons que, dans le cas où la loi appartient au domaine d'attraction de Fréchet, sans surprise, l'erreur d'extrapolation relative tend vers zéro sous des conditions très faibles sur l'ordre du quantile. De manière originale, nous montrons également que l'erreur d'extrapolation tend vers zéro pour deux types de lois du domaine d'attraction de Gumbel sous des conditions raisonnables sur l'ordre du quantile. Mieux encore, des équivalents de l'erreur sont établis montrant que l'estimateur de Weissman mène à des erreurs d'extrapolation plus faibles que l'estimateur Exponential Tail pour certains types de lois du domaine d'attraction de Gumbel. Ces résultats sont illustrés numériquement.
- Published
- 2019
20. Le risque économique : la difficile agrégation des risques à l’échelle des exploitations et des filières
- Author
-
Phélippé-Guinvarc'h, Martial, Cordier, Jean, Guinvarc', Phélippé, CREST GAINS TEPP LE MANS UNIVERSITE FRA, Partenaires IRSTEA, Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA)-Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA), Structures et Marché Agricoles, Ressources et Territoires (SMART-LERECO), Institut National de la Recherche Agronomique (INRA)-AGROCAMPUS OUEST, and Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)-Institut national d'enseignement supérieur pour l'agriculture, l'alimentation et l'environnement (Institut Agro)
- Subjects
Cumul de risques ,Gestion des risques ,Risk Management ,Mots-clés : Cumul de risques ,Gestion des risques Keywords: Accumulated risk ,Accumulated risk ,Extreme Value Theory ,Copulas ,Théorie des valeurs extrêmes ,[SDE.ES]Environmental Sciences/Environmental and Society ,Copules - Abstract
The article explains the relevance of the copula and the theory of extreme values in the evaluation ofagricultural risk. In the classical approach, the multiple risks allow a diversification of the risks, bringinguseful financial compensations within the exploitation or the sector. This approach is widely used inportfolio management according to the central limit theorem (CLT). The article outlines and illustratesthe cases where the CLT is not applicable because of the form of the statistical links, the loss evaluationor the extreme values; L’article expose l'intérêt de la théorie des copules et des valeurs extrêmes dans l’évaluation du risqueagricole. Dans une approche classique, les multiples risques sont agrégés selon une diversification desrisques, apportant des compensations économiques utiles au sein de l’exploitation ou de la filière. Elleest largement utilisée en gestion de portefeuille et s’appuie sur le théorème central limite (TCL). L’articleexpose et illustre les cas où le TCL ne s’applique pas à cause de la forme des liens statistiques, del’évaluation de l’impact économique ou des valeurs extrêmes.
- Published
- 2019
- Full Text
- View/download PDF
21. Analyse et modélisation statistique de données de consommation électrique
- Author
-
Jaunâtre, Kévin, Laboratoire de Mathématiques de Bretagne Atlantique (LMBA), Université de Brest (UBO)-Université de Bretagne Sud (UBS)-Centre National de la Recherche Scientifique (CNRS), Université de Bretagne Sud, Ion Grama, and Gilles Durrieu
- Subjects
Right censoring ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Cox’s model ,Extreme value theory ,Queues lourdes ,Modèle de Cox ,Analyse de survie ,Heavy tails ,Survival analysis ,Censure à droite ,Théorie des valeurs extrêmes - Abstract
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit.; En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique.
- Published
- 2019
22. Electric consumption data modeling and analysis
- Author
-
Jaunâtre, Kévin, STAR, ABES, Laboratoire de Mathématiques de Bretagne Atlantique (LMBA), Université de Brest (UBO)-Université de Bretagne Sud (UBS)-Centre National de la Recherche Scientifique (CNRS), Université de Bretagne Sud, Ion Grama, and Gilles Durrieu
- Subjects
[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Right censoring ,[MATH.MATH-PR] Mathematics [math]/Probability [math.PR] ,Cox’s model ,Extreme value theory ,Queues lourdes ,Modèle de Cox ,Analyse de survie ,Heavy tails ,Survival analysis ,Censure à droite ,Théorie des valeurs extrêmes - Abstract
In October 2014, the French Environment & Energy Management Agency with the ENEDIS company started a research project named SOLENN ("SOLidarité ENergie iNovation") with multiple objectives such as the study of the control of the electric consumption by following the households and to secure the electric supply. The SOLENN project was lead by the ADEME and took place in Lorient, France. The main goal of this project is to improve the knowledge of the households concerning the saving of electric energy. In this context, we describe a method to estimate extreme quantiles and probabilites of rare events which is implemented in a R package. Then, we propose an extension of the famous Cox's proportional hazards model which allows the etimation of the probabilites of rare events. Finally, we give an application of some statistics models developped in this document on electric consumption data sets which were useful for the SOLENN project. A first application is linked to the electric constraint program directed by ENEDIS in order to secure the electric network. The houses are under a reduction of their maximal power for a short period of time. The goal is to study how the household behaves during this period of time. A second application concern the utilisation of the multiple regression model to study the effect of individuals visits on the electric consumption. The goal is to study the impact on the electric consumption for the week or the month following a visit., En octobre 2014, l'Agence De l'Environnement et de la Maîtrise de l'Energie (ADEME) en coopération avec l'entreprise ENEDIS (anciennement ERDF pour Électricité Réseau Distribution France) a démarré un projet de recherche dénommé "smart-grid SOLidarité-ENergie-iNovation" (SOLENN) avec comme objectifs l'étude de la maîtrise de la consommation électrique par un accompagnement des foyers et la sécurisation de l'approvisionnement électrique entre autres. Cette thèse s'inscrit dans le cadre des objectifs susnommés. Le projet SOLENN est piloté par l'ADEME et s'est déroulé sur la commune de Lorient. Le projet a pour but de mettre en œuvre une pédagogie pour sensibiliser les foyers aux économies d'énergie. Dans ce contexte, nous abordons une méthode d'estimation des quantiles extrêmes et des probabilités d'événements rares pour des données fonctionnelles non-paramétriques qui fait l'objet d'un package R. Nous proposons ensuite une extension du fameux modèle de Cox à hasards proportionnels et permet l'estimation des probabilités d'événements rares et des quantiles extrêmes. Enfin, nous donnons l'application de certains modèles statistique développés dans ce document sur les données de consommation électrique et qui se sont avérés utiles pour le projet SOLENN. Une première application est en liaison avec le programme d'écrêtement mené par ENEDIS afin de sécuriser le fonctionnement du réseau électrique. Une deuxième application est la mise en place du modèle linéaire pour étudier l'effet de plusieurs visites individuelles sur la consommation électrique.
- Published
- 2019
23. Extreme value theory for dynamical systems, with applications in climate and neuroscience
- Author
-
Caby, Théophile and STAR, ABES
- Subjects
Fractal dimensions ,Extreme value theory ,Climate science ,Neurosciences ,[MATH.MATH-DS] Mathematics [math]/Dynamical Systems [math.DS] ,Climatologie ,Théorie des valeurs extrêmes ,Dimensions fractales ,Neuroscience - Abstract
Throughout the thesis, we will discuss, improve and provide a conceptual framework in which methods based on recurrence properties of chaotic dynamics can be understood. We will also provide new EVT-based methods to compute quantities of interest and introduce new useful indicators associated to the dynamics. Our results will have full mathematical rigor, although emphasis will be placed on physical applications and numerical computations, as the use of such methods is developing rapidly. We will start by an introductory chapter to the dynamical theory of extreme events, in which we will describe the principal results of the theory that will be used throughout the thesis. After a small chapter where we introduce some abjects that are characteristic of the invariant measure of the system, namely local dimensions and generalized dimensions, w1 devote the following chapters to the use of EVT to compute such dimensional quantities. One of these method defines naturally a navel global indicator on the hyperbolic properties of the system. ln these chapters, we will present several numerical applications of the methods, bath in real world and idealized systems, and study the influence of different kinds of noise on these indicators. We will then investigate a matter of physical importanc related to EVT: the statistics of visits in some particular small target subsets of the phase-space, in particular for partly random, noisy systems. The results presented in this section are mostly numerical and conjectural, but reveal some universal behavior of the statistics of visits. The eighth chapter makes the connection betweer several local quantities associated to the dynamics and computed using a finite amount of data (local dimensions, hitting times, return times) and the generalized dimensions of the system, that are computable by EVT methods. These relations, stated in the language of large deviation theory (that we will briefly present), have profound physical implications, and constitute a conceptual framework in which the distribution of such computed local quantities can be understood. We then take advantage of these connections to design further methods to compute the generalized dimensions of a system. Finally, in the last part of the thesis, which is more experimental, we extend the dynamical theory of extreme events to more complex observables, which will allow us to study phenomena evolving over long temporal scales. We will consider the example of firing cascades in a model of neural network. Through this example, we will introduce a navel approach to study such complex systems., Tout au long de la thèse, nous discuterons, améliorerons et fournirons un cadre conceptuel dans lequel des méthodes basées sur les propriétés de récurrence de dynamiques chaotiques peuvent être comprises. Nous fournirons également de nouvelles méthodes basées sur l'EVT pour calculer les quantités d'intérêt et présenteronsr de nouveaux indicateurs utiles associés à la dynamique. Nos résultats auront une rigueur mathématique totale, même si l'accent sera mis sur les applications physiques et les calculs numériques, car l'utilisation de telles méthodes se développe rapidement. Nous commencerons par un chapitre introductif à la théorie dynamique des événements extrêmes, dans lequel nous décrirons les principaux résultats de la théorie qui seront utilisés tout au long de la thèse. Après un petit chapitre dans lequel nous introduisons certains objets caractéristiques de la mesure invariante du système, à savoir les dimensions locales et les dimensions généralisées, nous consacrons les chapitres suivants à l'utilisation de EVT pour calculer de telles quantités dimensionnelles. L'une de ces méthodes définit naturellement un nouvel indicateur global sur les propriétés hyperboliques du système. Dans ces chapitres, nous présenterons plusieurs applications numériques des méthodes, à la fois dans des systèmes réels et idéalisés, et étudierons l'influence de différents types de bruit sur ces indicateurs. Nous examinerons ensuite une question d'importance physique liée à l'EVT : les statistiques de visites dans certains sous-ensembles cibles spécifiques de l'espace de phase, en particulier pour les systèmes partiellement aléatoires et bruyants. Les résultats présentés dans cette section sont principalement numériques et hypothétiques, mais révèlent un comportement universel des statistiques de visites. Le huitième chapitre établit la connexion entre plusieurs quantités locales associées à la dynamique et calculées à l'aide d'une quantité finie de données (dimensions locales, temps de frappe, temps de retour) et les dimensions généralisées du système, calculables par les méthodes EVT. Ces relations, énoncées dans le langage de la théorie des grandes déviations (que nous exposerons brièvement), ont de profondes implications physiques et constituent un cadre conceptuel dans lequel la distribution de ces quantités locales calculées peut être comprise. Nous tirons ensuite parti de ces connexions pour concevoir d'autres méthodes permettant de calculer les dimensions généralisées d'un système. Enfin, dans la dernière partie de la thèse, qui est plus expérimentale, nous étendons la théorie dynamique des événements extrêmes à des observables
- Published
- 2019
24. Estimation of extrapolation limits based on extreme-value distributions.Application to environmental data
- Author
-
Albert, Clément, Laboratoire Jean Kuntzmann (LJK ), Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes [2016-2019] (UGA [2016-2019]), Université Grenoble Alpes, and Stéphane Girard
- Subjects
Regularly varying functions ,Applications environnementales ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Extreme value theory ,Estimation de quantiles extrêmes ,Environmental applications ,Fonctions à variation régulière ,Théorie des valeurs extrêmes ,Extreme quantile estimation - Abstract
This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent.; Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes.
- Published
- 2018
25. Estimation des limites d'extrapolation par les lois de valeurs extrêmes. Application à des données environnementales
- Author
-
Albert, Clément, Laboratoire Jean Kuntzmann (LJK ), Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Institut National de Recherche en Informatique et en Automatique (Inria)-Centre National de la Recherche Scientifique (CNRS)-Université Grenoble Alpes [2016-2019] (UGA [2016-2019]), Université Grenoble Alpes, and Stéphane Girard
- Subjects
Regularly varying functions ,Applications environnementales ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Extreme value theory ,Estimation de quantiles extrêmes ,Environmental applications ,Fonctions à variation régulière ,Théorie des valeurs extrêmes ,Extreme quantile estimation - Abstract
This thesis takes place in the extreme value statistics framework. It provides three main contributions to this area. The extreme quantile estimation is a two step approach. First, it consists in proposing an extreme value based quantile approximation. Then, estimators of the unknown quantities are plugged in the previous approximation leading to an extreme quantile estimator.The first contribution of this thesis is the study of this previous approximation error. These investigations are carried out using two different kind of estimators, both based on the well-known Generalized Pareto approximation: the Exponential Tail estimator dedicated to the Gumbel maximum domain of attraction and the Weissman estimator dedicated to the Fréchet one.It is shown that the extrapolation error can be interpreted as the remainder of a first order Taylor expansion. Necessary and sufficient conditions are then provided such that this error tends to zero as the sample size increases. Interestingly, in case of the so-called Exponential Tail estimator, these conditions lead to a subdivision of Gumbel maximum domain of attraction into three subsets. In constrast, the extrapolation error associated with Weissmanestimator has a common behavior over the whole Fréchet maximum domain of attraction. First order equivalents of the extrapolation error are thenderived and their accuracy is illustrated numerically.The second contribution is the proposition of a new extreme quantile estimator.The problem is addressed in the framework of the so-called ``log-Generalized Weibull tail limit'', where the logarithm of the inverse cumulative hazard rate function is supposed to be of extended regular variation. Based on this model, a new estimator of extreme quantiles is proposed. Its asymptotic normality is established and its behavior in practice is illustrated on both real and simulated data.The third contribution of this thesis is the proposition of new mathematical tools allowing the quantification of extrapolation limits associated with a real dataset. To this end, we propose estimators of extrapolation errors associated with the Exponentail Tail and the Weissman approximations. We then study on simulated data how these two estimators perform. We finally use these estimators on real datasets to show that, depending on the climatic phenomena,the extrapolation limits can be more or less stringent.; Cette thèse se place dans le cadre de la Statistique des valeurs extrêmes. Elle y apporte trois contributions principales. L'estimation des quantiles extrêmes se fait dans la littérature en deux étapes. La première étape consiste à utiliser une approximation des quantiles basée sur la théorie des valeurs extrêmes. La deuxième étape consiste à estimer les paramètres inconnus de l'approximation en question, et ce en utilisant les valeurs les plus grandes du jeu de données. Cette décomposition mène à deux erreurs de nature différente, la première étant une erreur systémique de modèle, dite d'approximation ou encore d'extrapolation, la seconde consituant une erreur d'estimation aléatoire. La première contribution de cette thèse est l'étude théorique de cette erreur d'extrapolation mal connue.Cette étude est menée pour deux types d'estimateur différents, tous deux cas particuliers de l'approximation dite de la "loi de Pareto généralisée" : l'estimateur Exponential Tail dédié au domaine d'attraction de Gumbel et l'estimateur de Weissman dédié à celui de Fréchet.Nous montrons alors que l'erreur en question peut s'interpréter comme un reste d'ordre un d'un développement de Taylor. Des conditions nécessaires et suffisantes sont alors établies de telle sorte que l'erreur tende vers zéro quand la taille de l'échantillon augmente. De manière originale, ces conditions mènent à une division du domaine d'attraction de Gumbel en trois parties distinctes. En comparaison, l'erreur d'extrapolation associée à l'estimateur de Weissman présente un comportement unifié sur tout le domaine d'attraction de Fréchet. Des équivalents de l'erreur sont fournis et leur comportement est illustré numériquement. La deuxième contribution est la proposition d'un nouvel estimateur des quantiles extrêmes. Le problème est abordé dans le cadre du modèle ``log Weibull-tail'' généralisé, où le logarithme de l'inverse du taux de hasard cumulé est supposé à variation régulière étendue. Après une discussion sur les conséquences de cette hypothèse, nous proposons un nouvel estimateur des quantiles extrêmes basé sur ce modèle. La normalité asymptotique dudit estimateur est alors établie et son comportement en pratique est évalué sur données réelles et simulées.La troisième contribution de cette thèse est la proposition d'outils permettant en pratique de quantifier les limites d'extrapolation d'un jeu de données. Dans cette optique, nous commençons par proposer des estimateurs des erreurs d'extrapolation associées aux approximations Exponential Tail et Weissman. Après avoir évalué les performances de ces estimateurs sur données simulées, nous estimons les limites d'extrapolation associées à deux jeux de données réelles constitués de mesures journalières de variables environnementales. Dépendant de l'aléa climatique considéré, nous montrons que ces limites sont plus ou moins contraignantes.
- Published
- 2018
26. Contribution de la Théorie des Valeurs Extrêmes à la gestion et à la santé des systèmes
- Author
-
Diamoutene, Abdoulaye, Institut National Polytechnique de Toulouse - INPT (FRANCE), and Institut National Polytechnique de Toulouse - Toulouse INP (FRANCE)
- Subjects
Fiabilité des systèmes ,Mod{e}les {a} risques proportionnels ,Distribution de Pareto Généralisée ,Statistique d'ordre ,Approche du peaks over threshold ,Analyse de survie ,Bootstrap non paramétrique ,Théorie des Valeurs Extrêmes ,Fonction de risque non monotone - Abstract
Le fonctionnement d'un système, de façon générale, peut être affecté par un incident imprévu. Lorsque cet incident a de lourdes conséquences tant sur l'intégrité du système que sur la qualité de ses produits, on dit alors qu'il se situe dans le cadre des événements dits extrêmes. Ainsi, de plus en plus les chercheurs portent un intérêt particulier à la modélisation des événements extrêmes pour diverses études telles que la fiabilité des systèmes et la prédiction des différents risques pouvant entraver le bon fonctionnement d'un système en général. C'est dans cette optique que s'inscrit la présente thèse. Nous utilisons la Théorie des Valeurs Extrêmes (TVE) et les statistiques d'ordre extrême comme outil d'aide à la décision dans la modélisation et la gestion des risques dans l'usinage et l'aviation. Plus précisément, nous modélisons la surface de rugosité de pièces usinées et la fiabilité de l'outil de coupe associé par les statistiques d'ordre extrême. Nous avons aussi fait une modélisation à l'aide de l'approche dite du "Peaks-Over Threshold, POT" permettant de faire des prédictions sur les éventuelles victimes dans l'Aviation Générale Américaine (AGA) à la suite d'accidents extrêmes. Par ailleurs, la modélisation des systèmes soumis à des facteurs d'environnement ou covariables passent le plus souvent par les modèles à risque proportionnel basés sur la fonction de risque. Dans les modèles à risque proportionnel, la fonction de risque de base est généralement de type Weibull, qui est une fonction monotone; l'analyse du fonctionnement de certains systèmes comme l'outil de coupe dans l'industrie a montré qu'un système peut avoir un mauvais fonctionnement sur une phase et s'améliorer sur la phase suivante. De ce fait, des modifications ont été apportées à la distribution de Weibull afin d'avoir des fonctions de risque de base non monotones, plus particulièrement les fonctions de risque croissantes puis décroissantes. En dépit de ces modifications, la prise en compte des conditions d'opérations extrêmes et la surestimation des risques s'avèrent problématiques. Nous avons donc, à partir de la loi standard de Gumbel, proposé une fonction de risque de base croissante puis décroissante permettant de prendre en compte les conditions extrêmes d'opérations, puis établi les preuves mathématiques y afférant. En outre, un exemple d'application dans le domaine de l'industrie a été proposé. Cette thèse est divisée en quatre chapitres auxquels s'ajoutent une introduction et une conclusion générales. Dans le premier chapitre, nous rappelons quelques notions de base sur la théorie des valeurs extrêmes. Le deuxième chapitre s'intéresse aux concepts de base de l'analyse de survie, particulièrement à ceux relatifs à l'analyse de fiabilité, en proposant une fonction de risque croissante-décroissante dans le modèle à risques proportionnels. En ce qui concerne le troisième chapitre, il porte sur l'utilisation des statistiques d'ordre extrême dans l'usinage, notamment dans la détection de pièces défectueuses par lots, la fiabilité de l'outil de coupe et la modélisation des meilleures surfaces de rugosité. Le dernier chapitre porte sur la prédiction d'éventuelles victimes dans l'Aviation Générale Américaine à partir des données historiques en utilisant l'approche "Peaks-Over Threshold"
- Published
- 2018
27. Contributions aux algorithmes stochastiques pour le Big Data et à la théorie des valeurs extrèmes multivariés
- Author
-
Ho, Zhen Wai Olivier, Laboratoire de Mathématiques de Besançon (UMR 6623) (LMB), Université de Bourgogne (UB)-Université de Franche-Comté (UFC), Université Bourgogne Franche-Comté [COMUE] (UBFC)-Université Bourgogne Franche-Comté [COMUE] (UBFC)-Centre National de la Recherche Scientifique (CNRS), Université Bourgogne Franche-Comté, Clément Dombry, and Stéphane Chrétien
- Subjects
Big Data ,Regular Variation ,Loi Hüsler-Reiss Pareto ,Algorithmes Stochastiques ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Hüsler-Reiss Pareto distribution ,Acquisition comprimée ,Extreme value theory ,Compressed sensing ,Théorie des valeurs extrèmes ,Variations régulières ,Stochastic Algorithm - Abstract
This thesis in divided in two parts. The first part studies models for multivariate extremes. We give a method to construct multivariate regularly varying random vectors. The method is based on a multivariate extension of a Breiman Lemma that states that a product RZ of a random non negative regularly varying variable R and a non negative Z sufficiently integrable is also regularly varying. Replacing Z with a random vector mathbf{Z}, we show that the product Rmathbf{Z} is regularly varying and we give a characterisation of its limit measure. Then, we show that taking specific distributions for mathbf{Z}, we obtain classical max-stable models. We extend our result to non-standard regular variations. Next, we show that the Pareto model associated with the Hüsler-Reiss max-stable model forms a full exponential family. We show some properties of this model and we give an algorithm for exact simulation. We study the properties of the maximum likelihood estimator. Then, we extend our model to non-standard regular variations. To finish the first part, we propose a numerical study of the Hüsler-Reiss Pareto model.In the second part, we start by giving a lower bound of the smallest singular value of a matrix perturbed by appending a column. Then, we give a greedy algorithm for feature selection and we illustrate this algorithm on a time series dataset. Secondly, we show that an incoherent matrix satisfies a weakened version of the NSP property. Thirdly, we study the problem of column selection of Xinmathbb{R}^{n imes p} given a coherence threshold mu. This means we want the largest submatrix satisfying some coherence property. We formulate the problem as a linear program with quadratic constraint on {0,1}^p. Then, we consider a relaxation on the sphere and we bound the relaxation error. Finally, we study the projected stochastic gradient descent for online PCA. We show that in expectation, the algorithm converges to a leading eigenvector and we suggest an algorithm for step-size selection. We illustrate this algorithm with a numerical experiment.; La thèse comporte deux parties distinctes. La première partie concerne des modèles pour les extrêmes multivariés.On donne une construction de vecteurs aléatoires multivariés à variations régulières. La construction se base sur une extension multivariée d'un lemme de Breiman établissant la propriété de variation régulière d'un produit RZ de variable aléatoire avec R positive à variation régulière et Z positive suffisamment intégrable. En prenant mathbf{Z} multivarié et suffisamment intégrable, on montre que Rmathbf{Z} est un vecteur aléatoire à variations régulières et on caractérise sa mesure limite. On montre ensuite que pour mathbf{Z} de loi bien choisie, on retrouve des modèles stables classiques comme le modèle t-extremal, Hüsler-Reiss, etc. Puis, on étend notre construction pour considérer la notion de variation régulière multivariée non standard. On montre ensuite que le modèle de Pareto (qu'on appelle Hüsler-Reiss Pareto) associé au modèle max-stable Hüsler-Reiss forme une famille exponentielle complète. On donne quelques propriétés du modèle Hüsler-Reiss Pareto puis on propose un algorithme de simulation exacte. On étudie l'inférence par le maximum de vraisemblance. Finalement, on considère une extension du modèle Hüsler-Reiss Pareto utilisant la notion de variation régulière non standard. On étudie l'inférence par le maximum de vraisemblance du modèle généralisé et on propose une méthode d'estimation des paramètres. On donne une étude numérique sur l'estimateur du maximum de vraisemblance pour le modèle Hüsler-Reiss Pareto. Dans la second partie qui concerne l'apprentissage statistique, on commence par donner une borne sur la valeur singulière minimale d'une matrice perturbée par l'ajout d'une colonne. On propose alors un algorithme de sélection de colonne afin d'extraire les caractéristiques de la matrice. On illustre notre algorithme sur des données réelles de séries temporelles où chaque série est pris comme étant une colonne de la matrice. Deuxièmement, on montre que si une matrice X à une propriété d'incohérence alors X possède aussi une version affaiblie de la propriété NSP (null space property). Puis, on s'intéresse au problème de sélection de matrice incohérente. A partir d'une matrice Xin mathbb{R}^{n imes p} et mu>0, on cherche la plus grande sous-matrice de X avec une cohérence inférieure à mu. Ce problème est formulé comme un programme linéaire avec contrainte quadratique sur {0,1}^p. Comme ce problème est NP-dur, on considère une relaxation sur la sphère et on obtient une borne sur l'erreur lorsqu'on considère le problème relaxé. Enfin, on analyse l'algorithme de gradient stochastique projeté pour l'analyse en composante principale online. On montre qu'en espérance, l'algorithme converge vers un vecteur propre maximum et on propose un algorithme pour sélectionner le pas de l'algorithme. On illustre ensuite cet algorithme par une expérience de simulation.
- Published
- 2018
28. Sur la dépendance des queues de distributions
- Author
-
Aleiyouka, Mohalilou, Laboratoire de Mathématiques Appliquées du Havre (LMAH), Université Le Havre Normandie (ULH), Normandie Université (NU)-Normandie Université (NU), Normandie Université, and Alexandre Berred
- Subjects
Dépendance extrême ,Real-time DBMS ,Copula ,Theory of extreme values ,Extreme dependence ,[MATH.MATH-MP]Mathematics [math]/Mathematical Physics [math-ph] ,Queue de dépendance ,Dependency Tail ,Théorie des valeurs extrêmes ,SGBD Temps réel ,Copules - Abstract
The modeling of the dependence between several variables can focus either on the positive or negative correlation between the variables, or on other more effective ways, which determine the tails dependence of distributions.In this thesis, we are interested in the tail dependence of distributions, by presenting some properties and results. Firstly, we obtain the limit tail dependence coefficient for the generalized hyperbolic law according to different parameter values of this law. Then, we exhibit some properties and results of die extremal dependence coefficient in the case where the random variables follow a unitary Fréchet law.Finally, we present a Real Time Database ManagementSystems (RDBMS). The goal is to propose probabilistic models to study thebehavior of real-time transactions, in order to optimize its performance.; Pour modéliser de la dépendance entre plusieurs variables peut s'appuyer soit sur la corrélation entre les variables, soit sur d'autres mesures, qui déterminent la dépendance des queues de distributions.Dans cette thèse, nous nous intéressons à la dépendance des queues de distributions, en présentant quelques propriétés et résultats.Dans un premier temps, nous obtenons le coefficient de dépendance de queue pour la loi hyperbolique généralisée selon les différentes valeurs de paramètres de cette loi.Ensuite, nous exposons des propriétés et résultats du coefficient de dépendance extrémale dans le cas où les variables aléatoires suivent une loi de Fréchet unitaire.Finalement, nous présentons un des systèmes de gestion de bases de données temps réel (SGBDTR). Le but étant de proposer des modèles probabilistes pour étudier le comportement des transactions temps réel, afin d'optimiser ses performances.
- Published
- 2018
29. Mixture model and generalized linear models, application to co-infection data (arbovirus & malaria)
- Author
-
Loum, Mor Absa, Laboratoire de Mathématiques d'Orsay (LMO), Université Paris-Sud - Paris 11 (UP11)-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Université de Saint-Louis (Sénégal), Elisabeth Gassiat, and Aliou Diop
- Subjects
Mixture model ,[STAT.AP]Statistics [stat]/Applications [stat.AP] ,Generalized linear mode ,Extreme value theory ,Moments method ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Méthode spectrale ,Modèles linéaires généralisés ,Modèle de mélange ,[SDV.SPEE]Life Sciences [q-bio]/Santé publique et épidémiologie ,Spectral method ,Méthode des moments ,Co-Infection ,Théorie des valeurs extrêmes - Abstract
We are interested, in this thesis, to the study of mixture models and generalized linear models, with an application to co-infection data between arboviruses and malaria parasites. After a first part dedicated to the study of co-infection using a multinomial logistic model, we propose in a second part to study the mixtures of generalized linear models. The proposed method to estimate the parameters of the mixture is a combination of a moment method and a spectral method. Finally, we propose a final section for studing extreme value mixtures under random censoring. The estimation method proposed in this section is done in two steps based on the maximization of a likelihood.; Nous nous intéressons, dans cette thèse, à l'étude des modèles de mélange et des modèles linéaires généralisés, avec une application aux données de co-infection entre les arbovirus et les parasites du paludisme. Après une première partie consacrée à l'étude de la co-infection par un modèle logistique multinomial, nous proposons dans une deuxième partie l'étude des mélanges de modèles linéaires généralisés. La méthode proposée pour estimer les paramètres du mélange est une combinaison d'une méthode des moments et d'une méthode spectrale. Nous proposons à la fin une dernière partie consacrée aux mélanges de valeurs extrêmes en présence de censure. La méthode d'estimation proposée dans cette partie se fait en deux étapes basées sur la maximisation d'une vraisemblance.
- Published
- 2018
30. Modèle de mélange et modèles linéaires généralisés, application aux données de co-infection (arbovirus & paludisme)
- Author
-
Loum, Mor Absa, Laboratoire de Mathématiques d'Orsay (LMO), Université Paris-Sud - Paris 11 (UP11)-Centre National de la Recherche Scientifique (CNRS), Université Paris-Saclay, Université de Saint-Louis (Sénégal), Elisabeth Gassiat, and Aliou Diop
- Subjects
Mixture model ,[STAT.AP]Statistics [stat]/Applications [stat.AP] ,Generalized linear mode ,Extreme value theory ,Moments method ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Méthode spectrale ,Modèles linéaires généralisés ,Modèle de mélange ,[SDV.SPEE]Life Sciences [q-bio]/Santé publique et épidémiologie ,Spectral method ,Méthode des moments ,Co-Infection ,Théorie des valeurs extrêmes - Abstract
We are interested, in this thesis, to the study of mixture models and generalized linear models, with an application to co-infection data between arboviruses and malaria parasites. After a first part dedicated to the study of co-infection using a multinomial logistic model, we propose in a second part to study the mixtures of generalized linear models. The proposed method to estimate the parameters of the mixture is a combination of a moment method and a spectral method. Finally, we propose a final section for studing extreme value mixtures under random censoring. The estimation method proposed in this section is done in two steps based on the maximization of a likelihood.; Nous nous intéressons, dans cette thèse, à l'étude des modèles de mélange et des modèles linéaires généralisés, avec une application aux données de co-infection entre les arbovirus et les parasites du paludisme. Après une première partie consacrée à l'étude de la co-infection par un modèle logistique multinomial, nous proposons dans une deuxième partie l'étude des mélanges de modèles linéaires généralisés. La méthode proposée pour estimer les paramètres du mélange est une combinaison d'une méthode des moments et d'une méthode spectrale. Nous proposons à la fin une dernière partie consacrée aux mélanges de valeurs extrêmes en présence de censure. La méthode d'estimation proposée dans cette partie se fait en deux étapes basées sur la maximisation d'une vraisemblance.
- Published
- 2018
31. Discovering patterns in high-dimensional extremes
- Author
-
Chiapino, Maël, Laboratoire Traitement et Communication de l'Information (LTCI), Institut Mines-Télécom [Paris] (IMT)-Télécom Paris, Télécom ParisTech, François Roueff, Anne Sabourin, and STAR, ABES
- Subjects
Apprentissage non-supervisé ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,Extreme value theory ,Dimension reduction ,Réduction de dimension ,Unsupervised learning ,Théorie des valeurs extrêmes ,[STAT.ML] Statistics [stat]/Machine Learning [stat.ML] ,Clustering - Abstract
We present and study unsupervised learning methods of multivariate extreme phenomena in high-dimension. Considering a random vector on which each marginal is heavy-tailed, the study of its behavior in extreme regions is no longer possible via usual methods that involve finite means and variances. Multivariate extreme value theory provides an adapted framework to this study. In particular it gives theoretical basis to dimension reduction through the angular measure. The thesis is divided in two main part: - Reduce the dimension by finding a simplified dependence structure in extreme regions. This step aim at recover subgroups of features that are likely to exceed large thresholds simultaneously. - Model the angular measure with a mixture distribution that follows a predefined dependence structure. These steps allow to develop new clustering methods for extreme points in high dimension., Nous présentons et étudions des méthodes d’apprentissage non-supervisé de phénomènes extrêmes multivariés en grande dimension. Dans le cas où chacune des distributions marginales d’un vecteur aléatoire est à queue lourde, l’étude de son comportement dans les régions extrêmes (i.e. loin de l’origine) ne peut plus se faire via les méthodes usuelles qui supposent une moyenne et une variance finies. La théorie des valeurs extrêmes offre alors un cadre adapté à cette étude, en donnant notamment une base théorique à la réduction de dimension à travers la mesure angulaire. La thèse s’articule autour de deux grandes étapes : - Réduire la dimension du problème en trouvant un résumé de la structure de dépendance dans les régions extrêmes. Cette étape vise en particulier à trouver les sous-groupes de composantes étant susceptible de dépasser un seuil élevé de façon simultané. - Modéliser la mesure angulaire par une densité de mélange qui suit une structure de dépendance déterminée à l’avance. Ces deux étapes permettent notamment de développer des méthodes de classification non-supervisée à travers la construction d’une matrice de similarité pour les points extrêmes.
- Published
- 2018
32. Apprentissage de structures dans les valeurs extrêmes en grande dimension
- Author
-
Chiapino, Maël, Laboratoire Traitement et Communication de l'Information (LTCI), Institut Mines-Télécom [Paris] (IMT)-Télécom Paris, Télécom ParisTech, François Roueff, and Anne Sabourin
- Subjects
Apprentissage non-supervisé ,[STAT.ML]Statistics [stat]/Machine Learning [stat.ML] ,Extreme value theory ,Dimension reduction ,Réduction de dimension ,Unsupervised learning ,Théorie des valeurs extrêmes ,Clustering - Abstract
We present and study unsupervised learning methods of multivariate extreme phenomena in high-dimension. Considering a random vector on which each marginal is heavy-tailed, the study of its behavior in extreme regions is no longer possible via usual methods that involve finite means and variances. Multivariate extreme value theory provides an adapted framework to this study. In particular it gives theoretical basis to dimension reduction through the angular measure. The thesis is divided in two main part: - Reduce the dimension by finding a simplified dependence structure in extreme regions. This step aim at recover subgroups of features that are likely to exceed large thresholds simultaneously. - Model the angular measure with a mixture distribution that follows a predefined dependence structure. These steps allow to develop new clustering methods for extreme points in high dimension.; Nous présentons et étudions des méthodes d’apprentissage non-supervisé de phénomènes extrêmes multivariés en grande dimension. Dans le cas où chacune des distributions marginales d’un vecteur aléatoire est à queue lourde, l’étude de son comportement dans les régions extrêmes (i.e. loin de l’origine) ne peut plus se faire via les méthodes usuelles qui supposent une moyenne et une variance finies. La théorie des valeurs extrêmes offre alors un cadre adapté à cette étude, en donnant notamment une base théorique à la réduction de dimension à travers la mesure angulaire. La thèse s’articule autour de deux grandes étapes : - Réduire la dimension du problème en trouvant un résumé de la structure de dépendance dans les régions extrêmes. Cette étape vise en particulier à trouver les sous-groupes de composantes étant susceptible de dépasser un seuil élevé de façon simultané. - Modéliser la mesure angulaire par une densité de mélange qui suit une structure de dépendance déterminée à l’avance. Ces deux étapes permettent notamment de développer des méthodes de classification non-supervisée à travers la construction d’une matrice de similarité pour les points extrêmes.
- Published
- 2018
33. Estimation de mesures de risque pour des distributions elliptiques conditionnées
- Author
-
Usseglio-Carleve, Antoine, Probabilités, statistique, physique mathématique (PSPM), Institut Camille Jordan [Villeurbanne] (ICJ), École Centrale de Lyon (ECL), Université de Lyon-Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université Jean Monnet [Saint-Étienne] (UJM)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS)-École Centrale de Lyon (ECL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS), Université de Lyon, Véronique Maume-Deschamps, and Didier Rulliere
- Subjects
Régression quantile ,Expectiles ,Expectile regression ,Extreme value theory ,Quantile regression ,Elliptical distributions ,Quantiles extrêmes ,Régression expectile ,[INFO.INFO-NA]Computer Science [cs]/Numerical Analysis [cs.NA] ,Distributions elliptiques ,Théorie des valeurs extrêmes ,Extreme quantiles - Abstract
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances; Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
- Published
- 2018
34. On the tait dependence of distributions
- Author
-
Aleiyouka, Mohalilou and STAR, ABES
- Subjects
Dépendance extrême ,Real-time DBMS ,Copula ,Theory of extreme values ,Extreme dependence ,Queue de dépendance ,Dependency Tail ,[MATH.MATH-MP] Mathematics [math]/Mathematical Physics [math-ph] ,Théorie des valeurs extrêmes ,Copules ,SGBD Temps réel - Abstract
The modeling of the dependence between several variables can focus either on the positive or negative correlation between the variables, or on other more effective ways, which determine the tails dependence of distributions.In this thesis, we are interested in the tail dependence of distributions, by presenting some properties and results. Firstly, we obtain the limit tail dependence coefficient for the generalized hyperbolic law according to different parameter values of this law. Then, we exhibit some properties and results of die extremal dependence coefficient in the case where the random variables follow a unitary Fréchet law.Finally, we present a Real Time Database ManagementSystems (RDBMS). The goal is to propose probabilistic models to study thebehavior of real-time transactions, in order to optimize its performance., Pour modéliser de la dépendance entre plusieurs variables peut s'appuyer soit sur la corrélation entre les variables, soit sur d'autres mesures, qui déterminent la dépendance des queues de distributions.Dans cette thèse, nous nous intéressons à la dépendance des queues de distributions, en présentant quelques propriétés et résultats.Dans un premier temps, nous obtenons le coefficient de dépendance de queue pour la loi hyperbolique généralisée selon les différentes valeurs de paramètres de cette loi.Ensuite, nous exposons des propriétés et résultats du coefficient de dépendance extrémale dans le cas où les variables aléatoires suivent une loi de Fréchet unitaire.Finalement, nous présentons un des systèmes de gestion de bases de données temps réel (SGBDTR). Le but étant de proposer des modèles probabilistes pour étudier le comportement des transactions temps réel, afin d'optimiser ses performances.
- Published
- 2018
35. Estimation of risk measures for conditioned elliptical distributions
- Author
-
Usseglio-Carleve, Antoine, STAR, ABES, Probabilités, statistique, physique mathématique (PSPM), Institut Camille Jordan [Villeurbanne] (ICJ), École Centrale de Lyon (ECL), Université de Lyon-Université de Lyon-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université Jean Monnet [Saint-Étienne] (UJM)-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS)-École Centrale de Lyon (ECL), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS), Université de Lyon, Véronique Maume-Deschamps, and Didier Rulliere
- Subjects
Régression quantile ,Expectiles ,[INFO.INFO-NA] Computer Science [cs]/Numerical Analysis [cs.NA] ,Expectile regression ,Extreme value theory ,Quantile regression ,Elliptical distributions ,Quantiles extrêmes ,[INFO.INFO-NA]Computer Science [cs]/Numerical Analysis [cs.NA] ,Régression expectile ,Distributions elliptiques ,Théorie des valeurs extrêmes ,Extreme quantiles - Abstract
This PhD thesis focuses on the estimation of some risk measures for a real random variable Y with a covariate vector X. For that purpose, we will consider that the random vector (X,Y) is elliptically distributed. In a first time, we will deal with the quantiles of Y given X=x. We thus firstly investigate a quantile regression model, widespread in the litterature, for which we get theoretical results that we discuss. Indeed, such a model has some limitations, especially when the quantile level is said extreme. Therefore, we propose another more adapted approach. Asymptotic results are given, illustrated by a simulation study and a real data example.In a second chapter, we focus on another risk measure called expectile. The structure of the chapter is essentially the same as that of the previous one. Indeed, we first use a regression model that is not adapted to extreme expectiles, for which a methodological and statistical approach is proposed. Furthermore, highlighting the link between extreme quantiles and expectiles, we realize that other extreme risk measures are closely related to extreme quantiles. We will focus on two families called Lp-quantiles and Haezendonck-Goovaerts risk measures, for which we propose extreme estimators. A simulation study is also provided. Finally, the last chapter is devoted to the case where the size of the covariate vector X is tall. By noticing that our previous estimators perform poorly in this case, we rely on some high dimensional estimation methods to propose other estimators. A simulation study gives a visual overview of their performances, Cette thèse s'intéresse à l'estimation de certaines mesures de risque d'une variable aléatoire réelle Y en présence d'une covariable X. Pour cela, on va considérer que le vecteur (X,Y) suit une loi elliptique. Dans un premier temps, on va s'intéresser aux quantiles de Y sachant X=x. On va alors tester d'abord un modèle de régression quantile assez répandu dans la littérature, pour lequel on obtient des résultats théoriques que l'on discutera. Face aux limites d'un tel modèle, en particulier pour des niveaux de quantile dits extrêmes, on proposera une nouvelle approche plus adaptée. Des résultats asymptotiques sont donnés, appuyés par une étude numérique puis par un exemple sur des données réelles. Dans un second chapitre, on s'intéressera à une autre mesure de risque appelée expectile. La structure du chapitre est sensiblement la même que celle du précédent, à savoir le test d'un modèle de régression inadapté aux expectiles extrêmes, pour lesquels on propose une approche méthodologique puis statistique. De plus, en mettant en évidence le lien entre les quantiles et expectiles extrêmes, on s'aperçoit que d'autres mesures de risque extrêmes sont étroitement liées aux quantiles extrêmes. On se concentrera sur deux familles appelées Lp-quantiles et mesures d'Haezendonck-Goovaerts, pour lesquelles on propose des estimateurs extrêmes. Une étude numérique est également fournie. Enfin, le dernier chapitre propose quelques pistes pour traiter le cas où la taille de la covariable X est grande. En constatant que nos estimateurs définis précédemment étaient moins performants dans ce cas, on s'inspire alors de quelques méthodes d'estimation en grande dimension pour proposer d'autres estimateurs. Une étude numérique permet d'avoir un aperçu de leurs performances
- Published
- 2018
36. Contributions to stochastic algorithm for Big Data and multivariate extreme value theory
- Author
-
Ho, Zhen Wai Olivier, HO, Zhen Wai Olivier, Laboratoire de Mathématiques de Besançon (UMR 6623) (LMB), Université de Bourgogne (UB)-Université de Franche-Comté (UFC), Université Bourgogne Franche-Comté [COMUE] (UBFC)-Université Bourgogne Franche-Comté [COMUE] (UBFC)-Centre National de la Recherche Scientifique (CNRS), Université Bourgogne Franche-Comté, Clément Dombry, and Stéphane Chrétien
- Subjects
Big Data ,Algorithmes Stochastiques ,Regular variation ,Extreme value theory ,Pareto distribution ,[MATH] Mathematics [math] ,Loi Hüsler-Reiss Pareto ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Hüsler-Reiss Pareto distribution ,Acquisition comprimée ,Compressed sensing ,Théorie des valeurs extrèmes ,Optimisation ,Variations régulières ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Stochastic Algorithm - Abstract
This thesis in divided in two parts. The first part studies models for multivariate extremes. We give a method to construct multivariate regularly varying random vectors. The method is based on a multivariate extension of a Breiman Lemma that states that a product $RZ$ of a random non negative regularly varying variable $R$ and a non negative $Z$ sufficiently integrable is also regularly varying. Replacing $Z$ with a random vector $Z$, we show that the product $RZ$ is regularly varying and we give a characterisation of its limit measure. Then, we show that taking specific distributions for $Z$, we obtain classical max-stable models. We extend our result to non-standard regular variations. Next, we show that the Pareto model associated with the Hüsler-Reiss max-stable model forms a full exponential family. We show some properties of this model and we give an algorithm for exact simulation. We study the properties of the maximum likelihood estimator. Then, we extend our model to non-standard regular variations. To finish the first part, we propose a numerical study of the Hüsler-Reiss Pareto model. In the second part, we start by giving a lower bound of the smallest singular value of a matrix perturbed by appending a column. Then, we give a greedy algorithm for feature selection and we illustrate this algorithm on a time series dataset. Secondly, we show that an incoherent matrix satisfies a weakened version of the NSP property. Thirdly, we study the problem of column selection of $X\in\mathbb{R}^{n \times p}$ given a coherence threshold $\mu$. This means we want the largest submatrix satisfying some coherence property. We formulate the problem as a linear program with quadratic constraint on $\{0,1\}^p$. Then, we consider a relaxation on the sphere and we bound the relaxation error. Finally, we study the projected stochastic gradient descent for online PCA. We show that in expectation, the algorithm converges to a leading eigenvector and we suggest an algorithm for step-size selection. We illustrate this algorithm with a numerical experiment., La thèse comporte deux parties distinctes. La première partie concerne des modèles pour les extrêmes multivariés. On donne une construction de vecteurs aléatoires multivariés à variations régulières. La construction se base sur une extension multivariée d'un lemme de Breiman établissant la propriété de variation régulière d'un produit $RZ$ de variable aléatoire avec $R$ positive à variation régulière et $Z$ positive suffisamment intégrable. En prenant $Z$ multivarié et suffisamment intégrable, on montre que $Z$ est un vecteur aléatoire à variations régulières et on caractérise sa mesure limite. On montre ensuite que pour $Z$ de loi bien choisie, on retrouve des modèles stables classiques comme le modèle t-extremal, Hüsler-Reiss, etc. Puis, on étend notre construction pour considérer la notion de variation régulière multivariée non standard. On montre ensuite que le modèle de Pareto (qu'on appelle Hüsler-Reiss Pareto) associé au modèle max-stable Hüsler-Reiss forme une famille exponentielle complète. On donne quelques propriétés du modèle Hüsler-Reiss Pareto puis on propose un algorithme de simulation exacte. On étudie l'inférence par le maximum de vraisemblance. Finalement, on considère une extension du modèle Hüsler-Reiss Pareto utilisant la notion de variation régulière non standard. On étudie l'inférence par le maximum de vraisemblance du modèle généralisé et on propose une méthode d'estimation des paramètres. On donne une étude numérique sur l'estimateur du maximum de vraisemblance pour le modèle Hüsler-Reiss Pareto. Dans la second partie qui concerne l'apprentissage statistique, on commence par donner une borne sur la valeur singulière minimale d'une matrice perturbée par l'ajout d'une colonne. On propose alors un algorithme de sélection de colonne afin d'extraire les caractéristiques de la matrice. On illustre notre algorithme sur des données réelles de séries temporelles où chaque série est pris comme étant une colonne de la matrice. Deuxièmement, on montre que si une matrice $X$ à une propriété d'incohérence alors $X$ possède aussi une version affaiblie de la propriété NSP (null space property). Puis, on s'intéresse au problème de sélection de matrice incohérente. A partir d'une matrice $X\in \mathbb{R}^{n \times p}$ et $\mu>0$, on cherche la plus grande sous-matrice de $X$ avec une cohérence inférieure à $\mu$. Ce problème est formulé comme un programme linéaire avec contrainte quadratique sur $\{0,1\}^p$. Comme ce problème est NP-dur, on considère une relaxation sur la sphère et on obtient une borne sur l'erreur lorsqu'on considère le problème relaxé. Enfin, on analyse l'algorithme de gradient stochastique projeté pour l'analyse en composante principale online. On montre qu'en espérance, l'algorithme converge vers un vecteur propre maximum et on propose un algorithme pour sélectionner le pas de l'algorithme. On illustre ensuite cet algorithme par une expérience de simulation.
- Published
- 2018
37. Approches de modélisation des extrêmes dans l'étude des relations entre la santé et la météo.
- Author
-
Chiu, Yohann Moanahere and Chiu, Yohann Moanahere
- Abstract
L’impact de la météo sur la santé humaine est reconnu et largement étudié. Toutefois, la grande majorité des travaux qui s’y consacrent font usage de l’ensemble des observations, en se concentrant sur le caractère global de l’impact qui se résume à travers la moyenne. Cela a pour effet de ne pas prendre en compte spécifiquement les phénomènes extrêmes tels que les pics sanitaires. Ces derniers représentent les extrêmes des variables sanitaires et surviennent à une fréquence rare, avec un impact fort sur le système de la santé publique. Leurs caractéristiques sont donc très différentes des phénomènes ordinaires. Ils nécessitent par conséquent des outils et examens spécialisés, ce qu’une modélisation de l’ensemble des observations ne fournit habituellement pas. De la même façon, les extrêmes météorologiques ne sont pas étudiés exclusivement en relation avec la santé dans un cadre de modélisation. Cette thèse a ainsi pour but principal l’étude des valeurs extrêmes dans les relations entre la santé et les conditions météorologiques à l’aide d’outils statistiques appropriés. En premier lieu, la théorie des valeurs extrêmes couplée à des modèles de régression non-paramétriques permettent d’étudier en détail les pics sanitaires ainsi que leurs relations avec la météo (pas nécessairement extrême). Les distributions extrêmes des pics sanitaires ainsi que les niveaux de retour associés sont en particulier estimés. Ensuite, la régression quantile offre une vision alternative de ces relations, grâce à un portrait complet évalué dans l’ensemble des quantiles de la distribution de la variable sanitaire. Elle met en lumière les impacts hétérogènes que peuvent avoir les variables météorologiques (pas nécessairement extrême) selon le quantile étudié. Finalement, la problématique inverse est abordée, celle des extrêmes météorologiques. Ils peuvent survenir dans un contexte univarié (p. ex. température) ou multivarié (p. ex. température et humidité). Leurs effets sur la santé sont enf
- Published
- 2017
38. Étude de l'application de la théorie des valeurs extrêmes pour l'estimation fiable et robuste du pire temps d'exécution probabiliste
- Author
-
Guet, Fabrice, Institut Supérieur de l'Aéronautique et de l'Espace, Morio, Jérôme, and Santinelli, Luca
- Subjects
Worst-case execution time ,Multicœur ,Time series ,Multicore ,Extreme value theory ,Série temporelle ,Théorie des valeurs extrêmes ,Real-time ,Temps réel ,Pire temps d'exécution - Abstract
Dans les systèmes informatiques temps réel, les tâches logicielles sont contraintes par le temps. Pour garantir la sûreté du système critique controlé par le système temps réel, il est primordial d'estimer de manière sûre le pire temps d'exécution de chaque tâche. Les performances des processeurs actuels du commerce permettent de réduire en moyenne le temps d'exécution des tâches, mais la complexité des composants d'optimisation de la plateforme rendent difficile l'estimation du pire temps d'exécution. Il existe différentes approches d'estimation du pire temps d'exécution, souvent ségréguées et difficilement généralisables ou au prix de modèles coûteux. Les approches probabilistes basées mesures existantes sont vues comme étant rapides et simples à mettre en œuvre, mais souffrent d'un manque de systématisme et de confiance dans les estimations qu'elles fournissent. Les travaux de cette thèse étudient les conditions d'application de la théorie des valeurs extrêmes à une suite de mesures de temps d'exécution pour l'estimation du pire temps d'exécution probabiliste, et ont été implémentées dans l'outil diagxtrm. Les capacités et les limites de l'outil ont été étudiées grâce à diverses suites de mesures issues de systèmes temps réel différents. Enfin, des méthodes sont proposées pour déterminer les conditions de mesure propices à l'application de la théorie des valeurs extrêmes et donner davantage de confiance dans les estimations. Software tasks are time constrained in real time computing systems. To ensure the safety of the critical systems that embeds the real time system, it is of paramount importance to safely estimate the worst-case execution time of each task. Modern commercial processors optimisation components enable to reduce in average the task execution time at the cost of a hard to determine task worst-case execution time. Many approaches for executing a task worst-case execution time exist but are usually segregated and hardly scalable, or by building very complex models. Measurement-based probabilistic timing analysis approaches are said to be easy and fast, but they suffer from a lack of systematism and confidence in their estimates. This thesis studies the applicability of the extreme value theory to a sequence of execution time measurements for the estimation of the probabilistic worst-case execution time, leading to the development of the diagxtrm tool. Thanks to a large panel of sequences of measurements from different real time systems, capabilities and limits of the tool are enlightened. Finally, a couple of methods are provided for determining measurements conditions that foster the application of the theory and raise more confidence in the estimates.
- Published
- 2017
39. Probabilistic study of end-to-end constraints in real-time systems
- Author
-
Maxim, Cristian, Models and methods of analysis and optimization for systems with real-time and embedded contraints (AOSTE2 ), Inria de Paris, Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Pierre et Marie Curie - Paris VI, Liliana Cucu, and STAR, ABES
- Subjects
[INFO.INFO-SY] Computer Science [cs]/Systems and Control [cs.SY] ,Theory of extreme values ,Probabilistic timing analysis ,Avionics ,[INFO.INFO-SY]Computer Science [cs]/Systems and Control [cs.SY] ,Temps-réel ,Probabilités ,Mesures ,Real-time ,Théorie des valeurs extrêmes ,Pire temps d'exécution - Abstract
In our times, we are surrounded by technologies meant to improve our lives, to assure its security, or programmed to realize different functions and to respect a series of constraints. We consider them as embedded systems or often as parts of cyber-physical systems. An embedded system is a microprocessor-based system that is built to control a function or a range of functions and is not designed to be programmed by the end user in the same way that a PC is. The Worst Case Execution Time (WCET) of a task represents the maximum time it can take to be executed. The WCET is obtained after analysis and most of the time it cannot be accurately determined by exhausting all the possible executions. This is why, in industry, the measurements are done only on a subset of possible scenarios (the one that would generate the highest execution times) and an execution time bound is estimated by adding a safety margin to the greatest observed time. Amongst all branches of real-time systems, an important role is played by the Critical Real-Time Embedded Systems (CRTES) domain. CRTESs are widely being used in fields like automotive, avionics, railway, health-care, etc. The performance of CRTESs is analyzed not only from the point of view of their correctness, but also from the perspective of time. In the avionics industry such systems have to undergo a strict process of analysis in order to fulfill a series of certification criteria demanded by the certifications authorities, being the European Aviation Safety Agency (EASA) in Europe or the Federal Aviation Administration (FAA) in United States. The avionics industry in particular and the real-time domain in general are known for being conservative and adapting to new technologies only when it becomes inevitable. For the avionics industry this is motivated by the high cost that any change in the existing functional systems would bring. Any change in the software or hardware has to undergo another certification process which cost the manufacturer money, time and resources. Despite their conservative tendency, the airplane producers cannot stay inactive to the constant change in technology and ignore the performance benefices brought by COTS processors which nowadays are mainly multi-processors. As a curiosity, most of the microprocessors found in airplanes flying actually in the world, have a smaller computation power than a modern home PC. Their chips-sets are specifically designed for embedded applications characterized by low power consumption, predictability and many I/O peripherals. In the actual context, where critical real-time systems are invaded by multi-core platforms, the WCET analysis using deterministic approaches becomes difficult, if not impossible. The time constraints of real-time systems need to be verified in the context of certification. This verification, done during the entire development cycle, must take into account architectures more and more complex. These architectures increase the cost and complexity of actual, deterministic, tools to identify all possible time constrains and dependencies that can occur inside the system, risking to overlook extreme cases. An alternative to these problems is the probabilistic approach, which is more adapted to deal with these hazards and uncertainty and which allows a precise modeling of the system. 2.Contributions. The contribution of the thesis is three folded containing the conditions necessary for using the theory of extremes on executions time measurements, the methods developed using the theory of extremes for analyzing real-time systems and experimental results. 2.1. Conditions for use of EVT in the real-time domain. In this chapter we establish the environment in which our work is done. The use of EVT in any domain comes with a series of restrictions for the data being analyzed. In our case the data being analyzed consists in execution time measurements., L'interaction sociale, l'éducation et la santé ne sont que quelques exemples de domaines dans lesquels l'évolution rapide de la technologie a eu un grand impact sur la qualité de vie. Les entreprises s’appuient de plus en plus sur les systèmes embarqués pour augmenter leur productivité, leur efficacité et leurs valeurs. Dans les usines, la précision des robots tend à remplacer la polyvalence humaine. Bien que les appareils connectés comme les drônes, les montres intelligentes ou les maisons intelligentes soient de plus en plus populaires ces dernières années, ce type de technologie a été utilisé depuis longtemps dans les industries concernées par la sécurité des utilisateurs. L’industrie avionique utilise des ordinateurs pour ses produits depuis 1972 avec la production du premier avion A300; elle a atteint des progrès étonnants avec le développement du premier avion Concorde en 1976 en dépassant de nombreuses années les avions de son époque, et ça a été considéré comme un miracle de la technologie. Certaines innovations et connaissances acquises pour le Concorde sont toujours utilisées dans les modèles récents comme A380 ou A350. Un système embarqué est un système à microprocesseur qui est construit pour contrôler une fonction ou une gamme de fonctions et qui n’est pas conçu pour être programmé par l'utilisateur final de la même manière qu'un ordinateur personnel. Un système temps-réel est un système de traitement de l’information qui doit répondre aux stimuli d’entrées générées de manière externe dans une période finie et spécifiée. Le comportement de ces systèmes prend en compte non seulement l'exactitude dépend non seulement du résultat logique mais aussi du temps dans lequel il a été livré. Les systèmes temps-réel peuvent être trouvés dans des industries comme l'aéronautique, l'aérospatiale, l'automobile ou l’industrie ferroviaire mais aussi dans les réseaux de capteurs, les traitements d'image, les applications multimédias, les technologies médicales, les robotiques, les communications, les jeux informatiques ou les systèmes ménagers. Dans cette thèse, nous nous concentrons sur les systèmes temps-réel embarqués et pour la facilité des notations, nous leur nommons simplement des systèmes temps réel. Nous pourrions nous référer aux systèmes cyber-physiques si tel est le cas. Le pire temps d’exécution (WCET) d'une tâche représente le temps maximum possible pour qu’elle soit exécutée. Le WCET est obtenu après une analyse de temps et souvent il ne peut pas être déterminé avec précision en déterminant toutes les exécutions possibles. C'est pourquoi, dans l'industrie, les mesures sont faites uniquement sur un sous-ensemble de scénarios possibles, celui qui générerait les temps d'exécution les plus élevés, et une limite supérieure de temps d’exécution est estimé en ajoutant une marge de sécurité au plus grand temps observé. L’analyses de temps est un concept clé qui a été utilisé dans les systèmes temps-réel pour affecter une limite supérieure aux WCET des tâches ou des fragments de programme. Cette affectation peut être obtenue soit par analyse statique, soit par analyse des mesures. Les méthodes statiques et par mesure, dans leurs approches déterministes, ont tendance à être extrêmement pessimistes. Malheureusement, ce niveau de pessimisme et le sur-provisionnement conséquent ne peut pas être accepté par tous les systèmes temps-réels, et pour ces cas, d'autres approches devraient être prises en considération.
- Published
- 2017
40. Calcul de probabilités d'événements rares liés aux maxima en horizon fini de processus stochastiques
- Author
-
Shao, Jun, Institut Pascal (IP), SIGMA Clermont (SIGMA Clermont)-Université Clermont Auvergne [2017-2020] (UCA [2017-2020])-Centre National de la Recherche Scientifique (CNRS), Université Blaise Pascal - Clermont-Ferrand II, Michel Fogli, David Clair, and STAR, ABES
- Subjects
[SPI.OTHER]Engineering Sciences [physics]/Other ,Maxima de processus stochastiques ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Rare events ,"Approximation bas niveau-extrapolation haut niveau" ,Low "level approximation-high level extrapolation" ,Événements rares ,Extreme values theory ,Maxima of stochastic processes ,Théorie des valeurs extrêmes - Abstract
Initiated within the framework of an ANR project (the MODNAT project) targeted on the stochastic modeling of natural hazards and the probabilistic quantification of their dynamic effects on mechanical and structural systems, this thesis aims at the calculation of probabilities of rare events related to the maxima of stochastic processes over a finite time interval, taking into account the following four constraints : (1) the set of considered processes must contain the four main categories of processes encountered in random dynamics, namely stationary Gaussian, non-stationary Gaussian, stationary non-Gaussian and non-stationary non-Gaussian ones ; (2) these processes can be either described by their distributions, or functions of processes described by their distributions, or solutions of stochastic differential equations, or solutions of stochastic differential inclusions ; (3) the events in question are crossings of high thresholds by the maxima of the considered processes over finite time intervals and these events are of very weak occurrence, hence of very small probability, due to the high size of thresholds ; and finally (4) the use of a Monte Carlo approach to perform this type of calculation must be proscribed because it is too time-consuming given the above constraints.To solve such a problem, whose field of interest extends well beyond probabilistic mechanics and structural reliability (it is found in all scientific domains in connection with the extreme values theory, such as financial mathematics or economical sciences), an innovative method is proposed, whose main idea emerged from the analysis of the results of a large-scale statistical study carried out within the MODNAT project. This study, which focuses on analyzing the behavior of the extreme values of elements of a large set of processes, has indeed revealed two germ functions explicitly related to the target probability (the first directly related, the second indirectly via a conditional auxiliary probability which itself depend on the target probability) which possess remarkable and recurring regularity properties for all the processes of the database, and the method is based on the joint exploitation of these properties and a "low level approximation-high level extrapolation" principle. Two versions of this method are first proposed, which are distinguished by the choice of the germ function and in each of which the latter is approximated by a polynomial. A third version has also been developed. It is based on the formalism of the second version but which uses as germ function an approximation of "Pareto survival function" type.The numerous presented numerical results attest to the remarkable effectiveness of the first two versions. They also show that they are of comparable precision. The third version, slightly less efficient than the first two, presents the interest of establishing a direct link with the extreme values theory. In each of its three versions, the proposed method is clearly an improvement compared to current methods dedicated to this type of problem. Thanks to its structure, it also offers the advantage of remaining operational in industrial context., Initiée dans le cadre d’un projet ANR (le projet MODNAT) ciblé sur la modélisation stochastique de phénomènes naturels et la quantification probabiliste de leurs effets dynamiques sur des systèmes mécaniques et structuraux, cette thèse a pour objet le calcul de probabilités d’événements rares liés aux maxima en horizon fini de processus stochastiques, avec prise en compte des quatre contraintes imposées suivantes : (1) l’ensemble des processus considérés doit contenir les quatre grandes catégories de processus rencontrés en dynamique aléatoire, à savoir les gaussiens stationnaires, les gaussiens non stationnaires, les non gaussiens stationnaires et les non gaussiens non stationnaires ; (2) ces processus doivent pouvoir être, soit décrits par leurs lois, soit fonctions de processus décrits par leurs lois, soit solutions d’équations différentielles stochastiques, soit même solutions d’inclusions différentielles stochastiques ; (3) les événements en question sont des dépassements de seuils très élevés par les maxima en horizon fini des processus considérés et ces événements sont de très faible occurrence, donc de très faible probabilité (de l’ordre de 10 −4 à 10 −8 ), du fait de la valeur élevée des seuils ; et enfin (4) le recours à une approche Monte-Carlo pour effectuer ce type de calcul doit être banni, car trop chronophage compte tenu des contraintes précédentes. Pour résoudre un tel problème, dont le domaine d’intérêt s’étend bien au delà de la mécanique probabiliste et de la fiabilité structurale (on le rencontre notamment dans tous les secteurs scientifiques en connexion avec la statistique des valeurs extrêmes, comme par exemple les mathématiques financières ou les sciences économiques) une méthode innovante est proposée, dont l’idée maîtresse est née de l’analyse des résultats d’une étude statistique de grande ampleur menée dans le cadre du projet MODNAT. Cette étude, qui porte sur l’analyse du comportement des valeurs extrêmes des éléments d’un vaste ensemble de processus, a en effet mis en évidence deux fonctions germes dépendant explicitement de la probabilité cible (la première en dépendant directement, la seconde indirectement via une probabilité conditionnelle auxiliaire elle-même fonction de la probabilité cible) et possédant des propriétés de régularité remarquables et récurrentes pour tous les processus de la base de données, et c’est sur l’exploitation conjointe de ces propriétés et d’un principe d’approximation bas niveau-extrapolation haut niveau que s’appuie la construction de la méthode. Deux versions de celle-ci en sont d’abord proposées, se distinguant par le choix de la fonction germe et dans chacune desquelles cette fonction est approximée par un polynôme. Une troisième version est également développée, basée sur le formalisme de la deuxième version mais utilisant pour la fonction germe une approximation de type "fonction de survie de Pareto".Les nombreux résultats numériques présentés attestent de la remarquable efficacité des deux premières versions. Ils montrent également que celles-ci sont de précision comparable. La troisième version, légèrement moins performante que les deux premières, présente quant à elle l’intérêt d’établir un lien direct avec la théorie des valeurs extrêmes. Dans chacune de ses trois versions, la méthode proposée constitue à l’évidence un progrès par rapport aux méthodes actuelles dédiées à ce type de problème. De par sa structure, elle offre en outre l’avantage de rester opérationnelle en contexte industriel.
- Published
- 2016
41. Sampling and inference in complex networks
- Author
-
Kazhuthuveettil Sreedharan, Jithin, Models for the performance analysis and the control of networks (MAESTRO), Inria Sophia Antipolis - Méditerranée (CRISAM), Institut National de Recherche en Informatique et en Automatique (Inria)-Institut National de Recherche en Informatique et en Automatique (Inria), Université Côte d'Azur, and Konstantin Avrachenkov
- Subjects
Random walks on graph ,Apprentissage par renforcement ,Échantillonnage de réseau ,Extreme value theory ,Reinforcement learning ,[INFO.INFO-OH]Computer Science [cs]/Other [cs.OH] ,Marches aléatoires sur le graphique ,Network sampling ,Théorie des valeurs extrêmes - Abstract
The recent emergence of large networks, mainly due to the rise of online social networks, brought out the difficulty to gather a complete picture of a network and it prompted the development of new distributed techniques. In this thesis, we design and analyze algorithms based on random walks and diffusion for sampling, estimation and inference of the network functions, and for approximating the spectrum of graph matrices. The thesis starts with the classical problem of finding the dominant eigenvalues and the eigenvectors of symmetric graph matrices like Laplacian of undirected graphs. Using the fact that the eigenspectrum is associated with a Schrödinger-type differential equation, we develop scalable techniques with diffusion over the graph and with gossiping algorithms. They are also adaptable to a simple algorithm based on quantum computing. Next, we consider sampling and estimation of network functions (sum and average) using random walks on graph. In order to avoid the burn-in time of random walks, with the idea of regeneration at its revisits to a fixed node, we develop an estimator for the aggregate function which is non-asymptotically unbiased and derive an approximation to its Bayesian posterior. An estimator based on reinforcement learning is also developed making use of regeneration. The final part of the thesis deals with the use of extreme value theory to make inference from the stationary samples of the random walks. Extremal events such as first hitting time of a large degree node, order statistics and mean cluster size are well captured in the parameter “extremal index”. We theoretically study and estimate extremal index of different random walk sampling techniques; L’émergence récente de grands réseaux, surtout réseaux sociaux en ligne (OSN), a révélé la difficulté de crawler le réseau complet et a déclenché le développement de nouvelles techniques distribuées. Dans cette thèse, nous concevons et analysons des algorithmes basés sur les marches aléatoires et la diffusion pour l'échantillonnage, l'estimation et l'inférence des fonctions des réseaux. La thèse commence par le problème classique de trouver les valeurs propres dominants et leurs vecteurs propres de matrices de graphe symétriques, comme la matrice Laplacienne de graphes non orientés. En utilisant le fait que le spectre est associé à une équation de type différentiel Schrödinger, nous développons des techniques évolutives à l’aide de la diffusion sur le graphe. Ensuite, nous considérons l’échantillonnage des fonctions de réseau (comme somme et moyenne) en utilisant les marches aléatoires sur le graphe. Afin d'éviter le temps «burn-in» de marche aléatoire, avec l'idée de régénération à un nœud fixe, nous développons un estimateur de la fonction de somme qui est non asymptotiquement non-biaisé et dérivons une approximation à la postérieure Bayésienne. La dernière partie de la thèse étudie l'application de la théorie des valeurs extrêmes pour faire une inférence sur les événements extrêmes à partir des échantillons stationnaires des différentes marches aléatoires pour l’échantillonnage de réseau
- Published
- 2016
42. Modelling the dependence structure of multivariate and spatial extremes
- Author
-
Béranger, Boris, Laboratoire de Statistique Théorique et Appliquée (LSTA), Centre National de la Recherche Scientifique (CNRS)-Université Pierre et Marie Curie - Paris 6 (UPMC), Université Pierre et Marie Curie - Paris VI, University of New South Wales, Michel Broniatowski, Scott Sisson, Université Pierre et Marie Curie - Paris 6 (UPMC)-Centre National de la Recherche Scientifique (CNRS), and STAR, ABES
- Subjects
Distributions asymétriques ,Max-Stable processes ,Analyse exploratoire de données ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,Multivariate extreme ,Extreme value theory ,Processus Max-Stables ,Extrêmes multivariés ,Estimateurs à noyau ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] ,Théorie des valeurs extrêmes - Abstract
Projection of future extreme events is a major issue in a large number of areas including the environment and risk management. Although univariate extreme value theory is well understood, there is an increase in complexity when trying to understand the joint extreme behavior between two or more variables. Particular interest is given to events that are spatial by nature and which define the context of infinite dimensions. Under the assumption that events correspond marginally to univariate extremes, the main focus is then on the dependence structure that links them. First, we provide a review of parametric dependence models in the multivariate framework and illustrate different estimation strategies. The spatial extension of multivariate extremes is introduced through max-stable processes. We derive the finite-dimensional distribution of the widely used Brown-Resnick model which permits inference via full and composite likelihood methods. We then use Skew-symmetric distributions to develop a spectral representation of a wider max-stable model: the extremal Skew-t model from which most models available in the literature can be recovered. This model has the nice advantages of exhibiting skewness and nonstationarity, two properties often held by environmental spatial events. The latter enables a larger spectrum of dependence structures. Indicators of extremal dependence can be calculated using its finite-dimensional distribution. Finally, we introduce a kernel based non-parametric estimation procedure for univariate and multivariate tail density and apply it for model selection. Our method is illustrated by the example of selection of physical climate models., La prédiction de futurs évènements extrêmes est d’un grand intérêt dans de nombreux domaines tels que l’environnement ou la gestion des risques. Alors que la théorie des valeurs extrêmes univariées est bien connue, la complexité s’accroît lorsque l’on s’intéresse au comportement joint d’extrêmes de plusieurs variables. Un intérêt particulier est porté aux évènements de nature spatiale, définissant le cadre d’un nombre infini de dimensions. Sous l’hypothèse que ces évènements soient marginalement extrêmes, nous focalisons sur la structure de dépendance qui les lie. Dans un premier temps, nous faisons une revue des modèles paramétriques de dépendance dans le cadre multivarié et présentons différentes méthodes d’estimation. Les processus maxstables permettent l’extension au contexte spatial. Nous dérivons la loi en dimension finie du célèbre modèle de Brown- Resnick, permettant de faire de l’inférence par des méthodes de vraisemblance ou de vraisemblance composée. Nous utilisons ensuite des lois asymétriques afin de définir la représentation spectrale d’un modèle plus large : le modèle Extremal Skew-t, généralisant la plupart des modèles présents dans la littérature. Ce modèle a l’agréable propriété d’être asymétrique et non-stationnaire, deux notions présentées par les évènements environnementaux spatiaux. Ce dernier permet un large spectre de structures de dépendance. Les indicateurs de dépendance sont obtenus en utilisant la loi en dimension finie.Enfin, nous présentons une méthode d’estimation non-paramétrique par noyau pour les queues de distributions et l’appliquons à la sélection de modèles. Nous illustrons notre méthode à partir de l’exemple de modèles climatiques.
- Published
- 2016
43. Avalanche risk evaluation and protective dam optimal design using extreme value statistics
- Author
-
P. Favier, Nicolas Eckert, David Bertrand, Mohamed Naaim, Thierry Faug, Erosion torrentielle neige et avalanches (UR ETGR (ETNA)), Institut national de recherche en sciences et technologies pour l'environnement et l'agriculture (IRSTEA), Laboratoire de Génie Civil et d'Ingénierie Environnementale (LGCIE), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon-Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA), FONDAP Center for Genome Regulation (CGR), Comisión Nacional de Investigación Científica y Tecnológica [CONICYT], The University of Sydney, French National Research Agency (ANR), MAP3 Alcotra Interreg program, and People Programme (Marie Curie Actions) of the European Unions Seventh Framework Programme under REA grant : 622899
- Subjects
Hazard (logic) ,Optimal design ,EVALUATION DU RISQUE ,Mathematical optimization ,DIMENSIONNEMENT ,010504 meteorology & atmospheric sciences ,design ,0211 other engineering and technologies ,DIGUE PARAVALANCHE ,Context (language use) ,02 engineering and technology ,avalanche protection dam ,01 natural sciences ,symbols.namesake ,Generalized Pareto distribution ,Statistics ,[SPI.GCIV.RISQ]Engineering Sciences [physics]/Civil Engineering/Risques ,[SDU.STU.GL]Sciences of the Universe [physics]/Earth Sciences/Glaciology ,Sensitivity (control systems) ,Extreme value theory ,0105 earth and related environmental sciences ,Earth-Surface Processes ,Flexibility (engineering) ,021110 strategic, defence & security studies ,[SDE.IE]Environmental Sciences/Environmental Engineering ,Abscissa ,THEORIE DES VALEURS EXTREMES ,symbols ,avalanches ,AVALANCHE ,Geology - Abstract
In snow avalanche long-term forecasting, existing risk-based methods remain difficult to use in a real engineering context. In this work, we expand a quasi analytical decisional model to obtain simple formulae to quantify risk and to perform the optimal design of an avalanche dam in a quick and efficient way. Specifically, the exponential runout model is replaced by the Generalized Pareto distribution (GPD), which has theoretical justifications that promote its use for modelling the different possible runout tail behaviours. Regarding the defence structure/flow interaction, a simple law based on kinetic energy dissipation is compared with a law based on the volume stored upstream of the dam, whose flexibility allows us to cope with various types of snow. We show how a detailed sensitivity study can be conducted, leading to intervals and bounds for risk estimates and optimal design values. Application to a typical case study from the French Alps, highlights potential operational difficulties and how they can be tackled. For instance, the highest sensitivity to the runout tail type and interaction law is found at abscissas of legal importance for hazard zoning (return periods of 10–1000 a), a crucial result for practical purposes.
- Published
- 2016
- Full Text
- View/download PDF
44. Contributions à l'évaluation des risques en assurance tempête et automobile
- Author
-
Mornet, Alexandre, Laboratoire de Sciences Actuarielle et Financière (SAF), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon, Université Claude Bernard - Lyon I, Stéphane Loisel, Jean-Claude Augros, and STAR, ABES
- Subjects
Solvency II ,Storm index ,Indice tempête ,Volatilité ,Besoins en fonds propres ,Extreme value theory ,Assurance ,Gestion des riques ,Return period ,Wind speed ,Insurance ,Dépendance extrême ,Extreme dependence ,Période de retour ,[SHS.GESTION]Humanities and Social Sciences/Business administration ,Pay-as-you-drive ,[SHS.GESTION] Humanities and Social Sciences/Business administration ,Théorie des valeurs extrêmes - Abstract
In this Ph.D. Dissertation we study the storm guarantee dedicated to the damage caused by the wind and a development of the behavioral insurance through the automobile risk. We associate external information like the wind speed to insurance data. We propose the construction of a storm index to complete and strengthen the evaluation of the damages caused by the major storms. Then we define a partition of the French territory in 6 zones storms, depending on extreme wind correlations to test several scenarios. These various tests and considerations allow us to improve our storm index. We lean on extreme value theory models to show the impact of the variability on the calculation of return periods and capital requirements. We underline the difficulties to obtain strong results in connection with the extreme events. Concerning car insurance, we test various methods to answer the technical and legal evolutions. We characterize the man/woman partition by using the logistic procedure, the multiple correspondence analysis or the classification trees. We show that it is possible to compensate for the absence of the sex variable with other information specific to the insurants or to their vehicle and in particular the use of kilometric data. Finally, we are interested in the acquired experience by young drivers. We study the behavior on the road of the insurants to create new classes of risks, Dans cette thèse, nous étudions la garantie tempête consacrée aux dommages causés par le vent et un développement de l'assurance comportementale à travers le risque automobile. Nous associons des informations extérieures comme la vitesse du vent aux données de l'assurance. Nous proposons la construction d'un indice tempête pour compléter et renforcer l'évaluation des dégâts causés par les tempêtes majeures. Nous définissons ensuite un partage du territoire français en 6 zones tempêtes, dépendant des corrélations extrêmes de vent, pour tester plusieurs scénarios. Ces différents tests et considérations nous permettent d'améliorer notre indice tempête. Nous nous appuyons sur les modèles de la théorie des valeurs extrêmes pour montrer l'impact de la variabilité sur le calcul des périodes de retour et besoins en fonds propres. Nous soulignons ainsi les difficultés rencontrées pour dégager des résultats robustes en lien avec les évènements extrêmes. Pour ce qui est de l'assurance automobile, nous testons différentes méthodes pour répondre aux évolutions techniques et réglementaires. Nous caractérisons la partition homme / femme en utilisant la procédure logistique, l'analyse des correspondances multiples ou les arbres de classification. Nous montrons qu'il est possible de compenser l'absence de la variable sexe par d'autres informations spécifiques à l'assuré ou à son véhicule et en particulier l'utilisation de relevés kilométriques. Enfin, nous nous intéressons à l'expérience acquise par les conducteurs novices. Nous étudions le comportement sur la route de l'assuré pour créer de nouvelles classes de risques
- Published
- 2015
45. Concentration results on extreme value theory
- Author
-
Thomas, Maud, Laboratoire de Probabilités et Modèles Aléatoires (LPMA), Université Pierre et Marie Curie - Paris 6 (UPMC)-Université Paris Diderot - Paris 7 (UPD7)-Centre National de la Recherche Scientifique (CNRS), Univeristé Paris Diderot Paris 7, Stéphane Boucheron, and Thomas, Maud
- Subjects
statistiques d'ordre ,[MATH.MATH-PR] Mathematics [math]/Probability [math.PR] ,inégalités de concentration ,[STAT.AP]Statistics [stat]/Applications [stat.AP] ,extreme value theory ,[STAT] Statistics [stat] ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,[STAT]Statistics [stat] ,[STAT.AP] Statistics [stat]/Applications [stat.AP] ,order statistics ,concentration inequalities ,[MATH.MATH-ST]Mathematics [math]/Statistics [math.ST] ,théorie des valeurs extrêmes ,[MATH.MATH-ST] Mathematics [math]/Statistics [math.ST] - Abstract
Since univariate extreme value theory is essentially based on asymptotic theorems, the elaboration of adaptive estimation procedures or oracle inequalities is challenging. The purpose of this thesis is to show how the development of concentration inequalities in extreme value theory allows us to derive oracle type results. } The first chapter gathers the principal results on order statistics, extreme value theory and concentration theory. Chapters 2 and 3 represent a joint work with Stéphane Boucheron: the first chapter presents concentration inequalities for order statistics of a sample of random variables; the second chapter deals with the development of an adaptive version of the Hill estimator based on non asymptotic bounds of this estimator. Chapter 4 summarises the work done in collaboration with epidemiologists on the application of extreme value theory to the example of influenza epidemics., La théorie statistique univariée des valeurs extrêmes repose essentiellement sur des théorèmes asymptotiques rendant délicate l'élaboration de procédures d'estimation adaptatives, voire d'inégalités oracle. Le but de cette thèse est de montrer comment le développement d'inégalités de concentration en théorie des valeurs extrêmes permet d'établir des résultats de type oracle. Le premier chapitre rappelle les résultats principaux concernant les statistiques d'ordre, la théorie univariée des valeurs extrêmes et la théorie de la concentration. Les trois prochains chapitres réunissent les trois articles écrits au cours de cette thèse. Les chapitres 2 et 3 présentent des travaux en collaboration avec Stéphane Boucheron : le premier propose des inégalités de concentration pour les statistiques d'ordre d'un échantillon de variables aléatoires ; le deuxième s'intéresse au développement d'une version adaptative de l'estimateur de Hill, après avoir établi des bornes non-asymptotiques pour cet estimateur. Le chapitre 4 est un travail en collaboration avec des épidémiologistes. Il consiste en une application de la théorie des valeurs extrêmes à l'exemple particulier des épidémies de grippe.
- Published
- 2015
46. Dynamical aspects of a moving front model of mean-field type
- Author
-
Cortines, Aser, Cortines, Aser, Laboratoire de Probabilités et Modèles Aléatoires (LPMA), Université Pierre et Marie Curie - Paris 6 (UPMC)-Université Paris Diderot - Paris 7 (UPD7)-Centre National de la Recherche Scientifique (CNRS), Paris 7, and Francis Comets
- Subjects
[MATH.MATH-PR] Mathematics [math]/Probability [math.PR] ,extreme value theory ,percolation de premier passage ,first-passage percolation ,vélocité de propagation d'un front ,[MATH] Mathematics [math] ,coalescent ,[MATH.MATH-PR]Mathematics [math]/Probability [math.PR] ,Branching processes ,front propagation speed ,Processus branchants ,[MATH]Mathematics [math] ,théorie des valeurs extrêmes ,séléction - Abstract
We focus on the discrete-time stochastic model studied by E. Brunet and B. Derrida in 2004: a fixed number $N$ of particles evolve on the real line according to a branching/selection mechanism. The particles remain grouped and move like a travelling-front driven by a random noise. Besides its the mathematical interest, moving fronts describe, for example, the evolution of systems having two different species $X$ and $Y$ of particles, reacting according to the irreversible auto-catalytic rule $X+Y \to 2X$. The model here is of mean-field type and the particles can also be interpreted as the last passage time in directed percolation on $\{1, \ldots, N\}$. It has been proved by F. Comets, J. Quastel and A. Ram\'irez in 2013 that the front moves globally at a deterministic \emph{speed} and that fluctuation occur in the diffusive scale $\sqrt{t}$. In this thesis, we compute the asymptotic speed as $N \to \infty$ for a large class of random disorders. We prove that the finite-size correction to the \emph{speed} satisfies \emph{universal features} depending on the upper-tail probabilities. For a certain class of noise, the techniques we have developed also allow to compute the asymptotic diffusion constant. From a different perspective, one can also interpret the model as the dynamics of a constant size population, the positions being the fitnesses of the individuals. In this case, we focus on how individuals are related and how many generation one has to go back in time in order to find a common ancestor. For a specific choice of disorder, we show that the average coalescence times scale like $\ln N$ and that the limit genealogical trees are governed by the Bolthausen-Sznitman coalescent, which validates the physics predictions for this class of models., On \'etudie un mod\`ele stochastique en temps discret introduit par E. Brunet et B. Derrida en 2004 : un nombre fixe $N$ de particules \'evolue sur la droite r\'eelle selon un m\'ecanisme de mutation, branchement et s\'election. Les particules restent group\'ees et se d\'eplacent comme un front soumis \`a un bruit al\'eatoire. Au-del\`a de leur int\'er\^et math\'ematique, ces types de front d\'ecrivent, par exemple, l'\'evolution d'un syst\`eme ayant deux diff\'erents types de particules $X$ et $Y$, r\'eagissant selon une r\`egle d'auto catalyse irr\'eversible $X+Y \to 2X$. Le mod\`ele \'etudi\'e est du type champ moyen et les particules peuvent \^etre interpr\'et\'ees comme la percolation de dernier passage sur le graphe $\{1, \ldots, N\}$. Il a \'et\'e prouv\'e par F. Comets, J. Quastel et A. Ramirez en 2013 que le front \'evolue globalement \`a une vitesse determin\'ee et que les perturbations apparaissent dans une \'echelle de temps $\sqrt{t}$. Dans cette th\`ese, on calcule la vitesse asymptotique quand $N \to \infty$ pour une large classe de bruits al\'eatoires. On prouve ainsi que le premier terme dans le d\'eveloppement limit\'e de la vitesse satisfait des propri\'et\'es universelles ne dependant que de la queue droite de la probabilit\'e de $\xi$. On peut \'egalement interpr\'eter le mod\`ele comme \'etant la dynamique d'une population de taille constante, les positions repr\'esentant alors les caract\'eristiques g\'en\'etiques de chaque individu. Dans ce cas, on s'int\'eresse \`a la mani\`ere dont les individus sont reli\'es entre eux et combien de g\'en\'erations doit-on remonter dans le temps afin de leur trouver un anc\^etre commun. Pour une loi particuli\`ere du bruit, on montre que l'\'echelle de temps de coalescence moyenne est donn\'ee par $\ln N$ et que l'arbre g\'en\'ealogique du mod\`ele converge en loi vers le processus de coalescence de Bolthausen-Sznitman, ce qui confirme les pr\'edictions physiques pour cette classe de mod\`eles.
- Published
- 2015
47. Analyse régionale des aléas maritimes extrêmes
- Author
-
Weiss, Jérôme, Laboratoire d'Hydraulique Saint-Venant / Saint-Venant Laboratory for Hydraulics (Saint-Venant), École des Ponts ParisTech (ENPC)-PRES Université Paris-Est-EDF (EDF)-Avant création Cerema, Université Paris-Est, Michel Benoit, and STAR, ABES
- Subjects
Marine hazards ,Analyse fréquentielle régionale ,Regional frequency analysis ,Extreme value theory ,[SPI.MECA.MEFL] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Fluids mechanics [physics.class-ph] ,Aléas maritimes ,Théorie des valeurs extrêmes ,[SPI.MECA.MEFL]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Fluids mechanics [physics.class-ph] - Abstract
The knowledge of the probability of occurrence of oceano-Meteorological extremes is essential to prevent risks of coastal flooding or to build coastal protections or off-Shore structures. In particular, the concept of return level is frequently used in coastal engineering to design protection structures. These levels, whose return periods of interest generally lie between 100 and 1000 years, are usually estimated by a local statistical analysis, from data observed at a unique site. However, the period of observation is generally limited, which can imply high uncertainties for high return levels. Regional frequency analysis is a possible solution to reduce uncertainties inherent to local analyses. The principle is to exploit the information of sites of observation from a homogeneous region, where extremes are supposed to share a similar probabilistic behavior. Thus, regional frequency analysis can estimate return levels more accurately than a local analysis. However, its application to the marine field being relatively limited and recent, several methodological questions are still unsolved, such as the formation of homogeneous regions or the dependence between sites. The scientific objective of this thesis is thus to develop some methodological points of regional frequency analysis, in the framework of extreme marine hazards. The following questions are tackled:• Sampling of extremes for regional analysis, from the storms detected through a spatiotemporal declustering procedure.• Formation of homogeneous regions from a method based on the identification of the typical storms footprints.• Consideration of the dependence between sites of observation, through the building of a model allowing, for example, to assess the regional effective duration or the regional return period of a storm.• Specification and estimation of the regional distribution, with the incorporation of influent covariables, such as the season of occurrence or the direction for waves.• Comparison between regional and local analyses, especially through the uncertainties on the estimated extremes and the ability to model the potential outliers. These aspects are illustrated on significant wave height data and skew surge data located in the Northeast Atlantic, the Eastern Channel and the North Sea. At the same time, the industrial objective of this work is to contribute to guarantee the safety of EDF structures against the risk of coastal flooding. This can be achieved through the exploration of new techniques of estimation of extreme marine hazards such as regional frequency analysis, which allows in particular a better representation of outliers, Connaître la probabilité d'occurrence des aléas océano-météorologiques extrêmes est fondamental pour prévenir les risques de submersion marine en zone côtière ou concevoir des aménagements côtiers, portuaires ou des plate-formes offshore. Notamment, le concept de niveau de retour est fréquemment utilisé en ingénierie côtière pour dimensionner des ouvrages de protection. Ces niveaux, dont les périodes de retour d'intérêt se situent généralement entre 100 et 1000 ans, sont habituellement estimés par une analyse statistique locale, à partir de données observées en un site unique. Cependant, la période d'observation est généralement limitée, de sorte que les incertitudes associées aux niveaux de retour élevés sont importantes. L'analyse régionale représente une solution possible pour réduire les incertitudes inhérentes aux analyses locales. Le principe est d'exploiter l'information de sites d'observation provenant d'une région homogène, où les extrêmes sont supposés avoir un comportement probabiliste similaire. L'analyse régionale peut ainsi estimer les niveaux de retour de manière plus fiable qu'une analyse locale. Cependant, son application dans le domaine maritime étant relativement limitée et récente, différentes questions méthodologiques de meurent non-Résolues, comme la formation des régions homogènes ou le traitement de la dépendance entre sites. L'objectif scientifique de la thèse est donc d'approfondir certains points méthodologiques de l'analyse régionale, dans le cadre des aléas maritimes extrêmes. Les points suivants sont abordés en particulier :• Échantillonnage des extrêmes pour l'analyse régionale, à partir des tempêtes détectées via une procédure de declustering spatio-Temporel.• Formation de régions homogènes à partir d'une méthode basée sur l'identification des empreintes typiques des tempêtes.• Prise en compte de la dépendance entre sites d'observation, à travers la construction d'un modèle permettant par exemple d'évaluer la durée effective régionale d'observation ou la période de retour régionale d'une tempête.• Spécification et estimation de la loi régionale, avec incorporation des co-variables influentes, comme la saison d'occurrence ou la direction de provenance pour les vagues.• Comparaison entre analyses locale et régionale, notamment à travers les incertitudes sur les estimations des extrêmes et la capacité à modéliser les horsains présumés.Ces aspects sont illustrés sur des données de hauteurs significatives de vagues et de surcotes de pleine mer, dans la zone Atlantique Nord-Est, Manche et Mer du Nord.Parallèlement, l'objectif applicatif de ces travaux est de contribuer à garantir la sûreté des ouvrages EDF contre le risque de submersion marine. Ceci peut être réalisé grâce à l'exploration de nouvelles techniques d'estimation des aléas maritimes extrêmes telles que l'analyse régionale, qui permet notamment une meilleure prise en compte des horsains.
- Published
- 2014
48. Mesure et gestion du risque opérationnel en assurance et finance
- Author
-
Karam, Elias, Laboratoire de Sciences Actuarielle et Financière (SAF), Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-Université de Lyon, Université Claude Bernard - Lyon I, and Frédéric Planchet
- Subjects
Solvency II ,Bâle III ,Statistique Bayésienne ,Operational risk ,Basel III ,ORSA ,Solvabilité II ,Loss Distribution Approach ,Risque opérationnel ,Estimation risk ,[SHS.GESTION]Humanities and Social Sciences/Business administration ,Extreme Value Theory ,Risque d'estimation ,Théorie des valeurs extrêmes ,Bayesian Statistics - Abstract
Our interest in this thesis is first to combine the different measurement techniques for operational risk in financial companies, and we highlight more and more the consequences of estimation risk which is treated as a particular part of operational risk. In the first part, we will present a full overview of operational risk, from the regulatory laws and regulations to the associated mathematical and actuarial concepts as well as a numerical application regarding the Advanced Measurement Approach, like Loss Distribution to calculate the capital requirement, then applying the Extreme Value Theory. We conclude this first part by setting a scaling technique based on (OLS) enabling us to normalize our external data to a local Lebanese Bank. On the second part, we feature estimation risk by first measuring the error induced on the SCR by the estimation error of the parameters, to having an alternative yield curve estimation and finishing by calling attention to the reflections on assumptions of the calculation instead of focusing on the so called hypothesis "consistent with market values", would be more appropriate and effective than to complicate models and generate additional errors and instability. Chapters in this part illustrate the estimation risk in its different aspects which is a part of operational risk, highlighting as so the attention that should be given in treating our models; Notre intérêt dans cette thèse est de combiner les différentes techniques de mesure du risque opérationnel dans les secteurs financiers, et on s'intéresse plus particulièrement aux conséquences du risque d'estimation dans les modèles, qui est un risque opérationnel particulier. Nous allons présenter les concepts mathématiques et actuariels associés ainsi qu'une application numérique en ce qui concerne l'approche de mesure avancée comme Loss Distribution pour calculer l'exigence en capital. En plus, on se concentre sur le risque d'estimation illustré avec l'analyse des scénarios de l'opinion d'experts en conjonction avec des données de pertes internes pour évaluer notre exposition aux évènements de gravité. Nous concluons cette première partie en définissant une technique de mise l'échelle sur la base de (MCO) qui nous permet de normaliser nos données externes à une banque locale Libanaise.Dans la deuxième partie, on donne de l'importance sur la mesure de l'erreur induite sur le SCR par l'erreur d'estimation des paramètres, on propose une méthode alternative pour estimer une courbe de taux et on termine par attirer l'attention sur les réflexions autour des hypothèses de calcul et ce que l'on convient de qualifier d'hypothèse "cohérente avec les valeurs de marché" serait bien plus pertinente et efficace que la complexification du modèle, source d'instabilité supplémentaire, ainsi mettre en évidence le risque d'estimation qui est lié au risque opérationnel et doit être accordé beaucoup plus d'attention dans nos modèles de travail
- Published
- 2014
49. Modélisation par exposition des sinistres extrêmes pour la branche Marine Cargo
- Author
-
Toutakova, Aminat, Université de Strasbourg - Faculté des sciences économiques et de gestion (UNISTRA FSEG), Université de Strasbourg (UNISTRA), and Stanislas Legait
- Subjects
simulations stochastiques ,modèle interne ,sinistres graves ,approche fréquence-coût ,Modèle par exposition ,Marine Cargo ,[QFIN.RM]Quantitative Finance [q-fin]/Risk Management [q-fin.RM] ,théorie des valeurs extrêmes - Abstract
Ce mémoire présente le développement du modèle par exposition des sinistres graves pour la branche Marine Cargo, qui a été développé dans le cadre du modèle interne d'AXA Corporate Solutions afin d'estimer le capital économique à immobiliser pour la Solvabilité 2.
- Published
- 2014
50. Regional frequency analysis of extreme marine hazards
- Author
-
Weiss, Jérôme, STAR, ABES, Laboratoire d'Hydraulique Saint-Venant / Saint-Venant Laboratory for Hydraulics (Saint-Venant), École des Ponts ParisTech (ENPC)-PRES Université Paris-Est-EDF (EDF)-Avant création Cerema, Université Paris-Est, and Michel Benoit
- Subjects
Marine hazards ,Analyse fréquentielle régionale ,Regional frequency analysis ,Extreme value theory ,[SPI.MECA.MEFL] Engineering Sciences [physics]/Mechanics [physics.med-ph]/Fluids mechanics [physics.class-ph] ,Aléas maritimes ,Théorie des valeurs extrêmes ,[SPI.MECA.MEFL]Engineering Sciences [physics]/Mechanics [physics.med-ph]/Fluids mechanics [physics.class-ph] - Abstract
The knowledge of the probability of occurrence of oceano-Meteorological extremes is essential to prevent risks of coastal flooding or to build coastal protections or off-Shore structures. In particular, the concept of return level is frequently used in coastal engineering to design protection structures. These levels, whose return periods of interest generally lie between 100 and 1000 years, are usually estimated by a local statistical analysis, from data observed at a unique site. However, the period of observation is generally limited, which can imply high uncertainties for high return levels. Regional frequency analysis is a possible solution to reduce uncertainties inherent to local analyses. The principle is to exploit the information of sites of observation from a homogeneous region, where extremes are supposed to share a similar probabilistic behavior. Thus, regional frequency analysis can estimate return levels more accurately than a local analysis. However, its application to the marine field being relatively limited and recent, several methodological questions are still unsolved, such as the formation of homogeneous regions or the dependence between sites. The scientific objective of this thesis is thus to develop some methodological points of regional frequency analysis, in the framework of extreme marine hazards. The following questions are tackled:• Sampling of extremes for regional analysis, from the storms detected through a spatiotemporal declustering procedure.• Formation of homogeneous regions from a method based on the identification of the typical storms footprints.• Consideration of the dependence between sites of observation, through the building of a model allowing, for example, to assess the regional effective duration or the regional return period of a storm.• Specification and estimation of the regional distribution, with the incorporation of influent covariables, such as the season of occurrence or the direction for waves.• Comparison between regional and local analyses, especially through the uncertainties on the estimated extremes and the ability to model the potential outliers. These aspects are illustrated on significant wave height data and skew surge data located in the Northeast Atlantic, the Eastern Channel and the North Sea. At the same time, the industrial objective of this work is to contribute to guarantee the safety of EDF structures against the risk of coastal flooding. This can be achieved through the exploration of new techniques of estimation of extreme marine hazards such as regional frequency analysis, which allows in particular a better representation of outliers, Connaître la probabilité d'occurrence des aléas océano-météorologiques extrêmes est fondamental pour prévenir les risques de submersion marine en zone côtière ou concevoir des aménagements côtiers, portuaires ou des plate-formes offshore. Notamment, le concept de niveau de retour est fréquemment utilisé en ingénierie côtière pour dimensionner des ouvrages de protection. Ces niveaux, dont les périodes de retour d'intérêt se situent généralement entre 100 et 1000 ans, sont habituellement estimés par une analyse statistique locale, à partir de données observées en un site unique. Cependant, la période d'observation est généralement limitée, de sorte que les incertitudes associées aux niveaux de retour élevés sont importantes. L'analyse régionale représente une solution possible pour réduire les incertitudes inhérentes aux analyses locales. Le principe est d'exploiter l'information de sites d'observation provenant d'une région homogène, où les extrêmes sont supposés avoir un comportement probabiliste similaire. L'analyse régionale peut ainsi estimer les niveaux de retour de manière plus fiable qu'une analyse locale. Cependant, son application dans le domaine maritime étant relativement limitée et récente, différentes questions méthodologiques de meurent non-Résolues, comme la formation des régions homogènes ou le traitement de la dépendance entre sites. L'objectif scientifique de la thèse est donc d'approfondir certains points méthodologiques de l'analyse régionale, dans le cadre des aléas maritimes extrêmes. Les points suivants sont abordés en particulier :• Échantillonnage des extrêmes pour l'analyse régionale, à partir des tempêtes détectées via une procédure de declustering spatio-Temporel.• Formation de régions homogènes à partir d'une méthode basée sur l'identification des empreintes typiques des tempêtes.• Prise en compte de la dépendance entre sites d'observation, à travers la construction d'un modèle permettant par exemple d'évaluer la durée effective régionale d'observation ou la période de retour régionale d'une tempête.• Spécification et estimation de la loi régionale, avec incorporation des co-variables influentes, comme la saison d'occurrence ou la direction de provenance pour les vagues.• Comparaison entre analyses locale et régionale, notamment à travers les incertitudes sur les estimations des extrêmes et la capacité à modéliser les horsains présumés.Ces aspects sont illustrés sur des données de hauteurs significatives de vagues et de surcotes de pleine mer, dans la zone Atlantique Nord-Est, Manche et Mer du Nord.Parallèlement, l'objectif applicatif de ces travaux est de contribuer à garantir la sûreté des ouvrages EDF contre le risque de submersion marine. Ceci peut être réalisé grâce à l'exploration de nouvelles techniques d'estimation des aléas maritimes extrêmes telles que l'analyse régionale, qui permet notamment une meilleure prise en compte des horsains.
- Published
- 2014
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.