9 results on '"Régression à vecteurs de support"'
Search Results
2. Analysis of inductive power transfer systems by metamodeling techniques.
- Author
-
Yao Pei, Pichon, Lionel, Bensetti, Mohamed, and Le Bihan, Yann
- Subjects
- *
WIRELESS power transmission , *GENETIC programming , *POLYNOMIAL chaos , *GENETIC algorithms , *CONJOINT analysis - Abstract
This paper presents some metamodeling techniques to analyze the variability of the performances of an inductive power transfer (IPT) system, considering the sources of uncertainty (misalignment between the coils, the variation in air gap, and the rotation on the receiver). For IPT systems, one of the key issues is transmission efficiency, which is greatly influenced by many sources of uncertainty. So, it is meaningful to find a metamodeling technique to quickly evaluate the system's performances. According to the comparison of Support Vector Regression, Multigene Genetic Programming Algorithm, and sparse Polynomial Chaos Expansions (PCE), sparse PCE is recommended for the analysis due to the tradeoff between the computational time and the accuracy of themetamodel. [ABSTRACT FROM AUTHOR]
- Published
- 2024
- Full Text
- View/download PDF
3. Prediction of heat transfer coefficient and pressure drop of R1234yf and R134a flow condensation in horizontal and inclined tubes using machine learning techniques.
- Author
-
Tarabkhah, Shaghayegh, Sajadi, Behrang, and Behabadi, Mohammad Ali Akhavan
- Subjects
- *
HEAT transfer coefficient , *PRESSURE drop (Fluid dynamics) , *MULTILAYER perceptrons , *ADVECTION , *BOOSTING algorithms , *MACHINE learning , *MASS transfer coefficients , *TWO-phase flow - Abstract
• ANNMLP provides the highest accuracy in predicting heat transfer coefficient. • SVR has the highest generalization capability to predict heat transfer coefficient. • XGBoost shows the highest accuracy and generalization capability for pressure drop. • Significant features for heat transfer coefficient: mass velocity and vapor quality. • Significant features for pressure drop: inclination angle and mass velocity. Machine learning techniques have great potential to predict two-phase flow characteristics instead of classic empirical correlations. In the present study, four different machine learning models, including multi-layer perceptron artificial neural network (ANNMLP), support vector regression (SVR), K nearest neighbors (KNN), and extreme gradient boosting (XGBoost), are employed to predict the heat transfer coefficient (HTC) and the frictional pressure drop (FPD) of R134a and R1234yf condensation flow in horizontal and inclined tubes. The dataset includes 348 points from previous works and the current research. To extend the data, an experimental study is also performed on the condensation of R134a in a horizontal tube for different mass velocities and vapor qualities. The results show that, in the best model, HTC can be estimated by ANNMLP with the mean absolute percentage error (MAPE) of 7.01%. The best prediction of FPD is achieved using XGBoost machine with MAPE of 10.87% on test data. Also, the feature importance procedure is implemented to recognize the most useful features. Based on the results, the mass velocity and the inclination angle are identified as the most influencing parameters on the prediction of HTC and FPD, respectively. [ABSTRACT FROM AUTHOR]
- Published
- 2023
- Full Text
- View/download PDF
4. Méthodes de sélection de voisinage et de prévision à court-terme pour l’analyse du trafic urbain
- Author
-
Salotti, Julien, Laboratoire d'InfoRmatique en Image et Systèmes d'information (LIRIS), Institut National des Sciences Appliquées de Lyon (INSA Lyon), Université de Lyon-Institut National des Sciences Appliquées (INSA)-Université de Lyon-Institut National des Sciences Appliquées (INSA)-Centre National de la Recherche Scientifique (CNRS)-Université Claude Bernard Lyon 1 (UCBL), Université de Lyon-École Centrale de Lyon (ECL), Université de Lyon-Université Lumière - Lyon 2 (UL2), Laboratoire d'Ingénierie Circulation Transport (LICIT UMR TE), Institut Français des Sciences et Technologies des Transports, de l'Aménagement et des Réseaux (IFSTTAR)-École Nationale des Travaux Publics de l'État (ENTPE)-Université de Lyon, LabEx Intelligences des Mondes Urbains (LabEx IMU), Université de Lyon, INSA Lyon, Christine Solnon, and Nour-Eddin El Faouzi
- Subjects
Graphical Models ,Régression ,Prévision de trafic ,Artificial neural networks ,Variable selection ,Lasso regression ,ARIMA ,Sélection de variables ,Régression à vecteurs de support ,Regression ,Traffic Forecasting ,Support vector regression ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,Vector Autoregressive Model ,Modèles graphiques probabilistes ,Réseaux de neurones ,VAR ,K plus proches voisins ,Lasso ,K nearest neighbors - Abstract
In the context of Smart Cities, the need to inform drivers, to anticipate and to take action to regulate the traffic flow becomes critical. This need has driven the development of a large number of short-term (less than one hour) traffic flow forecasting methods. The era of big data has seen the rise in computing power, in storage capacity and in our ability to process information in real-time. At the same time, more and more road segments are equipped with traffic sensors. This evolution of technology is reflected in the evolution of traffic forecasting methods.In this work, we explore multiple questions in order to improve the accuracy of forecasting models on traffic data. The first question deals with the spatio-temporal neighborhood : what information should we consider in order to predict the future activity on a sensor? The second question is about the choice of the best forecasting methods with respect to the nature of the network (urban, freeway) and the forecast horizon. The last question concerns the choice of the optimal temporal aggregation for the data and its impact on the forecasting accuracy. In order to investigate these questions, we have studied a large panel of forecasting methods (ARIMA, VAR, k-NN, SVR, neural networks) and two variable selection mechanisms (Lasso, TiGraMITe). This experimental study has been conducted on data from the urban network of Lyon and from urban freeway of Marseille.; Dans le contexte de la ville intelligente, le besoin d’informer, d’anticiper, et d’agir sur l’état du trafic sur le réseau devient crucial. Ce dernier est à l'origine du développement de nombreuses méthodes de prévision de trafic à court-terme (dans l'heure). À l'ère des données, on observe une augmentation de nos capacités à stocker et à traiter des données rapidement. Parallèlement, un nombre croissant de tronçons de route sont équipés de capteurs. Cette évolution technologique se reflète par une évolution des méthodes de prévision de trafic.Dans ces travaux, nous explorons plusieurs problématiques afin d'améliorer les performances de prévision des modèles sur les données de trafic. La première question concerne le voisinage spatio-temporel : quelles données doit-on considérer pour prédire l’activité future observée par un capteur ? La deuxième question concerne le choix de la meilleure méthode de prévision en fonction du type de réseau (urbain, autoroute) et de l'horizon de prévision. Enfin, nous traitons de la question du choix optimal de la résolution temporelle des données, de son impact sur la prévision. Pour répondre à ces questions, nous avons étudié de nombreuses approches de prévision (ARIMA, VAR, k-NN, SVR, réseaux de neurones) et deux mécanismes de sélection de variables (Lasso, TiGraMITe). Cette étude expérimentale a été effectuée sur des données du réseau urbain de Lyon (fournie par la Métropole) et des données d'autoroute du réseau de Marseille.
- Published
- 2019
5. Design and Implementation of an adaptative interaction system for virtualreality applications
- Author
-
Frad, M'Hamed, Informatique, Biologie Intégrative et Systèmes Complexes (IBISC), Université d'Évry-Val-d'Essonne (UEVE), École Nationale d’Ingénieurs de Monastir (ENIM), Université Paris Saclay, Université d'Evry Val-d'Essonne, Ecole Nationale d’Ingénieurs de Monastir. Tunisia, Hichem Maaref, and Abdellatif Mtibaa
- Subjects
Régression ,Neural Networks ,Characterization ,Support Vector Regression ,Tracking hybride ,Regression ,[SPI.AUTO]Engineering Sciences [physics]/Automatic ,Caractérisation ,Hybrid tracking ,Calibration ,Interfaces d’interaction ,Réseaux de Neurones ,Interaction devices ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Régression à Vecteurs de Support - Abstract
Over last decades, virtual reality has been widely used in many disciplines. It is ableto plunge the user at the heart of an artificial environment created digitally through interactionand immersion paradigms. These paradigms are based on the use of very specificinterfaces that help user to interact and perform specific tasks in the virtual environment.Nevertheless, many technical problems are often present and may penalize the quality ofthat interaction and may break user immersion in the virtual environment.The goal of this thesis is to build a comprehensive procedure to guide the user to calibratea virtual reality interface and therefore attempt to overcome some technologicalshortcomings. The originality of the thesis is the use of an approach that combines twoareas of research that will combine very rarely, that of data processing and the virtualreality. This approach will provide theoretical and technical framework for the design ofa comprehensive calibration procedure to ensure continuous and precise interaction inthe virtual environment.To overcome problems described above, the work was conducted on several fronts :data acquisition, processing and validation. The first step is by the use of a new protocolinsofar as it is based on virtual reality techniques to collect calibration data. In secondstep, two calibration methods have been proposed to improve the absolute accuracy ofthe virtual reality interface. Both methods are universal approximators as well as theirability to estimate the outputs of the involved system from inputs even the model of thesystem being calibrated remains unknown. In the last step, two virtual reality applicationsprototypes were developed in order to assess the relevance of our approach.; Dans les dernières décennies, la réalité virtuelle a connu un essor fulgurant dans denombreuses disciplines. Elle permet via des paradigmes d’interaction et d’immersion deplonger l’utilisateur au coeur d’un environnement artificiel crée numériquement. Ces paradigmess’appuient sur l’utilisation des interfaces sensori-motrices bien spécifiques quipermettent à l’utilisateur d’interagir et accomplir des tâches particulières dans l’environnementvirtuel. Néanmoins, des nombreux problèmes, d’origine technologique, sontsouvent présents et peuvent pénaliser la qualité de l’interaction ainsi que le degré d’immersionde l’utilisateur dans l’environnement virtuel.L’objectif de cette thèse est de proposer une procédure complète visant à guider l’utilisateurà calibrer une interface sensori-motrice spécifique et par conséquent tenter depallier à certains défauts technologiques. L’originalité de la thèse réside dans l’utilisationd’une approche qui combine deux domaines de recherche qui ne s’associent que très rarement: celui du traitement de données et celui de la réalité virtuelle. Cette approche servirade cadre théorique et technique pour la conception d’une procédure de calibrationcomplète permettant de garantir une interaction continue et précise dans l’environnementvirtuel.Afin de contrebalancer les défauts et limites techniques, le travail a été conduit surplusieurs fronts : acquisition, traitement de données et validation. La première phaseest marquée par l’utilisation d’un protocole innovant dans la mesure où il repose sur lestechniques de réalité virtuelle pour récolter les données de calibration. Dans la deuxièmephase, deux techniques de calibration ont été proposées pour améliorer la précision absoluede l’interface de réalité virtuelle. Les deux techniques se distinguent par leurs qualitésd’approximateurs universels ainsi que par leurs capacités à estimer les sorties du systèmeconcerné à partir des entrées sans connaître à priori son modèle mathématique. Dansla dernière phase, deux prototypes d’applications de réalité virtuelle ont été développéespour s’assurer de la pertinence de notre approche.
- Published
- 2016
6. Étude et mise en œuvre d’un système d’interaction adaptatif pour les applications de réalité virtuelle
- Author
-
Frad, M'Hamed, Informatique, Biologie Intégrative et Systèmes Complexes (IBISC), Université d'Évry-Val-d'Essonne (UEVE), École Nationale d’Ingénieurs de Monastir (ENIM), Université de Monastir - University of Monastir (UM), Université Paris Saclay, Université d'Evry Val-d'Essonne, Ecole Nationale d’Ingénieurs de Monastir. Tunisia, Hichem Maaref, and Abdellatif Mtibaa
- Subjects
Régression ,Neural Networks ,Characterization ,Support Vector Regression ,Tracking hybride ,Regression ,[SPI.AUTO]Engineering Sciences [physics]/Automatic ,Caractérisation ,Hybrid tracking ,Calibration ,Interfaces d’interaction ,Réseaux de Neurones ,Interaction devices ,[SPI.SIGNAL]Engineering Sciences [physics]/Signal and Image processing ,Régression à Vecteurs de Support - Abstract
Over last decades, virtual reality has been widely used in many disciplines. It is ableto plunge the user at the heart of an artificial environment created digitally through interactionand immersion paradigms. These paradigms are based on the use of very specificinterfaces that help user to interact and perform specific tasks in the virtual environment.Nevertheless, many technical problems are often present and may penalize the quality ofthat interaction and may break user immersion in the virtual environment.The goal of this thesis is to build a comprehensive procedure to guide the user to calibratea virtual reality interface and therefore attempt to overcome some technologicalshortcomings. The originality of the thesis is the use of an approach that combines twoareas of research that will combine very rarely, that of data processing and the virtualreality. This approach will provide theoretical and technical framework for the design ofa comprehensive calibration procedure to ensure continuous and precise interaction inthe virtual environment.To overcome problems described above, the work was conducted on several fronts :data acquisition, processing and validation. The first step is by the use of a new protocolinsofar as it is based on virtual reality techniques to collect calibration data. In secondstep, two calibration methods have been proposed to improve the absolute accuracy ofthe virtual reality interface. Both methods are universal approximators as well as theirability to estimate the outputs of the involved system from inputs even the model of thesystem being calibrated remains unknown. In the last step, two virtual reality applicationsprototypes were developed in order to assess the relevance of our approach.; Dans les dernières décennies, la réalité virtuelle a connu un essor fulgurant dans denombreuses disciplines. Elle permet via des paradigmes d’interaction et d’immersion deplonger l’utilisateur au coeur d’un environnement artificiel crée numériquement. Ces paradigmess’appuient sur l’utilisation des interfaces sensori-motrices bien spécifiques quipermettent à l’utilisateur d’interagir et accomplir des tâches particulières dans l’environnementvirtuel. Néanmoins, des nombreux problèmes, d’origine technologique, sontsouvent présents et peuvent pénaliser la qualité de l’interaction ainsi que le degré d’immersionde l’utilisateur dans l’environnement virtuel.L’objectif de cette thèse est de proposer une procédure complète visant à guider l’utilisateurà calibrer une interface sensori-motrice spécifique et par conséquent tenter depallier à certains défauts technologiques. L’originalité de la thèse réside dans l’utilisationd’une approche qui combine deux domaines de recherche qui ne s’associent que très rarement: celui du traitement de données et celui de la réalité virtuelle. Cette approche servirade cadre théorique et technique pour la conception d’une procédure de calibrationcomplète permettant de garantir une interaction continue et précise dans l’environnementvirtuel.Afin de contrebalancer les défauts et limites techniques, le travail a été conduit surplusieurs fronts : acquisition, traitement de données et validation. La première phaseest marquée par l’utilisation d’un protocole innovant dans la mesure où il repose sur lestechniques de réalité virtuelle pour récolter les données de calibration. Dans la deuxièmephase, deux techniques de calibration ont été proposées pour améliorer la précision absoluede l’interface de réalité virtuelle. Les deux techniques se distinguent par leurs qualitésd’approximateurs universels ainsi que par leurs capacités à estimer les sorties du systèmeconcerné à partir des entrées sans connaître à priori son modèle mathématique. Dansla dernière phase, deux prototypes d’applications de réalité virtuelle ont été développéespour s’assurer de la pertinence de notre approche.
- Published
- 2016
7. Estimation du RUL par des approches basées sur l'expérience : de la donnée vers la connaissance
- Author
-
Khelif, Racha, Azema, Martine, Franche-Comté Électronique Mécanique, Thermique et Optique - Sciences et Technologies (UMR 6174) (FEMTO-ST), Université de Technologie de Belfort-Montbeliard (UTBM)-Ecole Nationale Supérieure de Mécanique et des Microtechniques (ENSMM)-Université de Franche-Comté (UFC), Université Bourgogne Franche-Comté [COMUE] (UBFC)-Université Bourgogne Franche-Comté [COMUE] (UBFC)-Centre National de la Recherche Scientifique (CNRS), Université de Franche-Comté, ZERHOUNI Noureddine, Noureddine Zerhouni, Brigitte Chebel, and Simon Malinowski
- Subjects
Experience based prognostics ,Health indicators ,Case Based Reasoning ,Approche basée sur les instances ,SVR ,[SPI] Engineering Sciences [physics] ,Support Vector Regression ,Raisonnement à partir de cas ,IBL ,CBR ,Similarity ,[SPI.AUTO]Engineering Sciences [physics]/Automatic ,[SPI]Engineering Sciences [physics] ,durée de vie résiduelle avant défaillance ,Pronostic de défaillance basée sur l'expérience ,Connaissance ,Remaining Useful Life ,RUL ,Régression à vecteurs de support ,Indicateur de santé ,RàPC ,Instance Based Learning ,Knowledge ,indicateurs de santé ,degradation Trajectories ,Similarité ,Trajectoires de dégradation - Abstract
Our thesis work is concerned with the development of experience based approachesfor criticalcomponent prognostics and Remaining Useful Life (RUL) estimation. This choice allows us to avoidthe problematic issue of setting a failure threshold.Our work was based on Case Based Reasoning (CBR) to track the health status of a new componentand predict its RUL. An Instance Based Learning (IBL) approach was first developed offering twoexperience formalizations. The first is a supervised method that takes into account the status of thecomponent and produces health indicators. The second is an unsupervised method that fuses thesensory data into degradation trajectories.The approach was then evolved by integrating knowledge. Knowledge is extracted from the sensorydata and is of two types: temporal that completes the modeling of instances and frequential that,along with the similarity measure refine the retrieval phase. The latter is based on two similaritymeasures: a weighted one between fixed parallel windows and a weighted similarity with temporalprojection through sliding windows which allow actual health status identification.Another data-driven technique was tested. This one is developed from features extracted from theexperiences that can be either mono or multi-dimensional. These features are modeled by a SupportVector Regression (SVR) algorithm. The developed approaches were assessed on two types ofcritical components: turbofans and ”Li-ion” batteries. The obtained results are interesting but theydepend on the type of the treated data., Nos travaux de thèse s’intéressent au pronostic de défaillance de composant critique et à l’estimation de la durée de vie résiduelle avant défaillance (RUL). Nous avons développé des méthodes basées sur l’expérience. Cette orientation nous permet de nous affranchir de la définition d’un seuil de défaillance, point problématique lors de l’estimation du RUL.Nous avons pris appui sur le paradigme de Raisonnement à Partir de Cas (RàPC) pour assurer le suivi d’un nouveau composant critique et prédire son RUL. Une approche basée sur les instances (IBL) à été développée en proposant plusieurs formalisations de l’expérience: une supervisée tenant compte de l’état du composant sous forme d’indicateur de santé et une non-supervisée agrégeantles données capteurs en une série temporelle mono-dimensionnelle formant une trajectoire de dégradation.Nous avons ensuite fait évoluer cette approche en intégrant de la connaissance à ces instances.La connaissance est extraite à partir de données capteurs et est de deux types : temporelle qui complète la modélisation des instances et fréquentielle qui, associée à la mesure de similarité permet d’affiner la phase de remémoration. Cette dernière prend appui sur deux types de mesures : une pondérée entre fenêtres parallèles et fixes et une pondérée avec projection temporelle. Les fenêtres sont glissantes ce qui permet d’identifier et de localiser l’état actuel de la dégradation de nouveaux composants.Une autre approche orientée donnée a été testée. Celle-ci est se base sur des caractéristiques extraites des expériences, qui sont mono-dimensionnelles dans le premier cas et multidimensionnelles autrement. Ces caractéristiques seront modélisées par un algorithme de régression à vecteurs de support (SVR). Ces approches ont été évaluées sur deux types de composants : les turboréacteurs et les batteries « LI-ION ». Les résultats obtenus sont intéressants mais dépendent du type de données traitées.
- Published
- 2015
8. Development of an Innovative System for the Reconstruction of New Generation Satellite Images
- Author
-
Lorenzi, Luca, Département Image et Traitement Information (ITI), Université européenne de Bretagne - European University of Brittany (UEB)-Télécom Bretagne-Institut Mines-Télécom [Paris] (IMT), Laboratoire des sciences et techniques de l'information, de la communication et de la connaissance (Lab-STICC), École Nationale d'Ingénieurs de Brest (ENIB)-Université de Bretagne Sud (UBS)-Université de Brest (UBO)-Télécom Bretagne-Institut Brestois du Numérique et des Mathématiques (IBNM), Université de Brest (UBO)-Université européenne de Bretagne - European University of Brittany (UEB)-École Nationale Supérieure de Techniques Avancées Bretagne (ENSTA Bretagne)-Institut Mines-Télécom [Paris] (IMT)-Centre National de la Recherche Scientifique (CNRS), Télécom Bretagne, Université de Rennes 1, Grégoire MERCIER(gregoire.mercier@telecom-bretagne.eu), and Télécom Bretagne (devenu IMT Atlantique), Ex-Bibliothèque
- Subjects
Very high resolution (VHR) images ,Support vector machine ,Reconstruction de données manquantes ,Télédétection ,Reconnaissance de formes ,Reconstruction de données erronées ,Images à très haute résolution (THR) ,Remote sensing ,Compressive sensing ,Régression à vecteurs de support ,Support vector regression ,[INFO.INFO-TI] Computer Science [cs]/Image Processing [eess.IV] ,Shadow reconstruction ,Echantillonnage compressé ,Pattern recognition ,[INFO.INFO-TI]Computer Science [cs]/Image Processing [eess.IV] ,Inpainting ,Cloud reconstruction ,Méthode à vecteurs de support - Abstract
Remote sensing satellites have demonstrated to be a helpful instrument. Indeed, satellite images have been successfully exploited to deal with several applications including environmental monitoring and prevention of natural disasters. In the last years, the increasing of the availability of very high spatial resolution (VHR) remote sensing images resulted in new potentially relevant applications related to land cover control and environmental management. In particular, optical sensors, due to the fact that they acquire directly the reflected light from the sun, they may suffer from the presence of clouds in the sky and/or of shadows on the earth. This involves the problem of missing data, which may results an important and crucial problem especially in the case of VHR images, where their higher geometrical details induce to bigger lost of information. In this thesis, new methodologies of detection and reconstruction of missing data region in VHR images are proposed and applied on areas contaminated by the presence of clouds and/or shadows. In particular, the proposed methodological contributions include: i) a multiresolution inpainting strategy to reconstruct cloud-contaminated images; ii) a new combination of radiometric information and spatial position information in two specific kernels to perform a better reconstruction of cloud-contaminated regions by adopting a support vector regression (SVR) method; iii) the exploitation of compressive sensing theory adopting three different strategies (orthogonal matching pursuit, basis pursuit and a genetic algorithm solution) for the reconstruction of cloud-contaminated images; iv) a complete processing chain which exploits a support vector machine (SVM) classification for the detection and a linear regression for the reconstruction of specific shadow areas; and v) several evaluation criteria capable to assess the reconstructability of shadow areas. All of them are specifically developed to work with VHR images. Experimental results conducted on real data are reported in order to show and confirm the validity of all the proposed methods. They all suggest that, despite the complexity of the problems, it is possible to recover in a good way missing areas obscured by clouds or shadows., Les satellites de télédétection sont devenus incontournables pour la société civile. En effet, les images satellites ont été exploitées avec succès pour traiter plusieurs applications, notamment la surveillance de l'environnement et de la prévention des catastrophes naturelles. Dans les dernières années, l'augmentation de la disponibilité de très haute résolution spatiale (THR) d'images de télédétection abouti à de nouvelles applications potentiellement pertinentes liées au suivi d'utilisation des sols et à la gestion environnementale. Cependant, les capteurs optiques, en raison du fait qu'ils acquièrent directement la lumière réfléchie par le soleil, ils peuvent souffrir de la présence de nuages dans le ciel et / ou d'ombres sur la terre. Il s'agit du problème des données manquantes, qui induit un problème important et crucial, en particulier dans le cas des images THR, où l'augmentation des détails géométriques induit une grande perte d'informations. Dans cette thèse, de nouvelles méthodologies de détection et de reconstruction de la région contenant des données manquantes dans les images THR sont proposées et appliquées sur les zones contaminées par la présence de nuages et / ou d'ombres. En particulier, les contributions méthodologiques proposées comprennent: i) une stratégie multirésolution d'inpainting visant à reconstruire les images contaminées par des nuages ; ii) une nouvelle combinaison d'information radiométrique et des informations de position spatiale dans deux noyaux spécifiques pour effectuer une meilleure reconstitution des régions contaminés par les nuages en adoptant une régression par méthode a vecteurs supports (RMVS) ; iii) l'exploitation de la théorie de l'échantillonnage compressé avec trois stratégies différentes (orthogonal matching pursuit, basis pursuit et une solution d'échantillonnage compressé, basé sur un algorithme génétique) pour la reconstruction d'images contaminés par des nuages; iv) une chaîne de traitement complète qui utilise une méthode à vecteurs de supports (SVM) pour la classification et la détection des zones d'ombre, puis une régression linéaire pour la reconstruction de ces zones, et enfin v) plusieurs critères d'évaluation promptes à évaluer la performance de reconstruction des zones d'ombre. Toutes ces méthodes ont été spécialement développées pour fonctionner avec des images très haute résolution. Les résultats expérimentaux menés sur des données réelles sont présentés afin de montrer et de confirmer la validité de toutes les méthodes proposées. Ils suggèrent que, malgré la complexité des problèmes, il est possible de récupérer de façon acceptable les zones manquantes masquées par les nuages ou rendues erronées les ombres.
- Published
- 2012
9. Using airborne laser scanning for mountain forests mapping : support vector regression for stand parameters estimation and unsupervised training for treetop detection
- Author
-
Monnet, Jean-Matthieu, STAR, ABES, Grenoble Images Parole Signal Automatique (GIPSA-lab), Université Stendhal - Grenoble 3-Université Pierre Mendès France - Grenoble 2 (UPMF)-Université Joseph Fourier - Grenoble 1 (UJF)-Institut polytechnique de Grenoble - Grenoble Institute of Technology (Grenoble INP )-Centre National de la Recherche Scientifique (CNRS), Université de Grenoble, Jocelyn Chanussot, and Frédéric Berger
- Subjects
[SPI.OTHER]Engineering Sciences [physics]/Other ,Lidar ,Support vector regression ,Télédétection ,[SPI.OTHER] Engineering Sciences [physics]/Other ,Airborne laser scanning ,Scanner laser aéroporté ,Forêt ,Forest ,Détection d'arbre ,Remote sensing ,Régression à vecteurs de support ,Treetop detection - Abstract
Numerous studies have shown the potential of airborne laser scanningfor the mapping of forest resources. However, the application of thisremote sensing technique to complex forests encountered in mountainousareas requires further investigation. In this thesis, the two mainmethods used to derive forest information are tested with airbornelaser scanning data acquired in the French Alps, and adapted to theconstraints of mountainous environments. In particular,a framework for unsupervised training of treetop detection isproposed, and the performance of support vector regression combinedwith dimension reduction for forest stand parameters estimation isevaluated., De nombreux travaux ont montré le potentiel de la télédétection parscanner laser aéroporté pour caractériser les massifs forestiers.Cependant, l'application aux forêts complexes de montagne reste encorepeu documentée. On se propose donc de tester les deux principalesméthodes permettant d'extraire des paramètres forestiers sur desdonnées acquises en zone montagneuse et de les adapter aux contraintesspéci fiques à cet environnement. En particulier on évaluera d'unepart l'apport conjoint de la régression à vecteurs de support et de laréduction de dimension pour l'estimation de paramètres de peuplement,et d'autre part l'intérêt d'un apprentissage non supervisé pour ladétection d'arbres.
- Published
- 2011
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.