5 results on '"Dubois, Jean-Christophe"'
Search Results
2. Imperfect Labels with Belief Functions for Active Learning
- Author
-
Hoarau, Arthur, Martin, Arnaud, Dubois, Jean-Christophe, Le Gall, Yolande, Goos, Gerhard, Founding Editor, Hartmanis, Juris, Founding Editor, Bertino, Elisa, Editorial Board Member, Gao, Wen, Editorial Board Member, Steffen, Bernhard, Editorial Board Member, Yung, Moti, Editorial Board Member, Le Hégarat-Mascle, Sylvie, editor, Bloch, Isabelle, editor, and Aldea, Emanuel, editor
- Published
- 2022
- Full Text
- View/download PDF
3. Modèle crédibiliste pour l'échantillonnage en apprentissage actif
- Author
-
Zhu, Daniel, Martin, Arnaud, Dubois, Jean-Christophe, Le Gall, Yolande, Lemaire, Vincent, Declarative & Reliable management of Uncertain, user-generated Interlinked Data (DRUID), GESTION DES DONNÉES ET DE LA CONNAISSANCE (IRISA-D7), Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique (IMT Atlantique), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT), Orange Labs [Lannion], France Télécom, Université de Bretagne Sud (UBS)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National de Recherche en Informatique et en Automatique (Inria)-École normale supérieure - Rennes (ENS Rennes)-Centre National de la Recherche Scientifique (CNRS)-Université de Rennes 1 (UR1), Université de Rennes (UNIV-RENNES)-CentraleSupélec-IMT Atlantique Bretagne-Pays de la Loire (IMT Atlantique), and Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Université de Bretagne Sud (UBS)-Institut National des Sciences Appliquées - Rennes (INSA Rennes)
- Subjects
Active learning ,échantillonnage par incertitude ,Entropies ,Belief functions ,fonctions de croyance ,Uncertainty Sampling ,[INFO]Computer Science [cs] ,Apprentissage actif ,Theory of Dempster-Shafer ,[INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI] - Abstract
International audience; In machine learning, training a classifier on large dataset requires an important amount of labels which is expensive in terms of human resources and money. A possible solution to this problem is to use crowdsourcing in order to label the data. Although, non-expert people do not always have the knowledge to do their work correctly, leading to introducing errors in labeling. Active learning offers a solution to the labeling cost by making the classifier choose the data it wants to label in order to reach good performance with fewer labels. By combining active learning and belief functions, it becomes possible to model the errors and uncertainty in labels. We propose a new sampling method implying belief entropies.; En apprentissage automatique, la performance d'un modèle supervisé dépend souvent du volume de donnéeś etiquetées. Entraîner un modèle sur un grand nombre de données nécessite donc l'étiquetage de beaucoup d'observations et requiert souvent une expertise coûteuse en temps et en argent. Une des solutions consiste alorsà externaliser le travail d'étiquetageà une foule de contributeurs dont les qualifications visa -vis du domaineétudié seront nécessairement inégales, occasionnant des erreurs d'étiquetage. L'apprentissage actif propose une solution au problème de coût lié auxétiquettes, en impliquant le classificateur dans le choix des données d'entraînement. Ce paradigme peutêtre combinéà la théorie des fonctions de croyance afin de modéliser l'incertitude dans l'étiquetage des données. Nous proposons dans cet article une méthode pour sélectionner les observationsà etiqueter, fondée sur des entropies crédibilistes.
- Published
- 2021
4. Evidential Nearest Neighbours in Active Learning
- Author
-
Zhu, Daniel, Martin, Arnaud, Le Gall, Yolande, Dubois, Jean-Christophe, Lemaire, Vincent, Declarative & Reliable management of Uncertain, user-generated Interlinked Data (DRUID), GESTION DES DONNÉES ET DE LA CONNAISSANCE (IRISA-D7), Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Institut National des Sciences Appliquées (INSA)-Université de Bretagne Sud (UBS)-École normale supérieure - Rennes (ENS Rennes)-Institut National de Recherche en Informatique et en Automatique (Inria)-CentraleSupélec-Centre National de la Recherche Scientifique (CNRS)-IMT Atlantique (IMT Atlantique), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Université de Rennes (UR)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Institut de Recherche en Informatique et Systèmes Aléatoires (IRISA), Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT), Orange Labs [Lannion], France Télécom, Université de Bretagne Sud (UBS)-Institut National des Sciences Appliquées - Rennes (INSA Rennes), Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National des Sciences Appliquées (INSA)-Université de Rennes (UNIV-RENNES)-Institut National de Recherche en Informatique et en Automatique (Inria)-École normale supérieure - Rennes (ENS Rennes)-Centre National de la Recherche Scientifique (CNRS)-Université de Rennes 1 (UR1), Université de Rennes (UNIV-RENNES)-CentraleSupélec-IMT Atlantique Bretagne-Pays de la Loire (IMT Atlantique), and Institut Mines-Télécom [Paris] (IMT)-Institut Mines-Télécom [Paris] (IMT)-Université de Bretagne Sud (UBS)-Institut National des Sciences Appliquées - Rennes (INSA Rennes)
- Subjects
Belief Functions ,ComputingMethodologies_PATTERNRECOGNITION ,Active Learning ,[INFO]Computer Science [cs] ,Nearest Neighbours ,Theory of Dempster-Shafer ,[INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI] - Abstract
International audience; Active learning is a subfield of machine learning which allows to reduce the amount of data necessary to train a classifier. The training set is built in an iterative way such that only the most significant and informative data are used and labeled by an external person called oracle. It is furthermore possible to use active learning with the theory of belief functions in order to take erroneous labels due to the oracle's uncertainty and imprecision into account in order to limit their influence on the classifier's performance. In this article, we compare the classifier of the k nearest neighbours (kNN) to a variant based on belief functions from the theory of belief functions (EkNN), in a situation where some labels have been noised in order to model uncertain labels. We show that although the superiority of EkNN over kNN is not systematic, there are some interesting and modest results supporting the relevance of belief functions in active learning.
- Published
- 2021
5. Evidential Random Forests.
- Author
-
Hoarau, Arthur, Martin, Arnaud, Dubois, Jean-Christophe, and Le Gall, Yolande
- Subjects
- *
RANDOM forest algorithms , *DECISION trees , *ACTIVE learning , *MACHINE learning , *DEMPSTER-Shafer theory - Abstract
In machine learning, some models can make uncertain and imprecise predictions, they are called evidential models. These models may also be able to handle imperfect labeling and take into account labels that are richer than the commonly used hard labels, containing uncertainty and imprecision. This paper proposes an Evidential Decision Tree, and an Evidential Random Forest. These two models use a distance and a degree of inclusion to allow the model to group observations whose response elements are included in each other into a single node. Experimental results showed better performance for the presented methods compared to other evidential models and to recent Cautious Random Forests when the data is noisy. The models also offer a better robustness to the overfitting effect when using datasets that are effectively uncertainly and imprecisely labeled by the contributors. The proposed models are also able to predict rich labels, an information that can be used in other approaches, such as active learning. • Source uncertainty and imprecision can be modeled in richer labels. • Richer labels improve classification performance. • Evidential decision tree and evidential random forest are robust to overfitting. [ABSTRACT FROM AUTHOR]
- Published
- 2023
- Full Text
- View/download PDF
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.