4 results on '"explications"'
Search Results
2. Una mirada al discurso y la estructura genérica de un texto escolar de Ciencias Naturales.
- Author
-
Redondo Insignares, Wendy Paola and Correa Abad, Carla Clarissa
- Subjects
SCIENCE education ,TEXTBOOKS ,SCIENCE journalism ,TEACHERS ,LEARNING - Abstract
Copyright of Lenguaje is the property of Universidad del Valle and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2022
- Full Text
- View/download PDF
3. Traitement hybride pour l'équité algorithmique
- Author
-
Alves, Guilherme, Knowledge representation, reasonning (ORPAILLEUR), Department of Natural Language Processing & Knowledge Discovery (LORIA - NLPKD), Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA), Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Laboratoire Lorrain de Recherche en Informatique et ses Applications (LORIA), Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS)-Institut National de Recherche en Informatique et en Automatique (Inria)-Université de Lorraine (UL)-Centre National de la Recherche Scientifique (CNRS), INRIA, Université de Lorraine, Miguel Couceiro, and Amedeo Napoli
- Subjects
Compromis équité/exactitude ,Explanations ,Évaluation de l'équité ,[INFO.INFO-LG]Computer Science [cs]/Machine Learning [cs.LG] ,Atténuation de l'iniquité ,Explications ,Fairness assessment ,Fairness-Accuracy trade-Off ,[INFO]Computer Science [cs] ,Unfairness mitigation ,[INFO.INFO-AI]Computer Science [cs]/Artificial Intelligence [cs.AI] - Abstract
Algorithmic decisions are currently being used on a daily basis. These decisions often rely on Machine Learning (ML) algorithms that may produce complex and opaque ML models. Recent studies raised unfairness concerns by revealing discriminating outcomes produced by ML models against minorities and unprivileged groups. As ML models are capable of amplifying discrimination against minorities due to unfair outcomes, it reveals the need for approaches that uncover and remove unintended biases. Assessing fairness and mitigating unfairness are the two main tasks that have motivated the growth of the research field called {algorithmic fairness}. Several notions used to assess fairness focus on the outcomes and link to sensitive features (e.g. gender and ethnicity) through statistical measures. Although these notions have distinct semantics, the use of these definitions of fairness is criticized for being a reductionist understanding of fairness whose aim is basically to implement accept/not-accept reports, ignoring other perspectives on inequality and on societal impact. Process fairness instead is a subjective fairness notion which is centered on the process that leads to outcomes. To mitigate or remove unfairness, approaches generally apply fairness interventions in specific steps. They usually change either (1) the data before training or (2) the optimization function or (3) the algorithms' outputs in order to enforce fairer outcomes. Recently, research on algorithmic fairness have been dedicated to explore combinations of different fairness interventions, which is referred to in this thesis as {fairness hybrid-processing}. Once we try to mitigate unfairness, a tension between fairness and performance arises that is known as the fairness-accuracy trade-off. This thesis focuses on the fairness-accuracy trade-off problem since we are interested in reducing unintended biases without compromising classification performance. We thus propose ensemble-based methods to find a good compromise between fairness and classification performance of ML models, in particular models for binary classification. In addition, these methods produce ensemble classifiers thanks to a combination of fairness interventions, which characterizes the fairness hybrid-processing approaches. We introduce FixOut ({F}a{I}rness through e{X}planations and feature drop{Out}), the human-centered, model-agnostic framework that improves process fairness without compromising classification performance. It receives a pre-trained classifier (original model), a dataset, a set of sensitive features, and an explanation method as input, and it outputs a new classifier that is less reliant on the sensitive features. To assess the reliance of a given pre-trained model on sensitive features, FixOut uses explanations to estimate the contribution of features to models' outcomes. If sensitive features are shown to contribute globally to models' outcomes, then the model is deemed unfair. In this case, it builds a pool of fairer classifiers that are then aggregated to obtain an ensemble classifier. We show the adaptability of FixOut on different combinations of explanation methods and sampling approaches. We also evaluate the effectiveness of FixOut w.r.t. to process fairness but also using well-known standard fairness notions available in the literature. Furthermore, we propose several improvements such as automating the choice of FixOut's parameters and extending FixOut to other data types.; Les décisions algorithmiques sont actuellement utilisées quotidiennement. Ces décisions reposent souvent sur des algorithmes d'apprentissage automatique (machine learning, ML) qui peuvent produire des modèles complexes et opaques. Des études récentes ont soulevé des problèmes d'iniquité en révélant des résultats discriminatoires produits par les modèles ML contre des minorités et des groupes non privilégiés. Comme les modèles ML sont capables d'amplifier la discrimination en raison de résultats injustes, cela révèle la nécessité d'approches qui découvrent et suppriment les biais inattendues. L'évaluation de l'équité et l'atténuation de l'iniquité sont les deux tâches principales qui ont motivé la croissance du domaine de recherche en équité algorithmique (algorithmic fairness). Plusieurs notions utilisées pour évaluer l'équité se concentrent sur les résultats et sont liées à des attributs sensibles (par exemple, l'éthinicité) par des mesures statistiques. Bien que ces notions aient une sémantique distincte, l'utilisation de ces définitions est critiquée pour sa compréhension réductrice de l'équité, dont le but est essentiellement de mettre en œuvre des rapports d'acceptation/non-acceptation, ignorant d'autres perspectives sur l'iniquité et l'impact sociétal. Process fairness (équité des procédures) est au contraire une notion d'équité subjective, centrée sur le processus qui conduit aux résultats. Pour atténuer ou supprimer l'iniquité, les approches appliquent généralement des interventions en matière d'équité selon des étapes spécifiques. Elles modifient généralement soit les données avant l'apprentissage, la fonction d'optimisation ou les sorties des algorithmes afin d'obtenir des résultats plus équitables. Récemment, les recherches ont été consacrées à l'exploration de combinaisons de différentes interventions en matière d'équité, ce qui est désigné dans cette thèse par le traitement hybride de l'équité. Une fois que nous essayons d'atténuer l'iniquité, une tension entre l'équité et la performance apparaît, connue comme le compromis équité/précision. Cette thèse se concentre sur le problème du compromis équité/précision, puisque nous sommes intéressés par la réduction des biais inattendues sans compromettre les performances de classification. Nous proposons donc des méthodes ensemblistes pour trouver un bon compromis entre l'équité et la performance de classification des modèles ML, en particulier les classificateurs binaires. De plus, ces méthodes produisent des classificateurs d'ensemble grâce à une combinaison d'interventions sur l'équité, ce qui caractérise les approches de traitement hybride de l'équité. Nous proposons FixOut (FaIrness through eXplanations and feature dropOut), un framework centré sur l'humain et agnostique vis-à-vis des modèles qui améliore l'équité sans compromettre les performances de classification. Il reçoit en entrée un classificateur pré-entraîné, un ensemble de données, un ensemble de attributs sensibles et une méthode d'explication, et il produit un nouveau classificateur qui dépend moins des attributs sensibles. Pour évaluer la dépendance d'un modèle pré-entraîné aux attributs sensibles, FixOut utilise des explications pour estimer la contribution des attributs aux résultats du modèle. S'il s'avère que les attributs sensibles contribuent globalement aux résultats, alors le modèle est considéré comme injuste. Dans ce cas, il construit un groupe de classificateurs plus justes qui sont ensuite agrégés pour obtenir un modèle d'ensemble. Nous montrons l'adaptabilité de FixOut sur différentes combinaisons de méthodes d'explication et d'approches d'échantillonnage. Nous évaluons également l'efficacité de FixOut par rapport au process fairness mais aussi en utilisant des notions d'équité standard bien connues disponibles dans la littérature. De plus, nous proposons plusieurs améliorations telles que l'automatisation du choix des paramètres et l'extension de FixOut à d'autres types de données.
- Published
- 2023
4. Recherche incomplète aidée par une base de conflits
- Author
-
Tran, Trong-Hieu, Pralet, Cédric, Fargier, Hélène, Sciencesconf.org, CCSD, and Artificial and Natural Intelligence Toulouse Institute - - ANITI2019 - ANR-19-P3IA-0004 - P3IA - VALID
- Subjects
[MATH.MATH-CO] Mathematics [math]/Combinatorics [math.CO] ,recherche incomplète ,compilation de connaissances ,[INFO.INFO-RO] Computer Science [cs]/Operations Research [cs.RO] ,OPTW ,explications - Abstract
Dans ce travail, nous considérons la résolution de problème OPTW avec des méthodes de recherche incomplète aidées par une base de connaissances. L'objectif est d'extraire et de mémoriser des conflits au fur et à mesures des itérations dans une mémoire long-terme. Par rapport à des mécanismes de recherche tabou, l'enjeu est d'obtenir une base de conflits plus pérenne. Pour expérimenter cette approche sur les OPTW, nous proposons trois méthodes de gestion de la base de conflits et évaluons ses performances dans le solveur global. Ces conflits sont utilisés pour guider la recherche dans le futur, soit pour éviter de ré-explorer des configurations non admissibles, soit pour identifier les zones les plus prometteuses dans l'espace de recherche.
- Published
- 2022
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.