71 results on '"González Osorio, Fabio Augusto"'
Search Results
2. A Deep Learning Architecture for Image Representation, Visual Interpretability and Automated Basal-Cell Carcinoma Cancer Detection
- Author
-
Cruz-Roa, Angel Alfonso, Arevalo Ovalle, John Edison, Madabhushi, Anant, González Osorio, Fabio Augusto, Hutchison, David, editor, Kanade, Takeo, editor, Kittler, Josef, editor, Kleinberg, Jon M., editor, Mattern, Friedemann, editor, Mitchell, John C., editor, Naor, Moni, editor, Nierstrasz, Oscar, editor, Pandu Rangan, C., editor, Steffen, Bernhard, editor, Sudan, Madhu, editor, Terzopoulos, Demetri, editor, Tygar, Doug, editor, Vardi, Moshe Y., editor, Weikum, Gerhard, editor, Mori, Kensaku, editor, Sakuma, Ichiro, editor, Sato, Yoshinobu, editor, Barillot, Christian, editor, and Navab, Nassir, editor
- Published
- 2013
- Full Text
- View/download PDF
3. Mining Candlesticks Patterns on Stock Series: A Fuzzy Logic Approach
- Author
-
Vásquez, Mario Linares, González Osorio, Fabio Augusto, Hernández Losada, Diego Fernando, Hutchison, David, Series editor, Kanade, Takeo, Series editor, Kittler, Josef, Series editor, Kleinberg, Jon M., Series editor, Mattern, Friedemann, Series editor, Mitchell, John C., Series editor, Naor, Moni, Series editor, Nierstrasz, Oscar, Series editor, Pandu Rangan, C., Series editor, Steffen, Bernhard, Series editor, Sudan, Madhu, Series editor, Terzopoulos, Demetri, Series editor, Tygar, Doug, Series editor, Vardi, Moshe Y., Series editor, Weikum, Gerhard, Series editor, Goebel, Randy, editor, Siekmann, Jörg, editor, Wahlster, Wolfgang, editor, Huang, Ronghuai, editor, Yang, Qiang, editor, Pei, Jian, editor, Gama, João, editor, Meng, Xiaofeng, editor, and Li, Xue, editor
- Published
- 2009
- Full Text
- View/download PDF
4. Estrategia de enseñanza basada en la colaboración y la evaluación automática de código fuente en un curso de programación CS1
- Author
-
Hidalgo, Carlos, Bucheli G., Víctor A., Restrepo Calle, Felipe, González Osorio, Fabio Augusto, Hidalgo, Carlos, Bucheli G., Víctor A., Restrepo Calle, Felipe, and González Osorio, Fabio Augusto
- Abstract
Context and Objective: The Introductory Programming Course (CS1), is one of the programming courses, with higher mortality rates, this is reflected in the low marks of the students. Which suggests that the current learning method does not allow the student to awaken programming skills and improve academic performance. In this sense, this article proposes a strategy to stimulate programming skills and improve the academic qualification of students of the CS1 course, through a collaborative activity supported by an automatic code assessment tool. Methodology: A study was designed with two groups of students with the goal of answering the following questions. How much time on average, is the time required for solving a programming task reduced using a collaborative strategy supported by an automatic code evaluation tool? And how much does the average grade for a programming task increase on average, using a collaborative strategy supported by an automatic code evaluation tool? Results: The results of the study demonstrate that the use of collaboration strategies in conjunction with and automatic evaluation tool, improves the grades by 50% and improves the student programming skills, by supporting knowledge sharing to solve a programming task in less time Conclusions: The development of strategies that integrate collaboration and the automatic code assessment positively impact the programming learning process of programming, significantly improving the student's qualification, as well as interpersonal skills that encourage the improvement of programming courses., Contexto y Objetivo: El curso de Introducción a la Programación CS1, es uno de los cursos de programación de computadores, con mayores índices de mortalidad académica, esto se ve reflejado en las bajas calificaciones de los estudiantes. Lo que podría indicar que el método de aprendizaje actual no permite que el estudiante desarrolle las habilidades en la programación y mejore su rendimiento académico. En este sentido, en este artículo se propone una estrategia para estimular el desarrollo de las habilidades en programación y la mejora de la calificación académica de los estudiantes del curso CS1, a través de una actividad colaborativa soportada por una herramienta de evaluación automática de código fuente. Metodología: Se integró la colaboración y la evaluación automática de código fuente para una actividad de programación que permitió responder las siguientes cuestiones: ¿cuánto tiempo en promedio, se reduce la solución de una tarea de programación mediante una estrategia colaborativa apoyada por una herramienta de evaluación automática de código?, y ¿cuánto se incrementa en la calificación promedio de una tarea de programación utilizando una estrategia colaborativa apoyada por una herramienta de evaluación automática de código? Resultados: Los experimentos de este trabajo, demuestran que el uso de la colaboración y la evaluación de código fuente automático, mejora las calificaciones en un 50% y afianzan las habilidades de programación, permitiendo intercambiar conocimientos para resolver una tarea de programación en menor tiempo. Conclusiones: El desarrollo de estrategias que integran la colaboración y la evaluación automática de código impactan positivamente en el proceso de aprendizaje de programación, mejorando significativamente las calificaciones del estudiante, además de habilidades interpersonales que incentivan a mejorar los cursos de programación.
- Published
- 2021
5. SOPHIA: System for Ophthalmic Image Acquisition, Transmission, and Intelligent Analysis
- Author
-
Perdomo Charry, Oscar Julián, Pérez Pérez, Andrés Daniel, Pava Rodríguez, Melissa de la, Ríos, Hernán, Arias Vanegas, Víctor Alfonso, Lara Ramírez, Juan Sebastián, Toledo Cortés, Santiago, Rodríguez Alvira, Francisco José, González Osorio, Fabio Augusto, Camargo, Jorge E., Perdomo Charry, Oscar Julián, Pérez Pérez, Andrés Daniel, Pava Rodríguez, Melissa de la, Ríos, Hernán, Arias Vanegas, Víctor Alfonso, Lara Ramírez, Juan Sebastián, Toledo Cortés, Santiago, Rodríguez Alvira, Francisco José, González Osorio, Fabio Augusto, and Camargo, Jorge E.
- Abstract
Ocular diseases are one of the main causes of irreversible disability in people in productive age. In 2020, approximately 18% of the worldwide population was estimated to suffer of diabetic retinopathy and diabetic macular edema, but, unfortunately, only half of these people were correctly diagnosed. On the other hand, in Colombia, the diabetic population (8% of the country’s total population) presents or has presented some ocular complication that has led to other associated costs and, in some cases, has caused vision limitation or blindness. Eye fundus images are the fastest and most economical source of ocular information that can provide a full clinical assessment of the retinal condition of patients. However, the number of ophthalmologists is insufficient and the clinical settings, as well as the attention of these experts, are limited to urban areas. Also, the analysis of said images by professionals requires extensive training, and even for experienced ones, it is a cumbersome and error-prone process. Deep learning methods have marked important breakthroughs in medical imaging due to outstanding performance in segmentation, detection, and disease classification tasks. This article presents SOPHIA, a deep learning-based system for ophthalmic image acquisition, transmission, intelligent analysis, and clinical decision support for the diagnosis of ocular diseases. The system is under active development in a project that brings together healthcare provider institutions, ophthalmology specialists, and computer scientists. Finally, the preliminary results in the automatic analysis of ocular images using deep learning are presented, as well as future work necessary for the implementation and validation of the system in Colombia., Las enfermedades oculares son una de las principales causas de incapacidad irreversible en personas en edad productiva. En 2020, la población mundial con retinopatía diabética y edema macular diabético está estimada como el 18% de la población mundial, aproximadamente, desafortunadamente, solo la mitad de estas personas fueron diagnosticadas correctamente. Por otro lado, en Colombia, la población diabética (8% de la población total del país) presenta o ha presentado alguna complicación ocular que ha llevado a otros costos asociados y, en algunos casos, ha provocado limitación de la visión o ceguera. Las imágenes de fondo de ojo son la fuente de información ocular más rápida y económica que puede proveer una valoración clínica del estado de la retina de los pacientes. Sin embargo, el número de oftalmólogos es insuficiente, la atención de estos expertos está limitada a zonas urbanas, y el análisis de dichas imágenes por parte de profesionales requiere una amplia formación; incluso para los más experimentados, es un proceso engorroso y propenso a errores. Los métodos de aprendizaje profundo han marcado avances importantes en imágenes médicas debido al desempeño sobresaliente en tareas de segmentación, detección y clasificación de enfermedades. Este artículo presenta SOPHIA, un sistema basado en el aprendizaje profundo para la adquisición, transmisión, análisis inteligente y soporte de decisiones clínicas para el diagnóstico de enfermedades oculares. El sistema se encuentra en desarrollo activo en un proyecto que reúne a instituciones proveedoras de salud, especialistas en oftalmología e informáticos. Finalmente, los resultados preliminares en el análisis automático de imágenes oculares utilizando el aprendizaje profundo son presentados, y se discute el trabajo futuro necesario para la implementación y validación del sistema en Colombia.
- Published
- 2020
6. A Deep Learning Architecture for Image Representation, Visual Interpretability and Automated Basal-Cell Carcinoma Cancer Detection
- Author
-
Cruz-Roa, Angel Alfonso, primary, Arevalo Ovalle, John Edison, additional, Madabhushi, Anant, additional, and González Osorio, Fabio Augusto, additional
- Published
- 2013
- Full Text
- View/download PDF
7. Estrategia de enseñanza basada en la colaboración y la evaluación automática de código fuente en un curso de programación CS1
- Author
-
Hidalgo Suarez, Carlos Giovanny, primary, Bucheli Guerrero, Víctor Andrés, additional, Restrepo Calle, Felipe, additional, and González Osorio, Fabio Augusto, additional
- Published
- 2020
- Full Text
- View/download PDF
8. Mining Candlesticks Patterns on Stock Series: A Fuzzy Logic Approach
- Author
-
Vásquez, Mario Linares, primary, González Osorio, Fabio Augusto, additional, and Hernández Losada, Diego Fernando, additional
- Published
- 2009
- Full Text
- View/download PDF
9. SOPHIA: System for Ophthalmic Image Acquisition, Transmission, and Intelligent Analysis
- Author
-
Perdomo-Charry, Oscar Julián, primary, Pérez-Pérez, Andrés Daniel, primary, De-la-Pava-Rodríguez, Melissa, primary, Ríos-Calixto, Hernán Andrés, primary, Arias-Vanegas, Víctor Alfonso, primary, Lara-Ramírez, Juan Sebastián, primary, Toledo-Cortés, Santiago, primary, Camargo-Mendoza, Jorge Eliecer, primary, Rodríguez-Alvira, Francisco José, primary, and González-Osorio, Fabio Augusto, primary
- Published
- 2020
- Full Text
- View/download PDF
10. A Systematic Review of Deep Learning Methods Applied to Ocular Images
- Author
-
Perdomo Charry, Oscar Julian, primary and González Osorio, Fabio Augusto, additional
- Published
- 2019
- Full Text
- View/download PDF
11. Estrategia de enseñanza basada en la colaboración y la evaluación automática de código fuente en un curso de programación CS1.
- Author
-
Hidalgo Suarez, Carlos Giovanny, Bucheli Guerrero, Víctor Andrés, Restrepo Calle, Felipe, and González Osorio, Fabio Augusto
- Subjects
SOFTWARE development tools ,LEARNING ,INFORMATION sharing ,EXPERIMENTAL design ,ABILITY - Abstract
Copyright of Investigación e Innovación en Ingenierías is the property of Universidad Simon Bolivar and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2021
- Full Text
- View/download PDF
12. Intelligent software and tecnological convergence
- Author
-
Peña-Bueno, Leidy Marcela, Rodríguez-Lozano, Yesid, Luengas-Contreras, Lely Adriana, Serrato-Panqueba, Beatriz Nathalia, Castillo-Medina, Carlos Arturo, Ávila-Velandia, Daniel Eduardo, Velandia, John, Vanzina, Juan, Almanzar, Nicolás, Bolívar-Barón, Holman Diego, Martínez-Rojas, Mario, Ríos-Cruz, Sonia Gisela, García-Linares, Karol Andrea, Hernández-Martínez, Henry Alberto, Gutiérrez, Miguel Ángel, Ariza-Guerrero, Holman Alexander, Sierra-Poveda, Edwin Gustavo, Parrado, José Joaquín, Ramírez-Arroyave, Germán Augusto, Rincón-Yáñez, Diego Alberto, Miranda, Álvaro Sebastián, Ángel, Julián Mauricio, Guardiola-León, Daniel Yessid, Camargo-Casallas, Esperanza, Luengas, Lely Adriana, Pérez-Hoyos, Gustavo, Forero-Cortés, Nelson Eduardo, Coronel-Segrera, César Augusto, Bernal-Salamanca, Andrea Estefanía, Rincón-Arango, Valeria, Mejía-Villamil, Ernesto, Castro-Rivera, Rafael David, Camelo, Sandra, Rojas, Daniel, García, César, Segovia, Andrés, Guzmán-Avendaño, Roger Enrique, Berdugo-Lattke, Mary Lee, Gómez-Jaramillo, Francisco Albeiro, González-Osorio, Fabio Augusto, Rangel-Churio, Jesús Orlando, Bohórquez-Alba, Jeffersson Alexánder, Garzón-Bejarano, Mauricio, Arévalo-Peña, Javier Enrique, Quiroga-Saavedra, Luisa Fernanda, Muriel-Perea, Yasser de Jesús, Villegas-González, Paula Andrea, Ramos-Cañón, Alfonso Mariano, González-Salazar, Ramón Eduardo, González, Álex Mauricio, Cristancho, Laura, Mejía-Villamil, Andrés Ernesto, Pérez-Malaver, Edna Rocío, Guerrero-Rueda, William Javier, Ospina, Victoria Eugenia, Durán-Gaviria, Edwin Daniel, Arango-Marín, Jaime Antero, Cárdenas-Cardona, Adriana, Giedelman-Lasprilla, Nicolás, Sarmiento-Lepesqueur, Angélica, Ospina-Becerra, Victoria Eugenia, Galvis-Botía, Víctor Hugo, Díaz-Benito, César Orlando, Rodríguez-Beltrán, Iván Darío, Pereira-Vásquez, Cristhian Javier, Durán-Gaviria, Edwin Daniel, Durán-Gaviria, Edwin Daniel (General chair), Durán-Gaviria, Edwin Daniel (Comité organizador), Gómez-López, Gloria Amparo (Comité organizador), Díaz-Piraquive, Flor Nancy (Comité organizador), Díaz-Ortiz, Jaime (Comité organizador), Bolívar-Barón, Holman Diego (Comité organizador), Castillo-Medina, Carlos Arturo (Comité organizador), Bolívar-Barón, Holman Diego (Comité científico), Díaz-Piraquive, Flor Nancy (Comité científico), Castillo-Medina, Carlos Arturo (Comité científico), Durán-Gaviria, Edwin Daniel (Comité científico), Becerra-Fernández, Mauricio (Comité científico), González-La Rotta, Elsa Cristina (Comité científico), Serrato-Panqueva, Beatriz Nathalia (Comité científico), Martínez-Rojas, Mario (Comité científico), Rodríguez, Álvaro (Comité científico), Velandia-Vega, John Alexánder (Comité científico), Ávila-Velandia, Daniel Eduardo (Comité científico), Moreno-Anselmi, Luis Ángel (Comité científico), Sánchez, Andrés (Personal de apoyo), Fernández, Diana Paola (Personal de apoyo), Arias, Ethel (Personal de apoyo), Acevedo-Daza, Blanca Ligia (Personal de apoyo), and Prieto, José Joaquín (Personal de apoyo)
- Subjects
MATLAB ,NANOESTRUCTURAS-RESÚMENES ,APRENDIZAJE DE MÁQUINA ,INDUSTRIAS PESADAS-RESÚMENES ,TECNOLOGÍA DE LA INFORMACIÓN-RESÚMENES ,INTERACCIÓN HOMBRE-COMPUTADOR-RESÚMENES ,SOFTWARE DE PROGRAMACIÓN-RESÚMENES ,INTELIGENCIA ARTIFICIAL DISTRIBUIDA-RESÚMENES ,IMPLEMENTACIONES REST ,FRACTAL ,CONTROL DIFUSO ,INGENIERAS-CONGRESOS, CONFERENCIAS, ETC ,PRÓTESIS TRANSTIBIALES ,TECNOLOGÍA DE LA INFORMACIÓN Y LA COMUNICACIÓN ,MULTIPLATAFORMA ,PRODUCTIVIDAD ,CONGRESO INTERNACIONAL DE INNOVACIÓN Y TENDENCIAS EN INGENIERÍA (CONIITI) ,AUTOMATIZACIÓN ,ENFERMERÍA ,MAQUINARIA AUTOMÁTICA-RESÚMENES ,EXTRACCIÓN DE CARACTERÍSTICAS ,EDUCACIÓN EN LÍNEA-RESÚMENES ,PUBLICACIONES CIENTÍFICAS-INVESTIGACIÓN-UNIVERSIDAD CATÓLICA DE COLOMBIA. FACULTAD DE INGENIERÍA-2015 ,ENTORNOS VIRTUALES DE APRENDIZAJE ,INTELIGENCIA ARTIFICIAL ,AUTOCUIDADO BESA ,LOGÍSTICA HOSPITALARIA ,LÓGICA MODAL ,SOFTWARE INTELIGENTE ,ONTOLOGÍA ,PROGRAMACIÓN NO LINEAL-RESÚMENES ,REDES DIFUSAS ,SIMULACIONES DE RADIOPROPAGACIÓN ,SOFTWARE DE SIMULACIÓN ELECTROMAGNÉTICA ,CADENA DE VALOR ,PROCESO INDUSTRIAL ,ERGONOMÍA ,REDES CONVERGENTES - Abstract
La Facultad de Ingeniería de la Universidad Católica de Colombia, conforme al factor calidad y considerando las tendencias de vanguardia en el ámbito de innovación en ingeniería, desarrollo en la segunda parte de esté congreso, el software inteligente y convergencia tecnológica, Raspberry PI dispositivo apuntador utilizando Open CV, Procesar imágenes identificando maleza en cultivos, también plataformas tecnológicas en enseñanza en la automatización industrial, implementación de JAX-RS, arquitectura soportada en sistemas inteligentes con control de aprendizaje interactivo, modelado del efecto de alineación estática en prótesis transtibiales en redes neuronales, desarrollo e implementación robótica industrial, modelos en la predicción de pérdidas de propagación de ondas electromagnéticas por celular, además, sistemas de autocuidado para el monitoreo en la infraestructura tecnológica distribuida, modelado de elementos 3D trabajos basados en redes difusas, lógica modal de comunicación en sistemas multiagentes, sistemas de adquisición de datos en procesos agroindustriales, herramientas diagnostica en ergonomía aplicada en puesto de trabajo uso de música colombiana en estudiantes colombianos con BCI, sin olvidar, el método automático en morfología digital de hojas tropicales en Colombia, simulación de radiopropagación en red LTE en banda de dividendo digital, desarrollo de plataformas con inteligencia artificial, Cloud computing una oportunidad para las mipymes en Colombia, ontología en la construcción de indicadores en un sistema de soporte con identificador de vulnerabilidad, Nano y biotecnología para generar energía, modelo de optimización del programa para intercambio de riñones, adicionalmente, la tendencia en redes y banda ancha, aplicación de algoritmo genético en nuevos productos, control de maleza en la productividad de cultivo, tecnología de la información para la asignación de turnos de enfermería, antenas fractales en nanoestructuradas, y por último, Brokering servicios multiplataforma con accesibilidad de profesores y estudiantes a contenido educativo gratis. (Redacción propia). II. Software Inteligente y Convergencia Tecnológica. Raspberry Pi como dispositivo apuntador utilizando OpenCV e integrales proyectivas. Procesamiento de imágenes para identificación de malezas en cultivos. Plataforma tecnológica para la enseñanza y la simulación de procesos en automatización industrial. Comparación de implementaciones JAX-RS. Arquitectura distribuida soportada en sistemas inteligentes difusos para el seguimiento del aprendizaje en entornos interactivos. Modelado del efecto de la alineación estática de prótesis transtibiales aplicando redes neuronales. Diseño, desarrollo e implementación de la robótica industrial. Modelos para la predicción de pérdidas de propagación de ondas electromagnéticas en interiores en frecuencias de comunicación celular. Sistema de autocuidado basado en un enfoque de multiagentes para el monitoreo y la corrección de problemas en una infraestructura tecnológica distribuida. Modelado de elementos 3D: de Solidworks a Matlab. Construcción de activos de trabajo basados en conocimiento con redes difusas. Lógica modal en la formalización de comunicación en sistemas multiagentes. Sistemas de adquisición de datos en redes convergentes aplicados en procesos de agroindustria. Herramienta diagnóstica para la evaluación ergonómica del puesto de trabajo. El uso de música colombiana para evaluar el sentido de pertenencia en estudiantes colombianos con BCI. Un método automático para la caracterización morfológica digital de hojas tropicales de Colombia. Simulación de radiopropagación para el diseño de una red LTE en la banda del dividendo digital. Marco conceptual para el desarrollo de plataformas de enseñanza y aprendizaje basadas en inteligencia artificial. Cloud computing, una oportunidad para apalancar la cadena de valor de las mipymes en Colombia. Ontología para la construcción de indicadores de un sistema de soporte a las decisiones para la identificación del índice de vulnerabilidad territorial. Nano y biotecnología para la generación de energía (proyectos Universidad Católica). Modelo de optimización del programa de intercambio de riñones con múltiples etapas. Tendencias en redes y servicios de banda ancha. Aplicación de algoritmos genéticos al diseño de nuevos productos. El control de malezas como elemento significativo en la productividad de cultivos. Tecnologías de la información para resolver el problema de asignación de turnos de enfermería. Antenas fractales nanoestructuradas y estudiantes a contenidos educativos gratuitos.
- Published
- 2015
13. Recomendación de productos a partir de perfiles de usuario interpretables
- Author
-
Becerra Cortés, Claudia Jeanneth, Jiménez Vargas, Sergio Gonzalo, González Osorio, Fabio Augusto, Gelbukh, Alexander, Becerra Cortés, Claudia Jeanneth, Jiménez Vargas, Sergio Gonzalo, González Osorio, Fabio Augusto, and Gelbukh, Alexander
- Abstract
Recommender systems allow users to have a personalized view of large sets of products, relieving the overload problem of choice in e-commerce sites. Usually, recommendations are obtained using the technique called "collaborative filtering". This technique filters the products the users wish, from those they don´t want, inferring affinities between products and users in a space of abstract features, also called a latent space. These techniques have proven to be of great predictive value, but these created profiles are neither understandable, nor editable for users, enclosing users in a bubble, in which they only receive collaborative recommendations conditioned by their historical behaviors. In our work we propose a method to build user profiles, defined in interpretable spaces, or defined in terms of collaborative tags or keywords (i.e. words extracted from the descriptions of the product), which can be interpreted and modified by users. The model proposed generate linear profiles, whose coefficients, positive or negative, reflect the user's affinity towards tags or keywords, according to the space selected. To test our hypothesis, we used the dataset of research in movie recommender systems from the University of Minnesota: Movielens. The results show that the predictive ability of the model, based on interpretable user profiles, is comparable to those models based on abstract profiles with the added benefit that these profiles are interpretable., Los sistemas de recomendación automática de productos permiten que los usuarios tengan una visión personalizada de grandes conjuntos de productos, lo cual alivia el problema de la sobrecarga de opciones en los sitios de comercio electrónico. Usualmente las recomendaciones se obtienen usando la técnica denominada “filtrado colaborativo”. Esta técnica permite filtrar los productos que el usuario desea de aquellos que no desea, infiriendo las afinidades entre productos, y usuarios, en un espacio de características abstracto. Si bien estas técnicas han mostrado ser de gran valor predictivo, su baja (o nula) interpretabilidad hace que el usuario, al no poder modificar su perfil, quede encerrado en una especie de burbuja, en la cual solo recibe recomendaciones colaborativas condicionadas por su comportamiento histórico. En este trabajo proponemos construir perfiles de usuario definidos en espacios interpretables como el de las etiquetas colaborativas (tags) o bien palabras claves extractadas automáticamente de las descripciones de los productos, que al ser interpretables permitan al usuario modificar su propio perfil. Este modelo se basa en la obtención de perfiles usando modelos lineales, cuyos coeficientes, positivos o negativos, reflejan la afinidad del usuario hacia la etiqueta o a la palabra clave. Para probar nuestra hipótesis, utilizamos el conjunto de datos de investigación en sistemas de recomendación de películas de la Universidad de Minnesota, MovieLens; los resultados obtenidos muestran que la capacidad predictiva del modelo es comparable a la de los métodos no interpretables, con el beneficio adicional de la interpretabilidad.
- Published
- 2015
14. Software inteligente y convergencia tecnológica
- Author
-
Durán Gaviria, Edwin Daniel (Editor), Durán Gaviria, Edwin Daniel (General chair), Durán-Gaviria, Edwin Daniel (Comité organizador), Gómez López, Gloria Amparo (Comité organizador), Díaz Piraquive, Flor Nancy (Comité organizador), Díaz Ortiz, Jaime (Comité organizador), Bolívar Barón, Holman Diego (Comité organizador), Castillo Medina, Carlos Arturo (Comité organizador), Bolívar-Barón, Holman Diego (Comité científico), Díaz-Piraquive, Flor Nancy (Comité científico), Castillo-Medina, Carlos Arturo (Comité científico), Durán-Gaviria, Edwin Daniel (Comité científico), Becerra-Fernández, Mauricio (Comité científico), González-La Rotta, Elsa Cristina (Comité científico), Serrato-Panqueva, Beatriz Nathalia (Comité científico), Martínez-Rojas, Mario (Comité científico), Rodríguez, Álvaro (Comité científico), Velandia-Vega, John Alexánder (Comité científico), Ávila-Velandia, Daniel Eduardo (Comité científico), Moreno-Anselmi, Luis Ángel (Comité científico), Sánchez, Andrés (Personal de apoyo), Fernández, Diana Paola (Personal de apoyo), Arias, Ethel (Personal de apoyo), Acevedo-Daza, Blanca Ligia (Personal de apoyo), Prieto, José Joaquín (Personal de apoyo), Peña-Bueno, Leidy Marcela, Rodríguez-Lozano, Yesid, Luengas-Contreras, Lely Adriana, Serrato-Panqueba, Beatriz Nathalia, Castillo-Medina, Carlos Arturo, Ávila-Velandia, Daniel Eduardo, Velandia, John, Vanzina, Juan, Almanzar, Nicolás, Bolívar, Holman Diego, Martínez-Rojas, Mario, Ríos-Cruz, Sonia Gisela, García-Linares, Karol Andrea, Hernández-Martínez, Henry Alberto, Gutiérrez, Miguel Ángel, Ariza-Guerrero, Holman Alexánder, Sierra-Poveda, Edwin Gustavo, Parrado, José Joaquín, Ramírez-Arroyave, Germán Augusto, Rincón-Yáñez, Diego Alberto, Miranda, Álvaro Sebastián, Ángel, Julián Mauricio, Guardiola-León, Daniel Yessid, Camargo-Casallas, Esperanza, Luengas, Lely Adriana, Pérez-Hoyos, Gustavo, Forero-Cortés, Nelson Eduardo, Coronel-Segrera, César Augusto, Bernal-Salamanca, Andrea Estefanía, Rincón-Arango, Valeria, Mejía-Villamil, Ernesto, Castro Rivera, Rafael David, Camelo, Sandra, Rojas, Daniel, García, César, Segovia, Andrés, Guzmán-Avendaño, Roger Enrique, Berdugo-Lattke, Mary Lee, Gómez-Jaramillo, Francisco Albeiro, González-Osorio, Fabio Augusto, Rangel-Churio, Jesús Orlando, Bohórquez-Alba, Jeffersson Alexánder, Garzón-Bejarano, Mauricio, Arévalo-Peña, Javier Enrique, Quiroga-Saavedra, Luisa Fernanda, de Jesús Muriel Perea, Yasser, Villegas-González, Paula Andrea, Ramos-Cañón, Alfonso Mariano, González-Salazar, Ramón, González, Álex Mauricio, Bolívar-Barón, Holman Diego, Cristancho, Laura, Castro-Rivera, Rafael David, Mejía-Villamil, Andrés Ernesto, Pérez-Malaver, Edna Rocío, Guerrero-Rueda, William Javier, Ospina, Victoria Eugenia, Durán-Gaviria, Edwin Daniel, Arango-Marín, Jaime Antero, Cárdenas-Cardona, Adriana, Giedelman-Lasprilla, Nicolás, Sarmiento-Lepesqueur, Angélica, Ospina-Becerra, Victoria Eugenia, Galvis-Botía, Víctor Hugo, Díaz-Benito, César Orlando, Rodríguez-Beltrán, Iván Darío, Pereira-Vásquez, Cristhian Javier, Durán Gaviria, Edwin Daniel (Editor), Durán Gaviria, Edwin Daniel (General chair), Durán-Gaviria, Edwin Daniel (Comité organizador), Gómez López, Gloria Amparo (Comité organizador), Díaz Piraquive, Flor Nancy (Comité organizador), Díaz Ortiz, Jaime (Comité organizador), Bolívar Barón, Holman Diego (Comité organizador), Castillo Medina, Carlos Arturo (Comité organizador), Bolívar-Barón, Holman Diego (Comité científico), Díaz-Piraquive, Flor Nancy (Comité científico), Castillo-Medina, Carlos Arturo (Comité científico), Durán-Gaviria, Edwin Daniel (Comité científico), Becerra-Fernández, Mauricio (Comité científico), González-La Rotta, Elsa Cristina (Comité científico), Serrato-Panqueva, Beatriz Nathalia (Comité científico), Martínez-Rojas, Mario (Comité científico), Rodríguez, Álvaro (Comité científico), Velandia-Vega, John Alexánder (Comité científico), Ávila-Velandia, Daniel Eduardo (Comité científico), Moreno-Anselmi, Luis Ángel (Comité científico), Sánchez, Andrés (Personal de apoyo), Fernández, Diana Paola (Personal de apoyo), Arias, Ethel (Personal de apoyo), Acevedo-Daza, Blanca Ligia (Personal de apoyo), Prieto, José Joaquín (Personal de apoyo), Peña-Bueno, Leidy Marcela, Rodríguez-Lozano, Yesid, Luengas-Contreras, Lely Adriana, Serrato-Panqueba, Beatriz Nathalia, Castillo-Medina, Carlos Arturo, Ávila-Velandia, Daniel Eduardo, Velandia, John, Vanzina, Juan, Almanzar, Nicolás, Bolívar, Holman Diego, Martínez-Rojas, Mario, Ríos-Cruz, Sonia Gisela, García-Linares, Karol Andrea, Hernández-Martínez, Henry Alberto, Gutiérrez, Miguel Ángel, Ariza-Guerrero, Holman Alexánder, Sierra-Poveda, Edwin Gustavo, Parrado, José Joaquín, Ramírez-Arroyave, Germán Augusto, Rincón-Yáñez, Diego Alberto, Miranda, Álvaro Sebastián, Ángel, Julián Mauricio, Guardiola-León, Daniel Yessid, Camargo-Casallas, Esperanza, Luengas, Lely Adriana, Pérez-Hoyos, Gustavo, Forero-Cortés, Nelson Eduardo, Coronel-Segrera, César Augusto, Bernal-Salamanca, Andrea Estefanía, Rincón-Arango, Valeria, Mejía-Villamil, Ernesto, Castro Rivera, Rafael David, Camelo, Sandra, Rojas, Daniel, García, César, Segovia, Andrés, Guzmán-Avendaño, Roger Enrique, Berdugo-Lattke, Mary Lee, Gómez-Jaramillo, Francisco Albeiro, González-Osorio, Fabio Augusto, Rangel-Churio, Jesús Orlando, Bohórquez-Alba, Jeffersson Alexánder, Garzón-Bejarano, Mauricio, Arévalo-Peña, Javier Enrique, Quiroga-Saavedra, Luisa Fernanda, de Jesús Muriel Perea, Yasser, Villegas-González, Paula Andrea, Ramos-Cañón, Alfonso Mariano, González-Salazar, Ramón, González, Álex Mauricio, Bolívar-Barón, Holman Diego, Cristancho, Laura, Castro-Rivera, Rafael David, Mejía-Villamil, Andrés Ernesto, Pérez-Malaver, Edna Rocío, Guerrero-Rueda, William Javier, Ospina, Victoria Eugenia, Durán-Gaviria, Edwin Daniel, Arango-Marín, Jaime Antero, Cárdenas-Cardona, Adriana, Giedelman-Lasprilla, Nicolás, Sarmiento-Lepesqueur, Angélica, Ospina-Becerra, Victoria Eugenia, Galvis-Botía, Víctor Hugo, Díaz-Benito, César Orlando, Rodríguez-Beltrán, Iván Darío, and Pereira-Vásquez, Cristhian Javier
- Abstract
La Facultad de Ingeniería de la Universidad Católica de Colombia, conforme al factor calidad y considerando las tendencias de vanguardia en el ámbito de innovación en ingeniería, desarrollo en la segunda parte de esté congreso, el software inteligente y convergencia tecnológica, Raspberry PI dispositivo apuntador utilizando Open CV, Procesar imágenes identificando maleza en cultivos, también plataformas tecnológicas en enseñanza en la automatización industrial, implementación de JAX-RS, arquitectura soportada en sistemas inteligentes con control de aprendizaje interactivo, modelado del efecto de alineación estática en prótesis transtibiales en redes neuronales, desarrollo e implementación robótica industrial, modelos en la predicción de pérdidas de propagación de ondas electromagnéticas por celular, además, sistemas de autocuidado para el monitoreo en la infraestructura tecnológica distribuida, modelado de elementos 3D trabajos basados en redes difusas, lógica modal de comunicación en sistemas multiagentes, sistemas de adquisición de datos en procesos agroindustriales, herramientas diagnostica en ergonomía aplicada en puesto de trabajo uso de música colombiana en estudiantes colombianos con BCI, sin olvidar, el método automático en morfología digital de hojas tropicales en Colombia, simulación de radiopropagación en red LTE en banda de dividendo digital, desarrollo de plataformas con inteligencia artificial, Cloud computing una oportunidad para las mipymes en Colombia, ontología en la construcción de indicadores en un sistema de soporte con identificador de vulnerabilidad, Nano y biotecnología para generar energía, modelo de optimización del programa para intercambio de riñones, adicionalmente, la tendencia en redes y banda ancha, aplicación de algoritmo genético en nuevos productos, control de maleza en la productividad de cultivo, tecnología de la información para la asignación de turnos de enfermería, antenas fractales en nanoestructuradas, y por último, Brokerin
- Published
- 2015
15. Software inteligente y convergencia tecnológica
- Author
-
Durán-Gaviria, Edwin Daniel, Durán-Gaviria, Edwin Daniel (General chair), Durán-Gaviria, Edwin Daniel (Comité organizador), Gómez-López, Gloria Amparo (Comité organizador), Díaz-Piraquive, Flor Nancy (Comité organizador), Díaz-Ortiz, Jaime (Comité organizador), Bolívar-Barón, Holman Diego (Comité organizador), Castillo-Medina, Carlos Arturo (Comité organizador), Bolívar-Barón, Holman Diego (Comité científico), Díaz-Piraquive, Flor Nancy (Comité científico), Castillo-Medina, Carlos Arturo (Comité científico), Durán-Gaviria, Edwin Daniel (Comité científico), Becerra-Fernández, Mauricio (Comité científico), González-La Rotta, Elsa Cristina (Comité científico), Serrato-Panqueva, Beatriz Nathalia (Comité científico), Martínez-Rojas, Mario (Comité científico), Rodríguez, Álvaro (Comité científico), Velandia-Vega, John Alexánder (Comité científico), Ávila-Velandia, Daniel Eduardo (Comité científico), Moreno-Anselmi, Luis Ángel (Comité científico), Sánchez, Andrés (Personal de apoyo), Fernández, Diana Paola (Personal de apoyo), Arias, Ethel (Personal de apoyo), Acevedo-Daza, Blanca Ligia (Personal de apoyo), Prieto, José Joaquín (Personal de apoyo), Peña-Bueno, Leidy Marcela, Rodríguez-Lozano, Yesid, Luengas-Contreras, Lely Adriana, Serrato-Panqueba, Beatriz Nathalia, Castillo-Medina, Carlos Arturo, Ávila-Velandia, Daniel Eduardo, Velandia, John, Vanzina, Juan, Almanzar, Nicolás, Bolívar-Barón, Holman Diego, Martínez-Rojas, Mario, Ríos-Cruz, Sonia Gisela, García-Linares, Karol Andrea, Hernández-Martínez, Henry Alberto, Gutiérrez, Miguel Ángel, Ariza-Guerrero, Holman Alexander, Sierra-Poveda, Edwin Gustavo, Parrado, José Joaquín, Ramírez-Arroyave, Germán Augusto, Rincón-Yáñez, Diego Alberto, Miranda, Álvaro Sebastián, Ángel, Julián Mauricio, Guardiola-León, Daniel Yessid, Camargo-Casallas, Esperanza, Luengas, Lely Adriana, Pérez-Hoyos, Gustavo, Forero-Cortés, Nelson Eduardo, Coronel-Segrera, César Augusto, Bernal-Salamanca, Andrea Estefanía, Rincón-Arango, Valeria, Mejía-Villamil, Ernesto, Castro-Rivera, Rafael David, Camelo, Sandra, Rojas, Daniel, García, César, Segovia, Andrés, Guzmán-Avendaño, Roger Enrique, Berdugo-Lattke, Mary Lee, Gómez-Jaramillo, Francisco Albeiro, González-Osorio, Fabio Augusto, Rangel-Churio, Jesús Orlando, Bohórquez-Alba, Jeffersson Alexánder, Garzón-Bejarano, Mauricio, Arévalo-Peña, Javier Enrique, Quiroga-Saavedra, Luisa Fernanda, Muriel-Perea, Yasser de Jesús, Villegas-González, Paula Andrea, Ramos-Cañón, Alfonso Mariano, González-Salazar, Ramón Eduardo, González, Álex Mauricio, Cristancho, Laura, Mejía-Villamil, Andrés Ernesto, Pérez-Malaver, Edna Rocío, Guerrero-Rueda, William Javier, Ospina, Victoria Eugenia, Arango-Marín, Jaime Antero, Cárdenas-Cardona, Adriana, Giedelman-Lasprilla, Nicolás, Sarmiento-Lepesqueur, Angélica, Ospina-Becerra, Victoria Eugenia, Galvis-Botía, Víctor Hugo, Díaz-Benito, César Orlando, Rodríguez-Beltrán, Iván Darío, Pereira-Vásquez, Cristhian Javier, Durán-Gaviria, Edwin Daniel, Durán-Gaviria, Edwin Daniel (General chair), Durán-Gaviria, Edwin Daniel (Comité organizador), Gómez-López, Gloria Amparo (Comité organizador), Díaz-Piraquive, Flor Nancy (Comité organizador), Díaz-Ortiz, Jaime (Comité organizador), Bolívar-Barón, Holman Diego (Comité organizador), Castillo-Medina, Carlos Arturo (Comité organizador), Bolívar-Barón, Holman Diego (Comité científico), Díaz-Piraquive, Flor Nancy (Comité científico), Castillo-Medina, Carlos Arturo (Comité científico), Durán-Gaviria, Edwin Daniel (Comité científico), Becerra-Fernández, Mauricio (Comité científico), González-La Rotta, Elsa Cristina (Comité científico), Serrato-Panqueva, Beatriz Nathalia (Comité científico), Martínez-Rojas, Mario (Comité científico), Rodríguez, Álvaro (Comité científico), Velandia-Vega, John Alexánder (Comité científico), Ávila-Velandia, Daniel Eduardo (Comité científico), Moreno-Anselmi, Luis Ángel (Comité científico), Sánchez, Andrés (Personal de apoyo), Fernández, Diana Paola (Personal de apoyo), Arias, Ethel (Personal de apoyo), Acevedo-Daza, Blanca Ligia (Personal de apoyo), Prieto, José Joaquín (Personal de apoyo), Peña-Bueno, Leidy Marcela, Rodríguez-Lozano, Yesid, Luengas-Contreras, Lely Adriana, Serrato-Panqueba, Beatriz Nathalia, Castillo-Medina, Carlos Arturo, Ávila-Velandia, Daniel Eduardo, Velandia, John, Vanzina, Juan, Almanzar, Nicolás, Bolívar-Barón, Holman Diego, Martínez-Rojas, Mario, Ríos-Cruz, Sonia Gisela, García-Linares, Karol Andrea, Hernández-Martínez, Henry Alberto, Gutiérrez, Miguel Ángel, Ariza-Guerrero, Holman Alexander, Sierra-Poveda, Edwin Gustavo, Parrado, José Joaquín, Ramírez-Arroyave, Germán Augusto, Rincón-Yáñez, Diego Alberto, Miranda, Álvaro Sebastián, Ángel, Julián Mauricio, Guardiola-León, Daniel Yessid, Camargo-Casallas, Esperanza, Luengas, Lely Adriana, Pérez-Hoyos, Gustavo, Forero-Cortés, Nelson Eduardo, Coronel-Segrera, César Augusto, Bernal-Salamanca, Andrea Estefanía, Rincón-Arango, Valeria, Mejía-Villamil, Ernesto, Castro-Rivera, Rafael David, Camelo, Sandra, Rojas, Daniel, García, César, Segovia, Andrés, Guzmán-Avendaño, Roger Enrique, Berdugo-Lattke, Mary Lee, Gómez-Jaramillo, Francisco Albeiro, González-Osorio, Fabio Augusto, Rangel-Churio, Jesús Orlando, Bohórquez-Alba, Jeffersson Alexánder, Garzón-Bejarano, Mauricio, Arévalo-Peña, Javier Enrique, Quiroga-Saavedra, Luisa Fernanda, Muriel-Perea, Yasser de Jesús, Villegas-González, Paula Andrea, Ramos-Cañón, Alfonso Mariano, González-Salazar, Ramón Eduardo, González, Álex Mauricio, Cristancho, Laura, Mejía-Villamil, Andrés Ernesto, Pérez-Malaver, Edna Rocío, Guerrero-Rueda, William Javier, Ospina, Victoria Eugenia, Arango-Marín, Jaime Antero, Cárdenas-Cardona, Adriana, Giedelman-Lasprilla, Nicolás, Sarmiento-Lepesqueur, Angélica, Ospina-Becerra, Victoria Eugenia, Galvis-Botía, Víctor Hugo, Díaz-Benito, César Orlando, Rodríguez-Beltrán, Iván Darío, and Pereira-Vásquez, Cristhian Javier
- Abstract
La Facultad de Ingeniería de la Universidad Católica de Colombia, conforme al factor calidad y considerando las tendencias de vanguardia en el ámbito de innovación en ingeniería, desarrollo en la segunda parte de esté congreso, el software inteligente y convergencia tecnológica, Raspberry PI dispositivo apuntador utilizando Open CV, Procesar imágenes identificando maleza en cultivos, también plataformas tecnológicas en enseñanza en la automatización industrial, implementación de JAX-RS, arquitectura soportada en sistemas inteligentes con control de aprendizaje interactivo, modelado del efecto de alineación estática en prótesis transtibiales en redes neuronales, desarrollo e implementación robótica industrial, modelos en la predicción de pérdidas de propagación de ondas electromagnéticas por celular, además, sistemas de autocuidado para el monitoreo en la infraestructura tecnológica distribuida, modelado de elementos 3D trabajos basados en redes difusas, lógica modal de comunicación en sistemas multiagentes, sistemas de adquisición de datos en procesos agroindustriales, herramientas diagnostica en ergonomía aplicada en puesto de trabajo uso de música colombiana en estudiantes colombianos con BCI, sin olvidar, el método automático en morfología digital de hojas tropicales en Colombia, simulación de radiopropagación en red LTE en banda de dividendo digital, desarrollo de plataformas con inteligencia artificial, Cloud computing una oportunidad para las mipymes en Colombia, ontología en la construcción de indicadores en un sistema de soporte con identificador de vulnerabilidad, Nano y biotecnología para generar energía, modelo de optimización del programa para intercambio de riñones, adicionalmente, la tendencia en redes y banda ancha, aplicación de algoritmo genético en nuevos productos, control de maleza en la productividad de cultivo, tecnología de la información para la asignación de turnos de enfermería, antenas fractales en nanoestructuradas, y por último, Brokerin
- Published
- 2015
16. Saliency-based characterization of group differences for magnetic resonance disease classification
- Author
-
Rueda Olarte, Andrea del Pilar, González Osorio, Fabio Augusto, and Romero Castro, Eduardo
- Subjects
Visual Attention models ,Subject classification ,Saliency maps ,Magnetic Resonance Imaging - Abstract
Anatomical variability of patient's brains limits the statistical analyses about presence or absence of a pathology. In this paper, we present an approach for classification of brain Magnetic Resonance (MR) images from healthy and diseased subjects. The approach builds up a saliency map, which extract regions of relative change in three different dimensions: intensity, orientation and edges. The obtained regions of interest are used as suitable patterns for subject classification using support vector machines. The strategy’s performance was assessed on a set of 198 MR images extracted from the OASIS database and divided into four groups, reporting an average accuracy rate of 74.54% and an average Equal Error Rate of 0.725.
- Published
- 2013
17. Automatic annotation of histopathological images using a latent topic model based on non-negative matrix factorization
- Author
-
Cruz Roa, Angel Alfonso, Díaz Cabrera, Gloria Mercedes, Romero Castro, Eduardo, and González Osorio, Fabio Augusto
- Subjects
Histopathology Images ,61 Ciencias médicas ,Medicina / Medicine and health ,ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION ,Automatic Annotation ,Visual Latent Semantic Analysis ,6 Tecnología (ciencias aplicadas) / Technology ,Bag of Features ,Basal Cell Carcinoma ,Non-negative Matrix Factorization - Abstract
Histopathological images are an important resource for clinical diagnosis and biomedical research. From an image understanding point of view, the automatic annotation of these images is a challenging problem. This paper presents a new method for automatic histopathological image annotation based on three complementary strategies, first, a part-based image representation, called the bag of features, which takes advantage of the natural redundancy of histopathological images for capturing the fundamental patterns of biological structures, second, a latent topic model, based on non-negative matrix factorization, which captures the high-level visual patterns hidden in the image, and, third, a probabilistic annotation model that links visual appearance of morphological and architectural features associated to 10 histopathological image annotations. The method was evaluated using 1,604 annotated images of skin tissues, which included normal and pathological architectural and morphological features, obtaining a recall of 74% and a precision of 50%, which improved a baseline annotation method based on support vector machines in a 64% and 24%, respectively.
- Published
- 2012
18. Recomendación de productos a partir de perfiles de usuario interpretables
- Author
-
Becerra Cortés, Claudia Jeanneth, primary, Jiménez Vargas, Sergio Gonzalo, additional, González Osorio, Fabio Augusto, additional, and Gelbukh, Alexander, additional
- Published
- 2015
- Full Text
- View/download PDF
19. An ontology-based information extractor for data-rich documents in the information technology domain
- Author
-
Jiménez Vargas, Sergio Gonzalo and González Osorio, Fabio Augusto
- Subjects
Knowledge Management ,Semantic Relatedness ,Ontologies ,Fuzzy String Searching ,Word Sense Disambiguation ,Information Extraction - Abstract
This paper presents an information extraction method, suitable for data-rich documents, based on the knowledge represented in a domain ontology. The extractor combines a fuzzy string matcher and a word sense disambiguation (WSD) algorithm. The fuzzy string matcher finds mentions of terms combining character-level and token-level similarity measures dealing with non-standardized acronyms and inconsistent abbreviation styles. We propose a new character-level edit distance sensitive to prefixes called root distance and a token-level similarity algorithm for fuzzy acronym detection. Additionally, a WSD strategy using an ontology-based semantic relatedness measure is used to solve the inherent ambiguity of some entities. The WSD module finds a sense combination over all the document length optimizing the document semantic coherence. Our approach seems to be suitable to extract information from data-rich documents describing Orly one main object (i.e. product) by document. The results showed a precision of 78.9% with 99.5% recall using documents and an ontology related to laptop computers domain.
- Published
- 2008
20. Towards a kernelbased model for artificial immune networks
- Author
-
Galeano Hurtas, Juan Carlos and González Osorio, Fabio Augusto
- Subjects
Computer Science::Neural and Evolutionary Computation ,Intelligent systems ,artificial immune Networks ,kernel methods ,similarity-based clustering - Abstract
This paper presents an adaptation to the strategy of kernel methods of a wellkn own artificial immune network. This adaptation brings to artificial immune systems, for the first time, some of the advantages of kernel methods, such as the ability to deal with non-vector data and the mapping to high-dimensional spaces through the kernel trick. Preliminar y experiments were carried out in order to get some insights of the behavior of the proposed model.
- Published
- 2008
21. Metric indexing for content-based medical image retrieval
- Author
-
Niño, Edwin A., Caicedo Rueda, Juan Carlos, and González Osorio, Fabio Augusto
- Subjects
Medical Images ,InformationSystems_INFORMATIONSTORAGEANDRETRIEVAL ,Information Retrieval ,Content-based Image Retrieval ,Metric Indexing ,Systems and Information Organization ,LAESA - Abstract
The paper proposes an indexing method for fast content-based retrieval in an image repository. The method is based on a metric-indexing strategy that avoids calculating the distance from the query to all the images in the repository. The proponed indexing method is tested on a pathology image Collection comparing its performance against sequential scanning indexing. The results show that the metric indexing method improves the access time by a factor of 10, without a signi?cant sacr i?ce on precision.
- Published
- 2008
22. Programación funcional: conceptos y perspectivas
- Author
-
González Osorio, Fabio Augusto and González Osorio, Fabio Augusto
- Abstract
El presente artículo muestra conceptos subyacentes a la programación funcional, así como características que los hacen un enfoque particular y novedoso de la programación que lo convierten en una clara opción frente al enfoque imperativo convencional en el área del desarrollo de software., El presente artículo muestra conceptos subyacentes a la programación funcional, así como características que los hacen un enfoque particular y novedoso de la programación que lo convierten en una clara opción frente al enfoque imperativo convencional en el área del desarrollo de software.
- Published
- 1998
23. Programación funcional: conceptos y perspectivas
- Author
-
González Osorio, Fabio Augusto, primary
- Published
- 1998
- Full Text
- View/download PDF
24. Automatic characterization of echolocation signals of fishing bats in Villavicencio - Meta for the analysis and support of biodiversity research at the Universidad de los Llanos
- Author
-
Agudelo Villalobos, Leandro Esneyder, Cruz Roa, Ángel Alfonso, and González Osorio, Fabio Augusto
- Subjects
620 - Ingeniería y operaciones afines ,Ultrasound Signals ,Procesamiento Digital de Señales ,Agrupamiento ,Análisis de Señales ,Clustering ,Machine Learning ,Animal echolocation ,Ecolocalización ,Echolocation ,Ecolocalización de murciélagos ,Forrajeo ,Digital Signal Processing ,Bat Echolocation ,Signal Analysis ,Foraging ,Aprendizaje Automático ,Señales de Ultrasonido ,Ecolocación - Abstract
ilustraciones, graficas, tablas Los murciélagos cuentan con la capacidad de la generación de llamados de ecolocalización para los procesos de desplazamiento y captura del alimento. Estos llamados presentan una serie de características temporales y espectrales que permiten adelantar la identificación de especies, géneros o familias, partiendo de los comportamientos asociados a las variaciones de frecuencias conocidos como tipos de pulsos (frecuencia modulada - FM, frecuencia constante - CF y frecuencia cuasi-constante - QCF) las cuales están enmarcadas en las fases del proceso de forrajeo (búsqueda, aproximación y terminal). Debido a la dependencia directa de los expertos y la falta de bases de datos anotadas existentes, se adelantó el presente trabajo el cual consiste en la caracterización automática de señales de ecolocalización de murciélagos pescadores por medio de técnicas de procesamiento digital de señales y aprendizaje computacional no supervisado, aplicadas a un conjunto de 4.426 señales anotadas y validadas por biólogos de la Universidad de los Llanos. A cada audio se le adelantó un preprocesamiento que permitió la extracción e identificación de cada señal de ecolocalización, a la cual se le aplicó un filtro Butterworth pasa banda, previo a la extracción de características espectrales y temporales (Fast Fourier Transform FFT, spectral rolloff, chroma, melspectrogram, Mel Frequency Cepstral Coefficients, spectral centroid, zero crossing rate, entre otras), logrando construir un conjunto de datos de 600 características. Al cual, se le aplicaron los algoritmos Random Forest y Principal Component Analysis para adelantar la reducción de la dimensionalidad; A estos resultados se aplicaron los algoritmos de agrupamiento K-means y Spectral Clustering. De la evaluación realizada se encontró como factor predominante que para la etiqueta de tipos de pulsos la cantidad de clústeres con mejores resultados es de tres (3), tanto para K-means y Spectral Clustering, con un valor máximo de 0,610 para la métrica de coeficiente de silueta. Mientras que para la etiqueta de fases de forrajeo la cantidad de clústeres con mejores resultados es de dos (2), se encontró una mejora en los resultados al implementar PCA a las características identificadas como relevantes mediante Random Forest antes de implementar el proceso de agrupamiento. (Texto tomado de la fuente) Bats have the ability to generate echolocation calls for the processes of movement and capture of food. These calls present a series of temporal and spectral characteristics that allow to identification of species, genera or families, starting from the behaviors associated with frequency variations known as pulses types (modulated frequency - FM, constant frequency -CF and quasi-constant frequency - QCF), which are in the phases of the foraging process (search, approach and terminal phases). By the direct dependence of the experts and the lack of existing annotated databases, the present work was carried out, which consists of the automatic characterization of echolocation signals of fishing bats by means of digital signal processing techniques and unsupervised computational learning, applied to a set of 4,426 signals noted and validated by Biologists from the Universidad de los Llanos. Each audio was preprocessed to extraction and identification of each echolocation signal, to which a Butterworth band-pass filter was applied, prior to the extraction of spectral and temporal characteristics (chroma, melspectrogram, cepstral coefficients of Mel frequency, spectral centroid, zero crossing rate, among others), to build a data set of 600 characteristics. Which the Random Forest and Principal Component Analysis algorithms were applied to advance the reduction of dimensionality; The K-means and Spectral Clustering algorithms were applied to these results. From the evaluation carried out, it was found as a predominant factor that for the label of pulse types, the number of clusters with the best results is three (3), both for K-means and Spectral Clustering, with a maximum value of 0,610 for the silhouette coefficient metric.; While for the label of foraging phases, the number of clusters with the best results is two (2), an improvement in the results was found when implementing PCA to the characteristics identified as relevant by Random Forest before implementing the clustering process. Maestría Magíster en Ingeniería - Ingeniería de Sistemas y Computación Computación Aplicada
- Published
- 2022
25. Aprendizaje profundo semi-supervisado para la clasificación de imágenes oculares
- Author
-
Arrieta Ramos, José Miguel, González Osorio, Fabio Augusto, Perdomo Charry, Oscar Julián, Romero Castro, Edgar Eduardo, Toledo Cortés, Santiago, and Mindlab
- Subjects
Self-supervised learning ,Aprendizaje Profundo ,Retinopatía Diabética/diagnóstico por imagen ,004 - Procesamiento de datos Ciencia de los computadores [000 - Ciencias de la computación, información y obras generales] ,Aprendizaje autosupervisado ,Deep learning ,Aprendizaje semi-supervisado ,Machine Learning ,Diabetic retinopathy ,Retinopatía diabética ,Imágenes médicas ,Semi-supervised learning ,Medical imaging ,Aprendizaje Automático ,Diabetic Retinopathy/diagnostic imaging - Abstract
ilustraciones, gráficas, tablas Regular screening, early diagnosis, and appropriate on-time treatment could prevent vision loss and blindness as a complication of diabetes. Unfortunately, access to expert ophthal- mologists is limited and not readily available. Therefore, automated detection systems could improve access to specialized care by reducing screening time, cost, and e↵ort. Deep learning methods became popular for detecting ocular disease on eye fundus images because of their promising results. However, deep learning models need a large number of labeled images to learn, and the manual labeling of medical images results in a time-consuming and expensive process that requires medical experts in the retina, with little time to devote to this task. As a result, a limited number of annotated images are available. This thesis work proposes a semi-supervised method that leverages unlabeled images and labeled ones to train a mo- del that detects diabetic retinopathy via self-supervised pre-training followed by supervised fine-tuning and knowledge distillation with a small set of labeled images. This method was evaluated on the Messidor-2 dataset achieving 0.89 AUC using only 2 % EyePACS-Kaggle train labeled images. La pérdida de visión y ceguera como complicacíon de la diabetes se podrían prevenir con diagnóstico temprano, exámenes de deteccíon frequentes, y tratamiento oportuno adecuado. Desafortunadamente, el acceso a un oftalmólogo experto es limitado y no es fácilmente disponible. Es por esto que los sistemas de detección automatizados podrían mejorar el acceso a la atención especializada al reducir el tiempo, el costo y el esfuerzo para la detección. Los métodos de aprendizaje profundo se hicieron populares para la detección de enfermedades oculares en imágenes de fondo de ojo debido a sus buenos resultados. Sin embargo, los métodos de aprendizaje profundo necesitan una gran cantidad de imágenes etiquetadas para aprender, siendo el etiquetado manual de imágenes médicas un proceso costoso y lento que requiere escasos expertos médicos en la retina. Como resultado, el número de imágenes anotadas disponibles es limitado. Con este trabajo de tesis se propone un método semi-supervisado que aproveche las imágenes no etiquetadas además de las imágenes etiquetadas para entrenar un modelo que detecte la retinopatía diabética a través de aprendizaje auto-supervisado seguido de un ajuste fino supervisado y destilacion de conocimiento. Este método fue evaluado en el dataset de Messidor-2 logrando un AUC de 0.89 usando solamente 2 % de la particion de entrenamiento de EyePACS-Kaggle con imagenes etiquetadas. (Texto tomado de la fuente). Maestría Magíster en Ingeniería - Ingeniería de Sistemas y Computación Intelligent systems
- Published
- 2022
26. Estrategias computacionales para caracterizar las propiedades topologicas de las redes cerebrales funcionales patológicamente alteradas
- Author
-
Martínez Riaño, Darwin Eduardo, Gómez Jaramillo, Francisco Albeiro, González Osorio, Fabio Augusto, and Combios
- Subjects
Altered consciousness states ,Estado de reposo ,Cerebro ,Topological description ,Descripción topológica ,Topological data analysis ,Brain ,Estados alterados de conciencia ,Resting-state ,Functional connectivity ,Análisis de redes complejas ,Conectividad fun- cional ,Análisis topológico de datos ,Persistent homology ,Homología persistente ,Complex network analysis - Abstract
ilustraciones, gráficas Consciousness alterations, including disorders of consciousness (DOC), propose a defiant scenario from the prognosis and diagnosis perspectives. Brain resting-state functional imaging mitigates this challenge, offering alternatives to explore brain activity in altered consciousness states. Furthermore, connectivity functional variations in resting have been linked with consciousness alterations. So, considering the evidence of connectivity alterations in altered consciousness states, this thesis inquires new computational approximations to describe topological characteristics associated with the resting-state connectivity in altered states of consciousness. This work introduces two computational strategies for the characterization of topological features underlying the graph representation model. The first strategy describes graph connectivity properties of the so-called functional connectome, linking its alterations to the patients' level of consciousness. Despite the capacity characterization of this approach, it is limited only to describe pair-wise interactions, which is the base of the graph model. The second strategy characterizes both low and high-order connectivity properties from the topological perspective using Persistent Homology (PH), resulting in a richer representation of the brain functional interactions. These properties include the number of holes (0 and 1 dimensions) emerging in the resting-state dynamic across different scales. This strategy was investigated in healthy control (HC) subjects and later extended to patients with altered states of consciousness. The first strategy (graph-based) suggests variations in critical properties related to consciousness, such as integration, segregation, and centrality, when comparing HC and patients with DOC. In HC, the second strategy (PH-based) provided evidence of persistent 1-dimensional holes, indicating that resting-state connectivity exhibits high-order interactions. Results also suggest that brain regions associated with the appearance of these 1-holes have a marked symmetry in both cerebral hemispheres. In patients with altered states of consciousness, results related to 0-dimensional holes indicate dissimilarities among the time courses, likely linking to particular integration mechanisms in these conditions. Additionally, 1-dimensional holes were also identified in the pathological population. However, brain regions involved in the appearance of these features differed from the ones observed for HC. In particular, no symmetry was observed. These results shows topological changes in the functional connectome of patients with altered states of consciousness, suggesting that high-order functional interaction mechanisms may play an important role in the emergence of consciousness in patients with DOC. (Texto tomado de la fuente) Las alteraciones de la conciencia, incluyendo los desórdenes de conciencia (DOC), proponen un escenario desafiante desde la perspectiva del pronóstico y el diagnóstico. Las imágenes funcionales del cerebro en estado de reposo reducen este desafı́o, ofreciendo alternativas para explorar la actividad cerebral en estados alterados de conciencia. Además, variaciones en la conectividad funcional en reposo han sido relacionadas con alteraciones de la conciencia. Entonces, considerando la evidencia de cambios de la conectividad en estados alterados de conciencia, esta tesis indaga en nuevas aproximaciones computacionales para describir características topológicas asociadas con la conectividad en estado de reposo para estados alterados de conciencia. Este trabajo presenta dos estrategias para la caracterización de rasgos topológicos subyacentes a los modelos de grafos. La primera estrategia mide las propiedades del grafo o conectoma funcional, vinculando sus variaciones con el nivel de conciencia. Sin embargo, este enfoque está limitado por la base de interacción por pares del modelo de grafos. La segunda estrategia describe propiedades de alto orden de una representación de interacciones simultáneas a través del complejo simplicial mediante el uso de la homologı́a persistente (PH). Las propiedades de alto orden son las fronteras de los huecos de dimensión 0 y 1 del estado de reposo. Esta estrategia se implementa para sujetos controles (HC) sanos y se ajusta para pacientes con estados alterados de conciencia. Los resultados del primer método, basado en medidas de grafos, muestran variaciones en propiedades clave relacionadas con la conciencia, como la integración, la segregación y la centralidad. La segunda estrategia en HC identificaron huecos 1 dimensionales persistentes, indicando que la conectividad en estado de reposo exhibe interacciones de alto orden. Además, hay regiones cerebrales asociadas con la aparición de estos huecos que muestran simetrı́a al ser vistos sobre los hemisferios cerebrales. En pacientes con estados alterados de conciencia, el método incluye la descripción de los huecos 0 dimensionales, denotando la integración entre las señales en estado de reposo. Los resultados de los huecos 0 dimensionales indican distancias mayores entre las señales. Además, en esta población también se identificaron huecos 1 dimensionales. Su persistencia es comparable a la de los sujetos HC, pero las regiones cerebrales involucradas en su ocurrencia son distintas y no se observa simetrı́a. Estos resultados sugieren que efectivamente existen variaciones topológicas de orden bajo y alto asociadas con la alteración de la conciencia. Además, estas variaciones pueden servir para nuevas investigaciones en conciencia. Contiene ecuaciones, figuras y tablas Doctorado Doctor en Ingeniería Computación Aplicada
- Published
- 2022
27. Sobre el rendimiento de la estimación de densidad usando matrices de densidad
- Author
-
Osorio Ramírez, Juan Felipe, González Osorio, Fabio Augusto, and Gallego Mejia, Joseph Alejandro
- Subjects
Density matrix ,Quantum System ,Sistema Cuántico ,518 - Análisis numérico [510 - Matemáticas] ,Random Fourier Features ,Matriz de Densidad ,Características Aleatorias de Fourier ,Kernel Density Estimation ,Estimación Kernel de Densidad - Abstract
Density estimation methods can be used to solve a variety of statistical and machine learning challenges. They can be used to tackle a variety of problems, including anomaly detection, generative models, semi-supervised learning, compression, and text-to-speech. A popular technique to find density estimates for new samples in a non parametric set up is Kernel Density Estimation, a method which suffers from costly evaluations especially for large data sets and higher dimensions. In this thesis we want to compare the performance of the novel method Kernel Density Estimation using Density Matrices introduced by González et al. [9] against other state-of-the-art fast procedures for estimating the probability density function in different sets of complex synthetic scenarios. Our experimental results show that this novel method is a competitive strategy to calculate density estimates among its competitors and also show advantages when performing on large data sets and high dimensions. Los métodos de estimación de densidad se pueden aplicar a diferentes problemas en estadística y aprendizaje automático. Se pueden utilizar para resolver tareas como detección de anomalías, modelos generativos, aprendizaje semi-supervisado, compresión, conversión de texto a voz, entre otras. Una técnica popular para encontrar estimaciones de densidad de nuevas muestras en una configuración no paramétrica se realiza a través de Estimación Kernel de Densidad, un método que adolece de evaluaciones costosas, especialmente para conjuntos de datos grandes y dimensiones altas. En esta tesis queremos comparar el rendimiento del método novedoso Estimación Kernel de Densidad usando Matrices de Densidad introducido por González et al. [9] con otros procedimientos rápidos estado-del-arte para estimar la función de densidad de probabilidad en diferentes conjuntos de escenarios sintéticos complejos. Nuestros resultados experimentales muestran que este novedoso método es una estrategia competitiva de calcular estimaciones de densidad entre sus competidores y también muestra ventajas cuando se trabaja con grandes conjuntos de datos y altas dimensiones. El software utilizado para probar el método propuesto está disponible en línea. (Texto tomado de la fuente) Pregrado Estadístico Quantum Machine Learning
- Published
- 2021
28. Un método de aprendizaje profundo para responder automáticamente a preguntas en dominio cerrado sobre fuentes de información mixta
- Author
-
Rosso Mateus, Andrés Enrique, González Osorio, Fabio Augusto, Montes-y-Gómez, Manuel, and MindLab
- Subjects
Automatic indexing ,Indexación automática ,Recuperación de pasajes ,Biomedical information retrieval ,Recuperación de información ,Machine Learning ,Sistema de información médica ,BioASQ ,Deep Learning ,Medical information systems ,Respuesta a preguntas, recuperación de pasajes, Deep Learning, Machine Learning, recuperación de información, biomédica, BioASQ ,Biomédica ,Question answering ,Respuesta a preguntas ,000 - Ciencias de la computación, información y obras generales ,Passage retrieval - Abstract
digramas, tablas Question Answering (QA) is an active research area due to its usefulness in accessing the ever increasing amount of data. Information needs have led to the emergence of new information retrieval paradigms in which the user can easily access accurate information. QA methods allow to solve queries submitted by the user in natural language concisely and effectively, reducing the need for manual validation of large documents. In closed domains, such the biomedical one, these methods are relevant due to the large amount of specialized documents that make difficult the task of finding specific information as well as the usefulness of this information to support practice and research. In this research work, passage retrieval, which is often the final step in a question-answer system, was particularly addressed. This task evaluates the text fragments that make up the documents that may contain the answer to the question submitted by the user. This evaluation carries out semantic and sometimes syntactic checks that allow to deduce if the text passage is a valid answer, to finally return a ranked list of passages that have a higher probability of being an answer. In a closed domain, such as the biomedical domain, passage retrieval is particularly challenging due to the complexity of biomedical terminology and the heterogeneity of information sources. These challenges, along with others that will be detailed throughout the document, make it necessary to use other sources of information, such as semantic ones, which, when used in combination with textual sources, help to manage the complexity of language. On the other hand, the use of deep learning in this field has great interest and recently it has become increasingly popular as an important tool to solve the task of passage retrieval, however there are very few methods that merge the different modalities of information that in a domain like biomedicine offer obvious advantages. In this research work, different deep learning techniques were explored. In addition, several methods of information fusion were evaluated to take advantage of the complementarity of the modalities. The proposed methods were systematically evaluated in different open and closed domain data sets. Particularly in the biomedical domain the results were outstanding, surpassing the state of the art and demonstrating their effectiveness in the biggest global challenge for this particular task, BioASQ. La tarea de respuesta automática a preguntas (QA), es un área de investigación muy activa debido a su utilidad para acceder a la creciente cantidad de datos. Las necesidades de información han llevado a la aparición de nuevos paradigmas de recuperación de información en los que el usuario puede acceder fácilmente a información precisa. Los métodos de QA permiten resolver las consultas enviadas por el usuario en lenguaje natural de forma concisa y eficaz, reduciendo la necesidad de validación manual de grandes documentos. En dominios cerrados, como el biomédico, estos métodos son relevantes debido a la gran cantidad de documentos especializados que dificultan la tarea de encontrar información específica, así como la utilidad de esta información para apoyar la práctica y la investigación. En este trabajo de investigación se abordó especialmente la recuperación de pasajes, que suele ser el último paso de un sistema de QA. Esta tarea evalúa los fragmentos de texto que componen los documentos que pueden contener la respuesta a la pregunta presentada por el usuario. Esta evaluación realiza comprobaciones semánticas y a veces sintácticas que permiten deducir si el pasaje de texto es una respuesta válida, para finalmente devolver una lista clasificada de pasajes que tienen una mayor probabilidad de ser una respuesta. En un dominio cerrado, como el biomédico, la recuperación de pasajes es especialmente difícil debido a la complejidad de la terminología biomédica y a la heterogeneidad de las fuentes de información. Estos retos, junto con otros que se detallarán a lo largo del documento, hacen necesario el uso de otras fuentes de información, como las semánticas, que, utilizadas en combinación con las fuentes textuales, ayudan a gestionar la complejidad del lenguaje. Por otro lado, el uso del aprendizaje profundo en este campo tiene un gran interés y recientemente se ha popularizado como una importante herramienta para resolver la tarea de recuperación de pasajes, sin embargo existen muy pocos métodos que fusionen las diferentes modalidades de información que en un dominio como el biomédico ofrece evidentes ventajas. En este trabajo de investigación se exploraron diferentes técnicas de aprendizaje profundo. Además, se evaluaron varios métodos de fusión de información para aprovechar la complementariedad de las modalidades. Los métodos propuestos se evaluaron sistemáticamente en diferentes conjuntos de datos de dominio abierto y cerrado. Particularmente en el dominio biomédico los resultados fueron sobresalientes, superando el estado del arte y demostrando su efectividad en el mayor desafío global para esta tarea en particular, BioASQ. COLCIENCIAS, REF. Acuerdo 727, 2016 Doctorado Doctor en Ingeniería Inteligencia artificial
- Published
- 2021
29. Enfoque de aprendizaje profundo para identificar enfermedades y biomarcadores en imagenes de tomografía de coherencia óptica
- Author
-
Sánchez Legarda, Yeison David, González Osorio, Fabio Augusto, Perdomo Charry, Oscar Julian, and Mindlab
- Subjects
Retinal diseases classification ,Aprendizaje profundo ,Tomografía Óptica ,Deep learning ,Segmentación de biomarcadores ,Biomarkers segmentation ,Tomografía de coherencia óptica ,Clasificación de enfermedades retinianas ,Retinal Diseases ,Machine learning ,Tomography, Optical ,Computer vision ,Optical coherence tomography scans ,Visión por computador ,Redes neuronales generativas adversarias ,Aprendizaje de máquinas ,000 - Ciencias de la computación, información y obras generales ,Enfermedades de la Retina - Abstract
ilustraciones, gráficas, tablas The most common causes of blindness around the world are retinal diseases, to identify them and not allow to lead to loss of vision for a person an early diagnosis is necessary, nowadays the use of OCT scans to perform this diagnostic has increased due to the capacity to show in detail biomarkers as fluids, drusen, cyst and hyperreflective foci. However the OCT scans analysis is not easy and time consuming even for experts ophthalmologist and in combination with the overload work overload in the healthcare system makes even more difficult to diagnose and follow-up the retinal disease, at this point comes in to help deep learning allowing the automated detection of diseases and biomarkers, With the thesis work “Deep Learning Approach to Identify Diseases and Biomarkers in Optical Coherence Tomography Scans," a method was proposed to OCT scans segmentation to obtain biomarkers which can help the ophthalmologist to check response to treatment or identify a retinal disease, furthermore a deep learning method for check which disease is present in a scan was implemented. Las causas más comunes de ceguera en todo el mundo son las enfermedades de la retina, para identificarlas y no permitir que lleven a la pérdida de la visión de una persona es necesario un diagnóstico temprano, hoy en día el uso de las imágenes OCT para realizar este diagnóstico se ha incrementado debido a la capacidad de mostrar en detalle biomarcadores como fluidos, drusas, quistes y focos hiperreflectivos, sin embargo el análisis de las imágenes OCT no es fácil y consume mucho tiempo incluso para los oftalmólogos expertos lo que combinado con la sobrecarga de trabajo en el sistema de salud hace aún más difícil el diagnóstico y seguimiento de las enfermedades retinales, Con el trabajo de tesis "Deep Learning Approach to Identify Diseases and Biomarkers in Optical Coherence Tomography Scans", se propone un método para la segmentación de imágenes OCT con el fin de obtener biomarcadores que puedan ayudar al oftalmólogo a comprobar la respuesta al tratamiento o identificar una enfermedad de la retina, además se implementó un método de aprendizaje profundo para comprobar qué enfermedad está presente en una imagen. (Texto tomado de la fuente). Maestría Magíster en Ingeniería - Ingeniería de Sistemas y Computación Deep learning Computer vision Machine learning
- Published
- 2021
30. Detección automática de retinopatía diabética usando aprendizaje profundo y hallazgos médicos
- Author
-
de la Pava Rodriguez, Melissa, González Osorio, Fabio Augusto, Perdomo Charry, Oscar Julián, and MindLab
- Subjects
Shallow machine learning classifiers ,Transferecia de aprendizaje ,Modelo multitarea ,Aprendizaje Profundo ,Ocular lesions ,004 - Procesamiento de datos Ciencia de los computadores [000 - Ciencias de la computación, información y obras generales] ,Lesiones oculares ,Clasificadores clásicos de aprendizaje de máquina ,Retinopatía Diabética/diagnóstico ,Diabetic Retinopathy/diagnosis ,Transfer learning ,Deep Learning ,Diabetic retinopathy ,Retinopatía diabética ,Redes convolucionales ,Machine learning ,Multitask models ,Convolutional neural networks ,Aprendizaje Automático - Abstract
ilustraciones, gráficas, tablas Diabetic retinopathy (DR) is the result of a complication of diabetes affecting the retina. It can cause blindness if left undiagnosed and untreated. The ophthalmologist performs the diagnosis by screening each patient and detecting in ocular imaging the lesions caused by DR, namely, microaneurisms, hemorrhages, cotton wool spots, venous beading and neovascularization. However, the analysis of ocular findings is cumbersome, time-consuming, and demanding. Due to the insufficient amount of trained specialists to diagnose the illness, and the actual growing population with DR, it is important to develop a method to assist the DR diagnosis. This thesis presents two approaches for the automatic classification of DR using eye fundus images. The first one utilizes convolutional neural networks, transfer learning and shallow machine learning classifiers to identify the main ocular lesions related to DR and then use them to diagnose the illness. The second one is a multitask model which predicts simultaneously ocular lesions and DR. These approaches follow a similar workflow to that of clinicians, providing information that can be interpreted clinically to support the prediction. To achieve this goal a subset of the kaggle EyePACS and the Messidor-2 datasets, are labeled with ocular lesions by a certified opthalmologist. The kaggle EyePACS subset is used as training set and the Messidor-2 dataset is used as test set for both, the lesions and DR classification models. The results indicate that both methods achieve results comparable with state-of-the-art performances. The best results are obtained using the first approach with a multi layer perceptron as classifier for the automatic detection of DR, however, the multitask approach lead to similar results and has a simpler architecture. La retinopatía diabética (RD) es el resultado de una complicacion de la diabetes que afecta la retina. Puede causar ceguera si no se diagnostica ni se trata. El diagnóstico de esta enfermedad se hace mediante el escaneo de cada paciente y el análisis de imágenes oculares para detectar lesiones causadas por la RD, como microaneurismas, hemorragias, manchas algodonosas, arrosamiento venoso y neovascularización. Sin embargo, el análisis de las lesiones oculares es engorroso, lento y exigente. Debido a la cantidad insuficiente de especialistas capacitados para diagnosticar la enfermedad y al crecimiento actual de la población con RD, es importante desarrollar un método para ayudar en el diagnóstico de esta enfermedad. Esta tesis presenta dos enfoques para la clasificación automática de la RD utilizando imágenes de fondo de ojo. El primero utiliza redes neuronales convolucionales, transferencia de aprendizaje y clasificadores clásicos de aprendizaje de máquina para identificar las principales lesiones oculares relacionadas con la RD y luego usarlas para diagnosticar la enfermedad. El segundo es un modelo multitarea que predice simultáneamente lesiones oculares y RD. Estos enfoques siguen un flujo de trabajo similar al de los médicos, proporcionando información que puede interpretarse clínicamente para respaldar la predicción. Para lograr este objetivo, un subconjunto de las bases de datos kaggle EyePACS y Messidor-2 fueron etiquetados con lesiones oculares por un oftalmólogo certificado. El subconjunto de kaggle EyePACS se utiliza como conjunto de entrenamiento y el de Messidor-2 se utiliza como conjunto de prueba tanto para los modelos de detección de lesiones, como para los de clasificación de RD. Los resultados indican que ambos enfoques logran desempeños comparables con los métodos del estado del arte. Los mejores resultados se obtienen utilizando el primer enfoque con un perceptrón multicapa como clasificador para la detección automática de RD, sin embargo, el enfoque multitarea conduce a resultados similares y tiene una arquitectura más simple. (Texto tomado de la fuente). Incluye anexos Maestría Magíster en Ingeniería - Ingeniería de Sistemas y Computación Applied computing
- Published
- 2021
31. Automatic analysis of textual content of collections of scientific papers to support documentary analysis and knowledge management of a IES in the Colombian Orinoco region
- Author
-
Porras García, Yerson Ferney, Cruz-Roa, Angel, González Osorio, Fabio Augusto, MindLab, and Tecnologías Abiertas (GITECX)
- Subjects
Artículos científicos ,Knowledge Management ,Asignación Latente de Dirichlet ,Topic Modeling ,Scientific articles ,Modelado de temas ,Análisis automático de textos ,Indexación automática ,Gestión del conocimiento ,002 - El libro [000 - Ciencias de la computación, información y obras generales] ,Latent Dirichlet Allocation ,Text analysis ,Análisis de texto - Abstract
ilustraciones, diagramas La Universidad de los Llanos (Unillanos), con influencia en la Orinoquía colombiana, ha incrementado la producción de artículos científicos y realizar análisis del contenido textual de generación de nuevo conocimiento empieza a ser tedioso de forma manual. Este trabajo presenta un modelado y análisis automático de temas usando Latent Dirichlet Allocation (LDA) para el análisis semántico y temático de artículos científicos publicados por autores de la Unillanos disponibles en SCOPUS. LDA es comúnmente utilizado para descubrir relaciones de co-ocurrencia entre palabras y conformar grupos con valor semántico latente. Para el análisis, se obtuvo 137 artículos científicos en Inglés, analizados con LDA y usando la medida de desempeño Coherence Measure (CM). Se planteó un proceso sistemático de parámetros para determinar la parametrización del conjunto de datos y modelo LDA. El cual fue evaluado cuantitativa y cualitativamente. Se construyó un instrumento web para el diligenciamiento de las evaluaciones cualitativas por parte de un conjunto de expertos seleccionados, el cual se denominó "whatTopic''. Cuantitativamente, el modelo obtuvo un valor de CM=0.639 para un número de temas de 10. Cualitativamente, se comparó y relacionó temas propuestos con etiquetas preestablecidas por SCOPUS como "Scopus subrea'' y "Scival Topic Prominence''. En ambos casos se identificó como el principal tema la "Experimentación e Investigación'' siendo transversal a los demás temas identificados que están asociados a características de la Unillanos como recursos naturales, agropecuarios, física y telecomunicaciones. (Tomado de la fuente) The Universidad de los Llanos (Unillanos), with influence in the Colombian Orinoco region, has increased the production of scientific articles and the analysis of textual content from generation of new knowledge is difficult when done manually. This paper presents automatic topic modeling and analysis using Latent Dirichlet Allocation (LDA) for the semantic and topic analysis of scientific articles published by authors of Unillanos available in Scopus. LDA is commonly used to discover co-occurrence relationships among words and grouping with latent semantic value. For this analysis, 137 scientific articles in English were obtained, analyzed with LDA, and using the Coherence Measure (CM) as performance measure. A systematic parameter process was proposed to determine the parameterization of the dataset and LDA model. It was evaluated quantitatively and qualitatively. A web-based instrument was constructed for the completion of the qualitative evaluations by a group of selected experts, which was called "whatTopic''. Quantitatively, the model obtained a value of CM=0.639 for a number of topics of 10. Qualitatively, the proposed topics were compared and related to pre-established SCOPUS labels such as "Scopus subrea'' and "Scival Topic Prominence''. In both cases, "Experimentation and Research'' was identified as the main topic, being transversal to the other identified topics associated with Unillanos characteristics such as natural resources, agriculture and livestock, physics and telecommunications. (Text taken from source) Maestría Magíster en Ingeniería - Ingeniería de Sistemas y Computación Computación Aplicada y Ciencias de la Computación
- Published
- 2021
32. System for biomedical document retrieval based on deep learning
- Author
-
Pineda Vargas, Mónica Patricia, González Osorio, Fabio Augusto, and MindLab
- Subjects
Biomedical domain ,Ontología ,Document retrieval ,Aprendizaje profundo ,Metric learning ,600 - Tecnología (Ciencias aplicadas) ,Deep learning ,Recuperación de información ,Dominio biomédico ,Bioasq ,Procesamiento de la información ,Information processing ,Information retrieval ,Question answering - Abstract
Ilustraciones This dissertation explored the use of strategies based on deep learning to address the information retrieval task in the biomedical domain. We implemented a system composed of three main phases. First, the Recovery Phase, where for a given question we aimed to extract a subset of the most relevant documents out of indexed documents. We obtained the best result using the DFR (Divergence From Randomness) algorithm with the model base I (f) (Inverse term frequency model), the posterior effect L (an information gain model based on Laplace's law of succession) and used H2 normalization (frequency is inversely related to length). The second phase seeked to filter the aforementioned subset of the most relevant documents using deep learning strategies. The use of Word Mover's Distance and Document Centroid was proposed as a baseline and they were compared with two models based on BERT. Here we obtained the best result out of the pre-trained BERT model for Question Answering, which allowed filtering documents that do not contain sufficient evidence to answer the associated question. In the last phase of the system, two document reordering strategies were explored. The first one is based on reordering the documents by passages that combine two types of representation for pairs (of the type question, passage) using textual representation and conceptual representation. This, to take advantage of the use of knowledge generated by experts in ontologies, for example. The second strategy was based on Metric Learning, we used a network of three inputs (question, answer +, answer−) and again took advantage of the use of structured information from biomedical concepts that were extracted from QuickUMLS [Soldaini and Goharian, 2016]. The proposed systems were evaluated using the test sets presented at the BioASQ 2019 competition and were compared against the best solution to a given task in each of the sets. We concluded that the system that obtains the best results for MAP (Mean Average Precision) is the one made up of DFR for initial retrieval, BERT for QA for document filtering and Metric Learning using conceptual information for reordering. En este trabajo se explora el uso de estrategias basadas en aprendizaje profundo para la tarea de recuperación de información en el dominio biomédico. Se propone un sistema compuesto por tres fases principales: Fase de recuperación, en donde se busca extraer de un conjunto de documentos indexados, un subconjunto de los documentos más relevantes dada una pregunta, obteniendo como mejor resultado el algoritmo DFR (Divergence from Randomness) con el modelo base I(f) (Modelo de frecuencia de término inverso), efecto posterior L (Modelo de ganancia de información basado en la ley de sucesión de Laplace) y normalización H2 (La frecuencia está inversamente relacionada con la longitud). La segunda fase busca filtrar el subconjunto de documentos más relevantes usando estrategias con aprendizaje profundo. Se propone como línea base el uso de Word Mover's Distance y Document Centroid y se comparan con dos modelos basados en BERT obteniendo como mejor resultado el modelo de BERT pre-entrenado para Question Answering que permite filtrar los documentos que no contienen evidencia suficiente para responder la pregunta asociada. En la última fase del sistema se exploran dos estrategias de reordenamiento de documentos, la primera de ellas basada en reordenamiento por pasajes que combina dos tipos de representación para los pares (pregunta, pasaje) usando representación textual y representación conceptual buscando aprovechar el uso del conocimiento generado por expertos como las ontologías. La segunda estrategia está basada en Metric Learning usando una red de tres entradas $(pregunta, respuesta+, respuesta-)$ y aprovechando nuevamente el uso de información estructurada proveniente de los conceptos biomédicos extraídos de QuickUMLS. Los sistemas propuestos se evaluaron usando los conjuntos de test presentados por la competencia BioASQ 2019 y fueron comparados contra la mejor solución de la competencia en cada conjunto. Se concluye que el sistema que obtiene mejores resultados para MAP (Mean Average Precision) es el compuestos por DFR para la recuperación inicial, BERT for QA para el filtrado de documentos y Metric Learning usando información conceptual para el reordenamiento. (Texto tomado de la fuente). Maestría Magíster en Ingeniería de Sistemas y Computación Recuperación de información
- Published
- 2020
33. An information retrieval strategy for large multimodal data collections involving source code and natural language
- Author
-
Baquero Vargas, Juan Felipe, González Osorio, Fabio Augusto, and Restrepo Calle, Felipe
- Subjects
source code analysis ,Duplication detection ,Predecir el lenguaje de programación ,Detección de duplicados ,Stack Overflow ,Análisis de código fuente ,Predicting programming language - Abstract
Source code repositories store data from software products. Among this data we can find the evolution of the source code, requirements, bugs and communication between developers. Source code repositories have been growing rapidly in the recent years andwith them the need of extracting information from them. An interesting source code repository that is growing both in usage and information is Stack Overflow (SO), this web site provides one of the biggest Question Answering places used by thousands of developers everyday. In SO the developers can ask any question related to a programming issue and it will be answered by other users. We can find a source code repository with both source code and natural language with thousands of samples and the possibility of combining both sources of information to extract useful and not eye-noticeable information from it. In this thesis, we explore how to represent source code and natural language and how to combine these representations. We try to solve the task of understanding how users in SO talk about the programming language, how similar these programming languages are among them based on how users talk about them, and finally, we provide tools on the building of an information retrieval strategy by identifying duplicated post. Los repositorios de software almacenan datos sobre los productos de software, datos relacionados con la evolución de código fuente, requerimientos de software, reporte de bugs y comunicación entre desarrolladores. Los repositorios de software han crecido rápidamente en los últimos años y con ellos la necesidad de extraer información significativa de ellos. Un repositorio de software intersante es Stack Overflow(SO), este sitio web es uno de los sitios de Question Answering más grandes y usados por miles de desarrolladores de sofware en su día a día. En SO los desarrollares pueden preguntar cualquier duda relacionada con programación y software que será respondida por otros usuarios. Como SO, existen muchos repositorios de software con código fuente y texto con millones de ejemplares y la posibilidad de combinar ambas fuentes para extraer información de ellos que no es visible a simple vista. En este trabajo de tesis, exploramos como representar código fuente y lenguaje natural y cómo combinar estas representaciones. Intentamos resolver la tarea de entender como los usuarios de SO hablan sobre un lenguage de programación, que tan similares son los lenguajes de programación basados en cómo los usuarios hablen sobre ellos y, finalmente, proporcionar herramientas para construir una estrategia de recuperación de información para identificar post duplicados. Maestría
- Published
- 2019
34. Static Analysis of Python Programs using Abstract Interpretation: An Application to Tensor Shape Analysis
- Author
-
Cruz Camacho, Elkin Alejandro, González Osorio, Fabio Augusto, and Restrepo Calle, Felipe
- Subjects
Lenguaje Python ,Programación ,Programming ,Tensores ,Lenguage Python ,Tensors - Abstract
Tensors, an extension of arrays, are widely used in a variety of programming tasks. Tensors are the building blocks of many modern machine learning frameworks and are fundamental in the definition of deep learning models. Linters are indispensable tools for today's developers, as they help the developers to check code before executing it. Despite the popularity of tensors, linters for Python that check and flag code with tensors are nonexistent. Given the tremendous amount of work done in Python with (and without) tensors, it is quite baffling that little work has been done in this regard. Abstract Interpretation is a methodology/framework for statically analysing code. The idea of Abstract Interpretation is to soundly overapproximate the result of running a piece of code over all possible inputs of the program. A sound overapproximation ensures that the Abstract Interpreter will never omit a true negative, i.e.~if a piece of code is not flagged by the Abstract Interpreter, then it can be safely assumed that the code will not fail. The Abstract Interpreter can be modified so that it only outputs true positives, although losing soundness, i.e.~the interpreter can flag which parts of the code are going to fail no matter how the code is run. In this work, we specify a subset of Python with emphasis on tensor operations. Our operational Python semantics is based on The Python Language Reference. We define an Abstract Interpreter and present its implementation. We show how each part of the Abstract Interpreter was built: the Abstract Domains defined and the abstract semantics. We present the structure of Pytropos, the Abstract Interpreter implemented. Pytropos is able to check NumPy array operations taking into account broadcasting and complex NumPy functions as \texttt{array} and \texttt{dot}. We constructed 74 unit test cases checking the capabilities of Pytropos and 20 property test cases checking compliance with the official Python implementation. We show what and how many bugs the Abstract Interpreter was able to find. Resumen: Los tensores, una extensión de los arrays, se usan de manera extensiva en una gran variedad de problemas en programación. Los tensores son los bloques básicos de construcción de múltiples frameworks de Aprendizaje de Máquina y son fundamentales en la definición de modelos de Aprendizaje Profundo. Los linters son herramientas indispensables para los programadores de hoy en día, ya que estos ayudan a los desarrolladores a revisar el código antes de ejecutarlo. Aunque los tensores son muy populares no existen tensores que revisen código con operaciones tensoriales. Dada la gran cantidad de trabajo hecho en Python con (y sin) tensores, es sorprendente el poco trabajo que se ha hecho en esta área. La Interpretación Abstracta es una metodología/framework diseñada para analizar código de forma estática. La idea de Interpretación Abstracta es sobreaproximar de manera "sound" el resultado de ejecutar una pieza de código sobre todos las posibles entradas del programa. Una sobreaproximación "sound" asegura que el Interprete Abstracto nunca omitirá un verdadero negativo, es decir, si una pieza de código no es señalada como incorrecta por el Interprete Abstracto entonces se puede asumir con seguridad que el código nunca fallará. El Interprete Abstracto puede ser modificado para que sólo informe acerca de verdaderos positivos, aunque se pierda la propiedad de "soundness", es decir, el interprete sólo informa acerca de las partes de código que fallarán sin importar que suceda. En este trabajo, formalizamos un subconjunto de Python con énfasis en operaciones con tensores. Nuestra formalización de la semántica de Python está basada en la Referencia oficial del Lenguage Python. Definimos un Interprete Abstracto y presentamos su implementación. Mostramos como cada parte del Interprete Abstracto fué definido: su Dominio Abstracto y semántica abstracta. Presentamos la estructura de Pytropos, la implementación del Interprete Abstracto. Pytropos es capaz de revisar las operaciones de arreglos de NumPy teniendo en cuenta broadcasting y algunas funciones complejas de NumPy como \texttt{array} y \texttt{dot}. Construimos 74 casos de prueba unitaros, los cuales chequean la capacidad de Pytropos, además de 20 casos de prueba de propiedades, los cuales chequean que las reglas semánticas de Pytropos correspondan con la forma en la que Python es ejecutado. Mostramos las capacidades del Interprete Abstracto por medio de ejemplos de los test unitarios. Maestría
- Published
- 2019
35. Human Activity Recognition using deep learning techniques
- Author
-
Gómez Meneses, Fabián Andrés and González Osorio, Fabio Augusto
- Subjects
62 Ingeniería y operaciones afines / Engineering ,Human behavior ,Aprendizaje profundo ,0 Generalidades / Computer science, information and general works ,Machine learning ,Aprendizaje de máquina ,Deep learning ,Pervasive computing ,Computación ubicua ,Redes neuronales ,Comportamiento humano ,Neural networks - Abstract
Human activity recognition (HAR) is at the forefront of Pervasive Computing efforts, and deep learning techniques currently empower the most successful endeavors within the field. By using a publicly available dataset an exploratory analysis of feature learning is put forward in this work. The convolutional neural network deployed here highlights both the advantages and limitations of this class of models, while offering an overview of machine learning-aided human behavior analysis. Furthermore, the exploration includes an experimental comparison with a more traditional SVM model with feature engineering, over the same data. Resumen: El reconocimiento de la Actividad Humana (HAR) está a la vanguardia de los esfuerzos de computación, y las técnicas de aprendizaje profundo actualmente empoderan los esfuerzos más exitosos dentro del campo. Al utilizar un conjunto de datos disponible públicamente. En este trabajo se presenta un análisis exploratorio del aprendizaje de características de la red neuronal convolucional y se destaca tanto las ventajas como las limitaciones de esta clase de modelos, al tiempo que ofrece una visión general de aprendizaje asistido por máquina y análisis del comportamiento humano. Además, la exploración incluye una comparación experimental. con un modelo SVM más tradicional con ingeniería sobre los mismos datos. Maestría
- Published
- 2018
36. Automatic authorship analysis using Deep neural networks
- Author
-
Sierra Loaiza, Sebastian Ernesto and González Osorio, Fabio Augusto
- Subjects
Authorship Attribution ,Machine learning ,Author Profiling ,Representation Learning ,Supervised Learning ,Multimodal Author Profiling ,Automatic Authorship Analysis - Abstract
Authorship analysis helps to study the characteristics that distinguish how two different persons write. Writing style can be extracted in several ways, like using bag of words strategies or handcrafted features. However, with the growing of Internet, we have been able to witness an increase in the amount of user generated data in social networks like Facebook or Twitter. There is an increasing need in generating automatic methods capable of analyzing the style of a document for tasks like: determining the age of the author, determining the gender of the author, determining the authorship of the document given a set of possible authors, etc. Previous tasks are better known as author profiling and authorship attribution. Although capturing the style of an author can be a challenging task, in this thesis we explore representation learning strategies, in order to take advantage of the large amount of data generated by social media. In this thesis, we learned proper representations for the text inputs that were able to learn such patterns that are only distinguishable to an author (authorship attribution) or a social group of authors (author profiling). Proposed methods were compared using different publicly available datasets using social media data. Both author profiling and authorship attribution tasks are addressed using representation learning techniques such as convolutional neural networks and gated multimodal units. Our unimodal author profiling approach was submitted to the profiling shared task of the laboratory on digital forensics and stylometry(PAN). For authorship attribution, we proposed a convolutional neural network using character n-grams as input. We found that our approach outperformed standard attribution based methods as well as word based convolutional neural networks. For the author profiling task, we proposed one convolutional neural network for unimodal author profiling and adapted a gated multimodal unit for multimodal author profiling. The multimodal nature of user generated content consists of a scenario where the social group of an author can be determined not only using his/her written texts but using also the images that the user shared across the social networks. Gated multimodal units outperformed standard information fusion strategies: early and late fusion. Maestría
- Published
- 2018
37. Resting state networks characterization for individual subjects assessment
- Author
-
Guaje Guerra, Javier Ricardo, Gómez Jaramillo, Francisco Albeiro, and González Osorio, Fabio Augusto
- Subjects
Spatial independent component analysis ,Resting state networks ,Template matching ,Functional magnetic resonance imaging ,Resting state - Abstract
Cumulative research in hemodynamic brain activity measured in resting state (RS) using functional magnetic resonance imaging (fMRI) suggests that healthy brain dynamics are distributed on large-scale spatial resting state networks (RSNs). These networks correspond to well-defined functional entities that have been associated to different low and high brain order functions. Characterization of several pathological and pharmacological conditions have been studied by measuring the changes introduced in the RSNs by these affections, resulting on powerful and descriptive biomarkers. Most of these studies have been performed using methods devised for group level analysis. Nevertheless, the use of these biomarkers in diagnostic/prognostic tasks may require single subject level assessment. In addition, some brain conditions are characterized by a high intra-subject variability, which violates the underlying assumptions of most of the group based methods. Recently, a multiple template matching (MTM) approach was proposed to automatically recognize RSNs in individuals subject’s data. This method provides valuable information to assess subjects at individual level. In this work we propose a set of changes to the original MTM that improves the RSNs recognition task and also extends the functionality of the method. The key points of this improvement are: An standardization strategy and a modification of the method’s constraints in order to add flexibility. Additionally, we also present a novel approach to quantify the degree of trustworthiness for each RSN obtained by using template matching. The main idea is to use a double validation process in the following way: First, RSNs are identified in a curated dataset which we’ll call subjects of reference. Second, we propose to use these subjects of reference along with MTM to validate how much the template’s assignations coincide. Finally, we integrate these solutions into an open source framework built on top of one of the most popular tools used by the community. Our results suggest that the method will provide complementary information for characterization of RSNs at individual level. Maestría
- Published
- 2018
38. Vehicle routing for hazardous material transportation
- Author
-
Bula, Gustavo Alfredo, González Osorio, Fabio Augusto, Prodhon, Caroline, STAR, ABES, Institut Charles Delaunay (ICD), Université de Technologie de Troyes (UTT)-Centre National de la Recherche Scientifique (CNRS), Université de Technologie de Troyes, Universidad nacional de Colombia, Caroline Prodhon, and Fabio Augusto Gonzalez
- Subjects
Recherche à voisinage variable ,Mathematical models ,Substances dangereuses -- Évaluation du risque ,[INFO.INFO-RO] Computer Science [cs]/Operations Research [cs.RO] ,Hazardous substances - Transport ,Hazardous substances--Risk assessment ,Hazardous substances - Risk Assessment ,Búsqueda con vecindarios variables ,Hazardous substances--Transportation ,Substancias - Evaluación del riesgo ,[INFO.INFO-RO]Computer Science [cs]/Operations Research [cs.RO] ,Modelos Matemáticos ,Traveling salesman problem ,Substancias peligrosas - Transporte ,Problème du voyageur de commerce ,62 Ingeniería y operaciones afines / Engineering ,Substances dangereuses -- Transport ,6 Tecnología (ciencias aplicadas) / Technology ,Problema del agente viajero ,Modèles mathématiques ,Variable neighborhood search - Abstract
The main objective of this thesis is to study the hazardous materials (HazMat) transportation problem considered as a heterogeneous fleet vehicle routing problem. HazMat transportation decisions comprise different and sometimes conflicting objectives. Two are considered in this work, the total routing cost and the total routing risk. The first task undertaken was the formulation of a mathematical model for the routing risk minimization, which depends on the type of vehicle, the material being transported, and the load change when the vehicle goes from one customer to another. A piecewise linear approximation is employed to keep a mixed integer linear programing formulation.Hybrid solution methods based on neighborhood search are explored for solving the routing risk minimization. This includes the study of neighborhood structures and the development of a Variable Neighborhood Descent (VND) algorithm for local search, and a perturbation mechanism (shaking neighborhoods). A post-optimization procedure is applied to improve the solution quality.Finally, two different solution approaches, a multi-objective dominance-based algorithm and a meta-heuristic epsilon-constraint method are employed for addressing the multi-objective version of the problem. Two performance metrics are used: the hyper volume and the ∆-metric. The front approximations show that a small increment in the total routing cost can produce a high reduction in percentage of the expected consequences given the probability of a HazMat transportation incident, L'objectif de cette thèse est d'étudier le problème du transport de matières dangereuses (HazMat) vu comme un problème de tournées de véhicules à flotte hétérogène. Les décisions pour ce type de transport comportent des objectifs différents, parfois antagonistes. Deux sont pris en compte dans ce travail, le coût et le risque. La première tâche entreprise a été la formulation d'un modèle mathématique pour la minimisation du risque, qui dépend du type de véhicule, du matériel transporté et du changement de charge lorsque le véhicule passe d'un client à un autre. Une approximation linéaire par morceaux est utilisée pour conserver une formulation de programmation linéaire en nombres entiers mixtes.Des méthodes hybrides basées sur des explorations de voisinages sont proposées pour traiter la minimisation du risque. Cela comprend l'étude des structures de voisinages et le développement d'un algorithme de descente à voisinages variables (VND) pour la recherche locale, ainsi qu'un mécanisme de perturbation des solutions. Une post-optimisation est appliquée pour améliorer la qualité des solutions obtenues.Enfin, deux approches, un algorithme basé sur la dominance multi-objectif et une méta-heuristique de type epsilon- contrainte, sont développées pour traiter la version multi-objectif. Deux mesures de performance sont utilisées : l'hyper volume et la ∆-métrique. Les approximations de fronts montrent qu'une légère augmentation du coût total des tournées peut entraîner une forte réduction en pourcentage des risques
- Published
- 2018
39. Agrupación de textos cortos para el análisis de temas latentes de investigación en un conjunto de datos de proyectos de investigación
- Author
-
Carrasco Ortiz, Jorge Mario, Sánchez Torres, Jenny Marcela (Thesis advisor), and González Osorio, Fabio Augusto
- Subjects
0 Generalidades / Computer science, information and general works ,02 Bibliotecología y ciencias de la información / Library and information sciences ,Agrupación ,Representación distribucional de términos ,8 Literatura y retórica / Literature ,Clustering ,ScienceDirect ,Textos cortos ,Kernel k-medias ,Information retrival ,Scopus ,Word2Vec ,NMF ,Short texts ,Distributional term representation - Abstract
Los documentos de texto son una fuente importante de datos para las técnicas de minería. Normalmente, las bases de datos de texto incluyen documentos suficientemente largos para aplicar técnicas de minería de texto convencionales. Sin embargo, en algunas tareas, como el proceso de identificación de áreas de investigación, se cuenta con bases de datos de textos muy cortos, lo cual representa un desafío para las técnicas convencionales de minería de texto. El problema tiene que ver con el pequeño número de términos que no proporcionan suficiente información estadística para encontrar cualquier tipo de relación entre los documentos de la colección. El objetivo principal de este trabajo es mostrar cómo generar grupos temáticos utilizando solo los títulos de proyectos de investigación de una institución de educación superior. En esta tesis presentamos un método para agrupar colecciones de textos cortos a partir de representaciones distribucionales de términos. El método utiliza una colección de referencia de textos con mayor extensión, para encontrar una representación distribucional de términos (DTR, por sus siglas en inglés) que codifica relaciones semánticas y sintácticas entre términos. Estas representaciones son utilizadas posteriormente para mejorar los algoritmos de agrupación. Igualmente, exploramos diferentes estrategias para la representación de términos, así como varias estrategias para la agrupación. El método se evaluó en dos conjuntos de datos. El primero fue construido para este estudio y está compuesto de títulos de artículos científicos, el segundo conjunto de datos corresponde a los títulos de proyectos de investigación de una institución de educación superior. Los resultados fueron evaluados utilizando cuatro medidas extrínsecas (Homogeneity Score, V-measure, Adjusted MI, Pureza) para el primer conjunto de datos, y tres medidas intrínsecas (Davies-Bouldin, QError, Slihouette) para el segundo conjunto de datos. Los resultados muestran que la estrategia de representación distribucional de términos, mejora en gran medida la calidad de las agrupaciones generadas cuando se compara con la producida por las estrategias convencionales de agrupamiento de texto. Abstract: Text documents are an important source of data for tech mining techniques. Usually, text databases include documents sufficiently long to apply conventional text mining techniques. However, for some tech mining tasks, such as capabilities identification process, the databases available are comprised of very short texts, which represents a challenge for conventional text mining techniques. The problem in question is that the small number of terms fail to provide enough statistical information to find any kind of relationship among the documents in the collection. The main purpose of this work is to show how to generate thematic clusters by using only the titles of research projects from a higher education institution. In this thesis we present a method for clustering very-short-text collections based on distributional text representations. The method uses a reference collection of large texts to find a distributional term representation (DTR) that encodes semantic and syntactic relationships among terms. The DTR is used to represent the very-short texts which are fed to a clustering algorithm. Likewise, we explore different strategies for distributional term representation as well as for clustering. The method was evaluated in two datasets. The first one was assembled for this study and is composed of scientific paper titles, and the second one corresponds to the titles of a set of research projects from a higher education institution. The results were evaluated by using four extrinsic measures (Homogeneity Score, V-measure, Adjusted MI, Purity) for the first dataset, and three intrinsic measures (Davies-Bouldin, QError, Slihouette) for the second dataset. The results show that the distributional term representation strategy greatly improves the quality of the generated clusterings when compared to the one produced by conventional text clustering strategies. Maestría
- Published
- 2017
40. Analysis and visualization of multimodal socio-technical information of free/libre and open source software (FLOSS) Projects
- Author
-
Paruma Pabón, Oscar Hernán, Aponte Melo, Jairo Hernán (Thesis advisor), Camargo Mendoza, Jorge Eliécer (Thesis advisor), and González Osorio, Fabio Augusto
- Subjects
15 Psicología / Psychology ,0 Generalidades / Computer science, information and general works ,38 Comercio, comunicaciones, transporte / Commerce, communications and transportation - Abstract
Personality traits influence most, if not all, of the human activities, from those as natural as the way people walk, talk, dress and write to those most complex as the way they interact with others. Most importantly, personality influences the way people make decisions including, in the case of developers, the criteria they consider when selecting a software project they want to participate. Most of the works that study the influence of social, technical and human factors in software development projects have been focused on the impact of communications in software quality. For instance, on identifying predictors to detect files that may contain bugs before releasing an enhanced version of a software product. Only a few of these works focus on the analysis of personality traits of developers with commit permissions (committers) in Free/Libre and Open-Source Software (FLOSS) projects and their relationship with the software artifacts they interact with. This thesis presents an approach, based on the automatic recognition of personality traits from e-mails sent by committers in FLOSS projects, to uncover relationships between the social and technical aspects that occur during software development processes. Experimental results suggest the existence of some relationships among personality traits projected by the committers through their e-mails and the social (communication) and technical activities they undertake. Maestría
- Published
- 2016
41. Análisis de la deserción y permanencia académica en la educación superior aplicando minería de datos
- Author
-
Oñate Bowen, Avaro Agustín and González Osorio, Fabio Augusto
- Subjects
Educational data mining ,62 Ingeniería y operaciones afines / Engineering ,Educación ,Deserción ,Dropout ,37 Educación / Education ,Minería de datos ,Education - Abstract
Este trabajo presenta el estudio de minería de datos en la educación para modelar la perdida de la condición académica para estudiantes matriculados en los programas de Ingeniería Electrónica e Ingeniería de Sistemas de la Universidad Popular del Cesar. Se utilizaron dos tareas de minería de datos. En primer lugar, una tarea descriptiva basada en el algoritmo K-medias, que fue utilizado para seleccionar varios grupos de estudiantes. En segundo lugar, una tarea de clasificación soportada en dos técnicas conocidas como árbol de decisión y Naïve Bayes para predecir la pérdida de la condición académica debido a los malos resultados durante los cuatro primeros semestres de un estudiante. Para el entrenamiento y prueba de los modelos, se utilizaron los expedientes académicos y los datos recogidos durante el proceso de admisión de los estudiantes y se evaluaron utilizando la técnica de validación cruzada. Los resultados experimentales han demostrado que la predicción de la pérdida de la condición académica se mejora cuando se añaden los datos de la matrícula académica anterior. Abstract. This paper presents the study of data mining in education to model the loss of academic status for students enrolled in both the Electronic Engineering and System Engineering programs at Universidad Popular del Cesar. Two tasks of data mining were used. Firstly, a descriptive task based on the K-means algorithm, which was utilized to select several student clusters. Secondly, a classification task supported on two classification techniques, known as Decision Tree and Naïve Bayes to predict the loss of academic status because of poor performance in a student's first four semesters. The academic records and data collected during the admission process of those students were used to train and test the models, which were assessed using cross-validation technique. Experimental results have shown that the prediction of loss of academic status is improved when the data from the previous academic enrollment are added. Maestría
- Published
- 2016
42. Online Supervised Non-linear Dimensionality Reduction
- Author
-
Beltrán Beltrán, Lady Viviana, González Osorio, Fabio Augusto, and Vanegas Ramírez, Jorge Andŕes
- Subjects
Reducción de la dimensionalidad ,Aprendizaje no-lineal ,Aprendizaje en línea ,62 Ingeniería y operaciones afines / Engineering ,0 Generalidades / Computer science, information and general works ,Machine learning ,Non-linear learning ,On-line learning ,Aprendizaje de máquina ,Aprendizaje supervisado ,Dimensionality reduction ,Supervised learning - Abstract
Social networks such as Facebook and Twitter, websites that allow us to share and store information every day, ongoing research in different domain fields, advances in data collection and storage capabilities during the last age, among others, represent different sources of information that increase the observations of phenomena every day and have led to an information overload in most sciences. The problem is that not all these observations are necessary or important for the understanding of a phenomenon of interest. These high-dimensional sources of information represent a challenge in different fields such as the computational one, and also represent a opportunity to learn from the data. Therefore, methods that perform dimensionality reduction are required. In this thesis, the dimensionality reduction problem is addressed by using different approaches. The first approach takes into account the use of some type of supervision such as classes or labels in the design of the model. The second approach is the inclusion of kernels as a proven tool to handle non-linearities in the data. Finally, the third strategy is based on on-line learning and efficient implementations. To carry out these strategies, methods based on matrix factorization as a main component are proposed. Resumen: Redes sociales como Facebook y Twitter, sitios web que nos permiten compartir y almacenar información, investigaciones en curso en diferentes campos de dominio, avances en colecciones de datos y capacidades de almacenamiento durante la última era, entre otros, representan diferentes fuentes de información que incrementan las observaciones de un fenómeno cada día y han conducido a una sobrecarga en la mayoría de las ciencias. El problema es que no todas éstas observaciones son necesarias o importantes para el entendimiento de un fenómeno de interés. Ésta alta dimensionalidad de los datos representa un desafío en campos como el computacional, y también representa una oportunidad para aprender de los datos. Por lo tanto, métodos que lleven a cabo reducción de la dimensionalidad son requeridos. En ésta tesis, el problema de reducción de la dimensionalidad es abordado utilizando diferentes enfoques. El primer enfoque toma en consideración el uso de supervisión como clases o etiquetas en el diseño del modelo. El segundo enfoque es la inclusión de kernels como herramientas probadas para manejar no-linealidades en los datos. Finalmente, el último enfoque está basado en aprendizaje en línea e implementaciones eficientes. Para llevar a cabo éstas estrategías, métodos basados en factorización de matrices como principal componente son propuestos. Maestría
- Published
- 2016
43. Análisis del desempeño académico del examen de estado para el ingreso a la educación superior aplicando minería de datos
- Author
-
Blanco Villafañe, Vanessa Paola and González Osorio, Fabio Augusto
- Subjects
Educational data mining ,Cluster analysis ,62 Ingeniería y operaciones afines / Engineering ,0 Generalidades / Computer science, information and general works ,Minería de datos en educación ,State test scores ,CRISP - DM ,Exámenes de Estado ,37 Educación / Education ,Análisis de conglomerados - Abstract
Este trabajo presenta un estudio de minería de datos en educación basado en un conjunto de datos de resultados del Examen de Estado para ingreso a la Educación Superior correspondiente al año 2012. El trabajo aplica técnicas de análisis de agrupamiento para construir un modelo descriptivo que permite entender de manera más clara la estructura de los datos. El documento presenta la descripción de los datos, los detalles de la metodología aplicada, basada en CRISP-DM, los modelos de agrupamiento usados, el diseño experimental y los resultados con su respectiva discusión. Abstract. This document presents a educational data mining study based on a data set of results of the exam for admission to high education applied by the Colombian government corresponding to the year 2012. This work applies techniques for clustering analysis to build a descriptive model that allows to better understand the subjacent structure of data. The document presents the dataset description, the details of the applied methodology, based on CRISP-DM, the clustering models used, the experimental design with the corresponding results and discussion. Maestría
- Published
- 2016
44. A framework for interactive training of automatic image analysis models based on learned image representations, active learning, and visualization techniques
- Author
-
Otálora Montenegro, Juan Sebastian and González Osorio, Fabio Augusto
- Subjects
Aprendizaje en Linea ,Longitud esperada del gradiente ,Expected Gradient Length ,Active Learning ,Aprendizaje Activo ,Machine Learning ,Deep Learning ,Medical Imaging ,51 Matemáticas / Mathematics ,62 Ingeniería y operaciones afines / Engineering ,Redes Neuronales Profundas ,Aprendizaje de la Representación ,Aprendizaje de máquina ,6 Tecnología (ciencias aplicadas) / Technology ,On-line Learning ,Análisis de Imágenes Médicas ,Eye Fundus imaging - Abstract
In this thesis work, the problem of applying active learning for a label efficient training of deep learning models is addressed. Firstly, in chapter one, the problem is introduced as well as the objectives and results of this thesis work. In chapter 2, a state of the art of active learning and deep learning models is presented with a particular emphasis on medical scenarios. In chapter three in active learning approach based on the expected gradient length is introduced for deep convolutional neural networks for applying in medical problems where data is scarce and train deep models could be unfeasible due to the lack of annotated samples. In chapter four an implemented framework for interactively training of deep learning models based on the previous discused algorithms is presented, where the active learning techniques improve the random selection strategy to classify between healthy eyes patches and patches that contain an early stage of diabetic retinopathy. Finally, in the last chapter, the conclusions of this thesis work are discussed as well as some promising lines of work for further research. En ésta tesis, se estudia el problema del entrenamiento eficiente de modelos de aprendizaje automático basados en redes neuronales profundas para el caso en el que se cuenta con pocos ejemplos anotados para su entrenamiento. Para esto se presentara una estrategia de aprendizaje activo la cual hace mas eficiente el aprendizaje de una representación profunda utilizando los ejemplos que mas cambios aportan al modelo. En el primer capítulo, se introduce el problema así como los objetivos y resultados de este trabajo de tesis. Una revisión de los trabajos recientes en el área de aprendizaje activo y modelos de aprendizaje profundo, con énfasis en escenarios médicos se presenta en el capítulo 2. En el capítulo 3, se presenta el enfoque propuesto de aprendizaje activo para modelos de aprendizaje profundos basado en la longitud esperada del gradiente, el cual resulta útil para la solución de problemas de imágenes médicas donde no se cuenta con la suficiente cantidad de ejemplos anotados. En el capítulo 4, un marco experimental es implementado para el entrenamiento de modelos basados en redes neuronales profundas, se muestra la aplicación de esta estrategía para clasificar parches de imágenes de fondo de ojo con pacientes sanos y en una etapa temprana de retinopatía diabética. Se muestra que el algoritmo propuesto mejora el desempeño del modelo comparandolo con la estrategía clásica de selección aleatoria de ejemplos. Finalmente en el último capítulo se discuten las concluciones de este trabajo y también se esbozan algunas lineas de trabajo prometedoras para el futuro. Maestría
- Published
- 2016
45. Data-driven Representation Learning from Histopathology Image Databases to Support Digital Pathology Analysis
- Author
-
Cruz Roa, Angel Alfonso and González Osorio, Fabio Augusto
- Subjects
Histopathology image analysis ,Deep Learning ,62 Ingeniería y operaciones afines / Engineering ,Aprendizaje profundo ,61 Ciencias médicas ,Medicina / Medicine and health ,Whole slide images ,Patología digital ,Digital pathology ,Láminas virtuales de patología ,Representation learning ,Análisis de imágenes de histopatología ,Aprendizaje de la representación - Abstract
Cancer research is a major public health priority in the world due to its high incidence, diversity and mortality. Despite great advances in this area during recent decades, the high incidence and lack of specialists have proven that one of the major challenges is to achieve early diagnosis. Improved early diagnosis, especially in developing countries, plays a crucial role in timely treatment and patient survival. Recent advances in scanner technology for the digitization of pathology slides and the growth of global initiatives to build databases for cancer research have enabled the emergence of digital pathology as a new approach to support pathology workflows. This has led to the development of many computational methods for automatic histopathology image analysis, which in turn has raised new computational challenges due to the high visual variability of histopathology slides, the difficulty in assessing the effectiveness of methods (considering the lack of annotated data from different pathologists and institutions), and the need of interpretable, efficient and feasible methods for practical use. On the other hand, machine learning techniques have focused on exploiting large databases to automatically extract and induce information and knowledge, in the form of patterns and rules, that allow to connect low-level content with its high-level meaning. Several approaches have emerged as opposed to traditional schemes based on handcrafted features for data representation, which nowadays are known as representation learning. The objective of this thesis is the exploration, development and validation of precise, interpretable and efficient computational machine learning methods for automatic representation learning from histopathology image databases to support diagnosis tasks of different types of cancer. The validation of the proposed methods during the thesis development allowed to corroborate their capability in several histopathology image analysis tasks of different types of cancer. These methods achieve good results in terms of accuracy, robustness, reproducibility, interpretability and feasibility suggesting their potential practical application towards translational and personalized medicine. Resumen. La investigación en cáncer es una de las principales prioridades de salud pública en el mundo debido a su alta incidencia, diversidad y mortalidad. A pesar de los grandes avances en el área en las últimas décadas, la alta incidencia y la falta de especialistas ha llevado a que una de las principales problemáticas sea lograr su detección temprana, en especial en países en vías de desarrollo, como quiera a que de ello depende las posibilidades de un tratamiento oportuno y las oportunidades de supervivencia de los pacientes. Los recientes avances en tecnología de escáneres para digitalización de láminas de patología y el crecimiento de iniciativas mundiales para la construcción de bases de datos para la investigación en cáncer, han permitido el surgimiento de la patología digital como un nuevo enfoque para soportar los flujos de trabajo en patología. Esto ha llevado al desarrollo de una gran variedad de métodos computacionales para el análisis automático de imágenes de histopatología, lo cual ha planteado nuevos desafíos computacionales debido a la alta variabilidad visual de las láminas de histopatología; la dificultad para evaluar la efectividad de los métodos por la falta de datos de diferentes instituciones que cuenten con anotaciones por parte de los patólogos, y la necesidad de métodos interpretables, eficientes y factibles para su uso práctico. Por otro lado, el aprendizaje de máquina se ha enfocado en explotar las grandes bases de datos para extraer e inducir de manera automática información y conocimiento, en forma de patrones y reglas, que permita conectar el contenido de bajo nivel con su significado. Diferentes técnicas han surgido en contraposición a los esquemas tradicionales basados en diseño manual de la representación de los datos, en lo que se conoce como aprendizaje de la representación. El propósito de esta tesis fue la exploración, desarrollo y validación de métodos computacionales de aprendizaje de máquina precisos, interpretables y eficientes a partir de bases de datos de imágenes de histopatología para el aprendizaje automático de la representación en tareas de apoyo al diagnóstico de distintos tipos de cáncer. La validación de los distintos métodos propuestos durante el desarrollo de la tesis permitieron corroborar la capacidad de cada uno de ellos en distintivas tareas de análisis de imágenes de histopatología, en diferentes tipos de cáncer, con buenos resultados en términos de exactitud, robustez, reproducibilidad, interpretabilidad y factibilidad, lo cual sugiere su potencial aplicación práctica hacia la medicina traslacional y personalizada. Doctorado
- Published
- 2015
46. Sistema prototipo para la estimación del comportamiento del índice de calidad del aire usando técnicas de aprendizaje computacional
- Author
-
Anaya Diaz, Jhon Jairo and González Osorio, Fabio Augusto
- Subjects
Estimación ,Particulate ,Artificial neural network ,Meteorología ,0 Generalidades / Computer science, information and general works ,Agrupamiento ,Estimate ,Material particulado ,Air quality index ,Clustering ,Meteorology ,Redes neuronales artificiales ,62 Ingeniería y operaciones afines / Engineering ,Valledupar ,6 Tecnología (ciencias aplicadas) / Technology ,Índice de calidad del aire - Abstract
La investigación que se aborda en este trabajo va orientada como primera medida a la construcción de un conjunto de datos usando la meteorología e índice de calidad del aire (ICA) producto de la recopilación durante cuatro años, de la monitorización de las estaciones del Sistemas de Vigilancia de calidad de aire de Valledupar; teniendo en cuenta este conjunto de datos, se busca entrenar y validar un modelo descriptivo, mediante la utilización de técnicas de clustering (Agrupamiento). Además se desarrolla un modelo predictivo, que estime el índice de calidad del aire, utilizando diferentes técnicas de minería de datos. Se comparan resultados mediante la utilización de las ANN’s y el método de regresión lineal, encontrando que las ANN’s se acoplan eficientemente a este conjunto de datos produciendo MAE de 10,19 para PM10 y 4,045 para CO, usando estos modelos como regresión; si se estiman los valores de ICA usando la concepción de series de tiempo con estos modelos se obtiene un MAE de 3.19 para PM10 y 4,47 para CO. Abstract The research that is approached in this work goes oriented like first measurement to the construction of a data set using the meteorology and air quality index (ICA) product of the compilation during four years, the monitoring of the system's surveillance stations of the air quality in Valledupar; considering east data set, one looks for to train and to validate a descriptive model, by means of the use of techniques of clustering (Group). In addition it is developed to a predictive model, that considers the ICA, using different techniques from data mining. They compare results by means of the use of ANN's and linear regression method, finding that ANN's efficiently is reconciled to this data set producing MAE of 10,19 by PM10 and 4,045 by CO, using these models like regression; if the values of ICA are considered using the conception of time series with these models it obtains a MAE of 3.19 by PM10 and 4,47 by CO. Maestría
- Published
- 2015
47. A knowledge-based approach to information retrieval in collections of textual documents of the biomedical domain
- Author
-
Riveros Cruz, Luis Alejandro and González Osorio, Fabio Augusto
- Subjects
Búsqueda de información ,Ontología ,Ontology ,62 Ingeniería y operaciones afines / Engineering ,02 Bibliotecología y ciencias de la información / Library and information sciences ,Information retrieval ,6 Tecnología (ciencias aplicadas) / Technology ,Nowledge bases - Abstract
The exponential growth in the amount of available data has posed new challenges to re- searchers. Search on such amount of data is a difficult task which turns even harder when the data belongs to a specific domain which has its own terminology and requires some background knowledge. Traditional information retrieval systems are based on keywords. In this kind of systems the output for a given query is a ranking of the documents that match the keywords. This model works well in scenarios with few documents or if the system achieves a high perfor- mance ensuring that the first results contain the most relevant documents. However, in most cases the collections are huge and the retrieval results are an endless list of documents that must be scanned manually. This work proposes an information retrieval approach which incorporates domain specific knowledge from an ontology within the traditional information retrieval model in order to overcome some of its limitations. The domain knowledge is used to add semantic capabili- ties and to provide the user with an enriched interface which includes metadata about the retrieved results, thus facilitating its exploration and filtering El acelerado crecimiento en la cantidad de datos disponibles ha traído consigo nuevos retos para los investigadores. Buscar información en este gran volumen de datos, es una tarea difícil, que se torna aún más compleja cuando los datos pertenecen a un dominio especifíco el cual tiene su propia terminolgía y requiere un conocimiento previo. Los sistemas de búsqueda tradicionales son basados en palabras clave. En este tipo de siste- mas la respuesta a una consulta es dada en forma de una lista ordenada de documentos que contienen las palabras en la consulta. Este modelo funciona bien en escenarios en los cuales hay pocos documentos o si el sistema puede alcanzar una precisión muy alta garantizando que los primeros resultados contienen los documentos requeridos. Sin embargo, en la mayoría de los casos las colecciones de documentos son muy grandes y los resultados son una lista interminable de documentos los cuales deben ser explorados manualmente. Este trabajo propone una aproximación a la búsqueda de informacón, que incorpora conoci- miento del dominio proveniente de una ontología, dentro del modelo de búsqueda tradicional con el fin de superar algunas de sus limitaciones. El conocimiento del dominio es usado para adicionar capacidades semánticas y para proveer a los usuarios con una interfaz enriquecida la cual incluye meta-datos acerca de los resultados, facilitando su exploración y filtrado. Maestría
- Published
- 2015
48. Online Kernel Matrix Factorization
- Author
-
Páez Torres, Andrés Esteban and González Osorio, Fabio Augusto
- Subjects
Aprendizaje de kernel en línea ,51 Matemáticas / Mathematics ,62 Ingeniería y operaciones afines / Engineering ,Online kernel learning ,Large-scale machine learning ,Kernel matrix factorization ,Aprendizaje de máquina a gran escala ,Factorización de matrices de kernel - Abstract
The problem of effciently applying a kernel-induced feature space factorization to a large-scale data sets is addressed in this thesis. Kernel matrix factorization methods have showed good performances solving machine learning and data analysis problems. However, the present growth of the amount of information available implies the problems can not be solved with conventional methods, due their high time and memory requirements. To solve this problem, a new kernel matrix factorization method is proposed called online kernel matrix factorization (OKMF). This method overcomes the time and memory limitations with two strategies. The first is imposing a budget restriction, i.e., restricting the number of samples needed to represent the feature space base. The second is using stochastic gradient descent to compute the factorization, allowing OKMF to scale linearly in time to large-scale data sets. Experimental results show OKMF is competitive with other kernel methods and is capable to scale to a large-scale data sets. El problema de aplicar una factorización de un espacio de características inducido por kernel es abordado en esta tesis. Los métodos de factorización de kernel han mostrado buen rendimiento solucionando problemas de aprendizaje de máquina y problemas de análisis de datos. Sin embargo, el presente crecimiento de la cantidad de información disponible implica que los problemas no pueden ser resueltos con métodos convencionales, debido a sus grandes requerimientos de tiempo y memoria. Con el fin de resolver este problema, un nuevo método de factorización de kernel es propuesto, llamado online kernel matrix factorization (OKMF). Este método solventa los problemas de tiempo y memoria usando dos estrategias. La primera es imponer una restricción de presupuesto, esto es, restringir el número de ejemplos necesarios para representar la base del espacio de características. La segunda es usar gradiente descendente estocástico para calcular la factorización, permitiendo a OKMF escalar linealmente en tiempo a grandes conjuntos de datos. Resultados experimentales muestran que OKMF es competitivo con otros métodos de kernel y es capaz de escalar a grandes conjuntos de datos. Maestría
- Published
- 2015
49. Human action video retrieval
- Author
-
Páez Rivera, Fabián Mauricio and González Osorio, Fabio Augusto
- Subjects
Latent semantics ,Indexación multimodal ,Factorización de matrices ,51 Matemáticas / Mathematics ,62 Ingeniería y operaciones afines / Engineering ,0 Generalidades / Computer science, information and general works ,Multimodal indexing ,Análisis de video ,Matrix factorization ,Information retrieval ,Video analysis ,Semántica latente ,Recuperación de información - Abstract
The problem of efficiently answering a user information need in a video collection related to human actions is addressed in this thesis. The focus is given to the case where the user queries are stated using an example video containing the action of interest. Among the motivations of the work is the growing complexity of available video content in terms of size and content diversity, and also the ubiquity of video content fueled by the widespread use of video cameras. To solve the problem at hand, an information retrieval system is proposed where multiple information modalities are leveraged if available to discover the latent semantics of the video collection. The central component are matrix factorization-based indexes which have been previously used on image retrieval settings. Along the way, different features and encoding methods for the visual information have been evaluated, such as Bag of Features, Fisher Vectors and Improved Trajectory Features. As a result, a system achieving similar performance as Support Vector Machines-based systems has been obtained. El problema de responder eficientemente a la necesidad de información de un usuario en una colección de vídeo relacionada con acciones humanas es abordado en esta tesis. El enfoque es dado al caso donde las consultas del usuario son planteadas usando un vídeo de ejemplo conteniendo la acción de interés. Entre las motivaciones del trabajo esta la creciente complejidad del contenido de vídeo disponible en términos de tamaño y diversidad de contenido, y también a la ubicuidad de contenido de vídeo potenciado por la amplia difusión de cámaras de vídeo. Para resolver el problema a la mano, se propone un sistema de recuperación de información en donde múltiples modalidades de información son aprovechadas si están disponibles, para descubrir la semántica latente de la colección de vídeos. El componente central son índices basados en factorización de matrices que han sido utilizados previamente en configuraciones de recuperación de imágenes. En el camino, diferentes características y métodos de codificación para la información visual han sido evaluados, tales como Bolsa de características, Vectores de Fisher y Características de Trayectorias Mejoradas. Como resultado, se ha obtenido un sistema que logra desempeño similar a sistemas basados en Maquinas de Vectores de Soporte. Maestría
- Published
- 2015
50. Data mining model to predict academic performance at the Universidad Nacional de Colombia
- Author
-
López Guarín, Camilo Ernesto, González Osorio, Fabio Augusto (Thesis advisor), and León Guzmán, Elizabeth
- Subjects
62 Ingeniería y operaciones afines / Engineering ,Dropout ,Deserción ,Educación ,0 Generalidades / Computer science, information and general works ,Minería de Datos ,37 Educación / Education ,Data mining ,Education - Abstract
The present research proposes an approach to Educational Data Mining at the Universidad Nacional de Colombia through the definition of models that integrate clustering and classification techniques to analyze academic data, corresponding to the students who joined the University to the programs of Agricultural and Computer and Systems Engineering between 2007-03 and 2012-01. These techniques are intended to acquire a better understanding of the attrition during the first enrollments and to assess the quality of the data for the classification task, which can be understood as the prediction of the loss of academic status due to low academic performance. Different models were built to predict the loss of academic status in different scenarios such as: in the first four enrollments regardless when; at a specific academic period using only the admission process data and then, using academic records. Experimental results show that the prediction of the loss of academic status is improved when adding academic data. La presente investigación propone un acercamiento a la Minería de Datos Educativa en la Universidad Nacional de Colombia mediante la definición de modelos que integran técnicas de agrupamiento y clasificación para el análisis de datos académicos reales pertenecientes a los estudiantes de Ingeniería Agrícola e Ingeniería de Sistemas que ingresaron entre 2007-03 y 2012-01. Se pretende con estas técnicas obtener un mejor entendimiento de la desvinculación por desempeño académico en los primeros semestres de la carrera y evaluar la calidad de los datos para la tarea de clasificación, que puede entenderse como la predicción de la pérdida de calidad de estudiante. Se construyeron diferentes modelos para la predicción en diferentes escenarios, como: en las primeras cuatro matrículas sin importar cuando; en un periodo académico específico usando solo los datos de admisión y después usando los registros académicos. Resultados experimentales muestran que la predicción de la pérdida de calidad de estudiante mejora al usar información académica. Maestría
- Published
- 2013
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.