20 results on '"Análise de imagem"'
Search Results
2. Agrupamento de dados por florestas de caminhos otimos
- Author
-
Rocha, Leonardo Marques, Meloni, Luís Geraldo Pedroso, 1958, Falcão, Alexandre Xavier, 1966, Furuie, Sergio Shiguemi, Nascimento, Francisco Assis de Oliveira, Lotufo, Roberto de Alencar, Iano, Yuzo, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Databases ,Information retrieval systems ,Image processing ,Análise de imagem ,Processamento de imagens ,Sistemas de recuperação de informação ,Banco de dados ,Image analysis - Abstract
Orientadores: Luis Geraldo Pedroso Meloni, Alexandre Xavier Falcão Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Esta tese propõe uma nova abordagem para agrupamento de dados baseada em floresta de caminhos ótimos. As amostras são tomadas como nós de um grafo, cujos arcos são definidos pela sua relação de adjacência. Os nós são ponderados pela seus valores de densidade de probabilidade (PDF) e uma função de conexidade que é maximizada, de forma que cada máximo na PDF torna-se uma raiz de uma árvore de caminhos ótimos (grupo), composto por amostras "mais fortemente conexas" àquele máximo que a qualquer outra raiz. Máximos irrelevantes (domos) são removidos por reconstrução morfológica da PDF. Uma discussão mostra as vantagens sobre abordagens baseadas no gradiente da PDF e suas relações com a transformada watershed. O método é estendido para grande bases de dados e comparado com as abordagens de mean-shift e watershed para agrupamento de pixels e segmentação interativa, respectivamente. Os experimentos para segmentação de imagens naturais e classificação de substâncias branca e cinza do cérebro mostram resultados rápidos e precisos comparados com métodos no estado-da-arte. Abstract: This thesis proposes a novel approach for data clustering based on optimum-path forest. The samples are taken as nodes of a graph, whose arcs are defined by an adjacency relation. The nodes are weighted by their probability density values (pdf) and a connectivity function is maximized, such that each maximum of the pdf becomes root of an optimum-path tree (cluster), composed by samples "more strongly connected" to that maximum than to any other root. Irrelevant maxima (domes) are removed by morphological reconstruction of the pdf. A discussion shows the advantages over aproaches based on the gradient of the pdf and its relations with the watershed transform. The method is extended for large datasets and compared to mean-shift and watershed approaches for pixel clustering and interactive segmentation, respectively. The experiments for the segmentation of natural images and automatic gray and white matter classification of the brain show fast and accurate results compared to state-of-the-art methods. Doutorado Telecomunicações e Telemática Doutor em Engenharia Elétrica
- Published
- 2021
- Full Text
- View/download PDF
3. Descrição de texturas invariante a rotação e escala para identificação e reconhecimento de imagens
- Author
-
Montoya Zegarra, Javier Alexandre, Leite, Neucimar Jerônimo, 1961-2016, Torres, Ricardo da Silva, 1977, Traina, Agma Juci Machado, Goldenstein, Siome Klein, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Databases ,Information retrieval systems ,Image processing ,Análise de imagem ,Processamento de imagens ,Sistemas de recuperação de informação ,Banco de dados ,Image analysis - Abstract
Orientadores: Neucimar Jeronimo Leite, Ricardo da Silva Torres Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Uma importante característica de baixo nível, utilizada tanto na percepção humana como no reconhecimento de padrões, é a textura. De fato, o estudo de textura tem encontrado diversas aplicações abrangendo desde segmentação de textura até síntese, classificação e recuperação de imagens por conteúdo.Apesar das múltiplas técnicas eficientes e eficazes propostas para classificação e recuperação, ainda há alguns desafios que precisam ser superados como, por exemplo, a necessidade de descritores de imagens compactos e robustos a serem empregados na consulta e classificação de bases de imagens de textura. Esta dissertação propõe um descritor de imagens de textura visando à busca e à recuperação de bases de dados de imagens. Este descritor baseia-se na Decomposição Piramidal Steerable caracterizada por sua análise de forma invariante à rotação ou à escala. Resultados preliminares conduzidos em cenários não-controlados demonstraram caráter promissor da abordagem. No que diz respeito à classificação de imagens de textura, esta dissertação propõe ao mesmo tempo um sistema de reconhecimento, o qual possui como principais características representações compactas de imagens e módulos de reconhecimento eficientes. O descritor proposto é utilizado para codificar a informação relevante de textura em vetores de características pequenos. Para tratar os requisitos de eficiência do reconhecimento, uma abordagem multi-classe baseada no classificador de Floresta de Caminhos Ótimos é utilizada. Experimentos foram condl!zidos visando avaliar o sistema proposto frente a outros métodos de classificação. Resultados experimentais demonstram a superioridade do sistema proposto Abstract: An important low-level image feature used in human perception as well as in recognition is texture. 1n fact, the study of texture has found several applications ranging from texture segmentation to texture synthesis, classification, and image retrieval. Although many efficient and effective techniques have been proposed for texture classification and retrieval, there are still some challenges to overcome. More specifically, there is a need for a compact and robust image descriptor to query and classify texture image databases. 1n order to search and query image databases, this dissertation provides a texture image descriptor, which is based on a modification of the Steerable Pyramid Decomposition, and is also characterized by its capabilities for representing texture images in either rotation-invariant or scale-invariant manners. Preliminary results conducted in non-controlled scenarios have demonstrated the promising properties of the approach. 1n order to classify texture im.ages, this dissertation also provides a new recognition system, which presents as main features, compact image representations and efficient recognition tasks. The proposed image descriptor is used to encode the relevant texture information in small size feature vectors. To address the efficiency recognition requirements, a novel multi-class object recognition method based on the Optimum Path Forest classifier is used. To evaluate our proposed system against different methods, several experiments were conducted. The results demonstrate the superiority of the proposed system Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
4. Image and video representations based on visual
- Author
-
Penatti, Otávio Augusto Bizetto, 1984, Torres, Ricardo da Silva, 1977, Traina, Agma Juci Machado, Gonçalves, Marcos André, Pedrini, Hélio, Goldenstein, Siome Klein, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Information storage and retrieval systems ,Visão por computador ,Sistemas de recuperação da informação ,Image processing ,Análise de imagem ,Pattern recognition ,Processamento de imagens ,Computer vision ,Image analysis - Abstract
Orientador: Ricardo da Silva Torres Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Codificar de maneira eficaz as propriedades visuais de conteúdo multimídia é um desafio. Uma abordagem popular para tratar esse desafio consiste no modelo de dicionários visuais. Neste modelo, imagens são consideradas como um conjunto desordenado de características locais e são representadas por um saco de palavras visuais (bag of visual words). Nesta tese, trabalhamos em três problemas de pesquisa relacionados ao modelo de dicionários visuais. O primeiro deles é relacionado ao poder de generalização dos dicionários visuais, que se refere à capacidade de criar boas representações para imagens de uma dada coleção mesmo usando um dicionário criado sobre outra coleção ou usando um dicionário criado sobre pequenas amostras da coleção. Experimentos foram realizados em coleções fechadas de imagens e em um ambiente Web. Os resultados obtidos sugerem que o uso de amostras diversas em termos de aparência é suficiente para se gerar bons dicionários. O segundo problema de pesquisa é relacionado à importância da informação espacial das palavras visuais no espaço da imagem. Esta informação pode ser fundamental para diferenciar tipos de objetos e cenas. As técnicas mais comuns de pooling normalmente descartam a configuração espacial das palavras visuais na imagem. Propomos uma nova técnica de pooling, chamada de Word Spatial Arrangement (WSA), que codifica a posição relativa das palavras visuais na imagem e tem a vantagem de gerar vetores de características mais compactos do que a maioria das técnicas de pooling espacial existentes. Experimentos em recuperação de imagens mostram que o WSA supera em eficácia a técnica mais popular de pooling espacial, as pirâmides espaciais. O terceiro problema de pesquisa em investigação nesta tese é relacionado à falta de informação semântica no modelo de dicionários visuais. Mostramos que o problema de não haver semântica no espaço de características de baixo nível é reduzido ao passarmos para o espaço das representações baseadas em sacos de palavras visuais. Contudo, mesmo no espaço destas representações, mostramos que existe pouca separabilidade entre distribuições de distância de conceitos semânticos diferentes. Portanto, questionamos sobre passar para um novo espaço e propomos uma representação baseada em palavras visuais que carreguem mais semântica de acordo com a percepção visual humana. Propomos um modelo de saco de protótipos, segundo o qual os protótipos são elementos com maior significado. Esta abordagem tem potencial para reduzir a chamada lacuna semântica entre a interpretação do usuário sobre uma imagem e a sua representação. Propomos um dicionário baseado em cenas, que é usado para representar vídeos em experimentos de geolocalização. Geo-localização de vídeos é a tarefa de atribuir uma posição geográfica para um dado vídeo. A avaliação foi conduzida no contexto da Placing Task da competição MediaEval e o modelo proposto mostrou resultados promissores Abstract: Effectively encoding visual properties from multimedia content is challenging. One popular approach to deal with this challenge is the visual dictionary model. In this model, images are handled as an unordered set of local features being represented by the so-called bag-of-(visual-) words vector. In this thesis, we work on three research problems related to the visual dictionary model. The first research problem is concerned with the generalization power of dictionaries, which is related to the ability of representing well images from one dataset even using a dictionary created over other dataset, or using a dictionary created on small dataset samples. We perform experiments in closed datasets, as well as in a Web environment. Obtained results suggest that diverse samples in terms of appearances are enough to generate a good dictionary. The second research problem is related to the importance of the spatial information of visual words in the image space, which could be crucial to distinguish types of objects and scenes. The traditional pooling methods usually discard the spatial configuration of visual words in the image. We have proposed a pooling method, named Word Spatial Arrangement (WSA), which encodes the relative position of visual words in the image, having the advantage of generating more compact feature vectors than most of the existing spatial pooling strategies. Experiments for image retrieval show that WSA outperforms the most popular spatial pooling method, the Spatial Pyramids. The third research problem under investigation in this thesis is related to the lack of semantic information in the visual dictionary model. We show that the problem of having no semantics in the space of low-level descriptions is reduced when we move to the bag-of-words representation. However, even in the bag-of-words space, we show that there is little separability between distance distributions of different semantic concepts. Therefore, we question about moving one step further and propose a representation based on visual words which carry more semantics, according to the human visual perception. We have proposed a bag-of-prototypes model, according to which the prototypes are the elements containing more semantics. This approach goes in the direction of reducing the so-called semantic gap problem. We propose a dictionary based on scenes that are used ix for video representation in experiments for video geocoding. Video geocoding is the task of assigning a geographic location to a given video. The evaluation was performed in the context of the Placing Task of the MediaEval challenge and the proposed bag-of-scenes model has shown promising performance Doutorado Ciência da Computação Doutor em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
5. Generalização do ritmo visual e problemas de rastreamento de imagens desportivas
- Author
-
Dias, Fábio Augusto Salve, Leite, Neucimar Jerônimo, 1961-2016, Barros, Ricardo Machado Leite de, Torres, Ricardo da Silva, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Image processing ,Análise de imagem ,Pattern recognition ,Rastreamento automático ,Automatic tracking ,Processamento de imagens ,Image analysis - Abstract
Orientador: Neucimar Jeronimo Leite Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: O rastreamento de objetos em imagens de vídeo está se tornando cada vez mais popular, nos mais diversos contextos, possibilitando a obtenção de informações que, de outra maneira, seriam muito trabalhosas ou mesmo impossíveis de serem obtidas. Entretanto, a grande maioria dos métodos presentes na literatura realiza o rastreamento no domínio da imagem, não no domínio tridimensional natural do problema. No contexto de imagens desportivas, onde movimentos rápidos, similaridades cromáticas entre jogadores do mesmo time e oclusões são significativas, a utilização do domínio tridimensional é particularmente interessante. Este trabalho tem como premissa básica a realização do rastreamento em um domínio tridimensional, partindo de determinadas hipóteses, plausíveis em um contexto desportivo, visando ao rastreamento automático dos jogadores em atividades desportivas. Generalizamos o conceito de ritmo visual, um método de amostragem vastamente utilizado para detecção de cortes em imagens de vídeos, e o utilizamos para efetuar o rastreamento, resultando em um método simples, intuitivo e automático quando seus pré-requisitos são atendidos. Para possibilitar a utilização da generalização do ritmo visual, desenvolvemos ainda algoritmos para identificação de objetos em movimento, calibração de câmeras e reconstrução tridimensional, além de um algoritmo baseado em grafos para a segmentação da trajetória de cada objeto em movimento, utilizando a informação obtida através do ritmo visual. Apresentamos resultados experimentais da utilização do método proposto em vídeos de eventos desportivos e coletados em laboratório, incluindo casos nos quais as condições ideais de utilização não são atendidas, causando falhas no método Abstract: The automatic tracking in the video images is becoming increasingly popular, in many different contexts, making available information that, otherwise, would be very laborious or even impossible to be obtained. However, most of the methods perform the tracking in the image domain not in the natural three-dimensional domain. For sports images, with rapid motions, color similarity and occlusions, the three-dimensional approach is an interesting alternative. In this work, we introduce a tracking method in the three-dimensional domain, based on some requirements, feasible in the sports context, aiming fully automatic tracking of the players. We also introduce the generalization of the visual rhythm concept and its use to the tracking problem, leading to a simple, intuitive, and automatic method. To use the generalization of the visual rhythm, we also developed algorithms to detect moving objects, camera calibration and three-dimensional reconstruction, and an algorithm based on graphs for the segmentation of the trajectory of each moving object in the scene, considering information obtained through the visual rhythm. We also show experimental results of the proposed method, in sports images and controlled environments, including cases where not all the requirements are fulfilled, yielding failures of the proposed approach Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
6. Uso de técnicas de aprendizagem para classificação e recuperação de imagens
- Author
-
Faria, Fabio Augusto, 1983, Torres, Ricardo da Silva, 1977, Veloso, Adriano Alonso, Rocha, Anderson de Rezende, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Information storage and retrieval systems ,Aprendizagem ,Image processing ,Análise de imagem ,Processamento de imagens ,Sistemas de recuperação de informação ,Genetic programming (Computer science) ,Learning ,Programação genética (Computação) ,Image analysis - Abstract
Orientador: Ricardo da Silva Torres Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Técnicas de aprendizagem vêm sendo empregadas em diversas áreas de aplicação (medicina, biologia, segurança, entre outras). Neste trabalho, buscou-se avaliar o uso da técnica de Programação Genética (PG) em tarefas de recuperação e classificação de imagens. PG busca soluções ótimas inspirada pela teoria de seleção natural das espécies. Indivíduos mais aptos (melhores soluções) tendem a evoluir e se reproduzir nas gerações futuras. As principais contribuições deste trabalho são: implementação de um classificador de imagens utilizando PG para combinar evidencias visuais (descritores de imagens) e assim, obter melhores resultados com relação à eficácia de classificação; Comparação de PG com outras técnicas de aprendizagem em tarefas de recuperação de imagens por conteúdo; Uso de regras de associação para recuperação de imagens Abstract: Learning techniques have been used in several applications (medicine, biology, surveillance systems, e.g.) This work aims to evaluate the use of the Genetic Programming (GP) learning technique for image retrieval and classification tasks. This technique is a problem-solving system that follows principles of inheritance and evolution, inspired by the idea of Natural Selection. The space of all possible solutions is investigated using a set of optimization techniques that imitate the theory of evolution. The main contributions of this work are: proposal of classifier implementation using GP to combine visual evidences (image descriptors) to be used in image classification tasks; comparison of GP with other learning techniques in content-based image retrieval tasks Mestrado Recuperação de Informação Mestre em Ciência da Computação
- Published
- 2021
- Full Text
- View/download PDF
7. Geração de superpixels pela Floresta Geradora Iterativa usando informação de objeto
- Author
-
Belém, Felipe de Castro, 1994, Falcão, Alexandre Xavier, 1966, Guimarães, Silvio Jamil Ferzoli, Pedrini, Hélio, Miranda, Paulo Andre Vechiatto de, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Image segmentation ,Image processing ,Análise de imagem ,Segmentação de imagens ,Processamento de imagens ,Image analysis - Abstract
Orientadores: Alexandre Xavier Falcão, Silvio Jamil Ferzoli Guimarães Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Métodos de segmentação de imagem em superpixels almejam particionar a imagem em regiões conexas (i.e., superpixels) de forma que os objetos de interesse sejam representados pela união de seus superpixels. Tal resultado é de extrema importância para inúmeras aplicações, aumentando o desempenho computacional e permitindo explorar informações de nível intermediário sobre os objetos envolvidos na análise da imagem. Dependendo do algoritmo, o desempenho da segmentação de superpixels pode ser proporcional ao número de regiões geradas. Entretanto, a falta de informação sobre os objetos de interesse, faz com que resultados eficazes estejam quase sempre relacionados a uma super-segmentação desnecessária, afetando negativamente os propósitos supramencionados. Tendo em vista o desenvolvimento de métodos eficientes para segmentação em superpixels, cujos objetos sejam representados de forma eficaz com poucos superpixels, este trabalho incorpora a informação de objeto no arcabouço da Floresta Geradora Iterativa (ISF, do inglês Iterative Spanning Forest). O arcabouço resultante, denominado Floresta Geradora Iterativa baseada em informação de objeto (OISF, do inglês Object-Based ISF) é composto por três etapas independentes, similarmente ao ISF: (i) amostragem inicial de pixels sementes; (ii) delineamento de superpixels a partir das sementes usando o algoritmo da Transformada Imagem-Floresta (IFT, do inglês Image Foresting Transform) para uma dada função de conexidade (i.e., custo de caminho em um grafo imagem); e (iii) recômputo das sementes, seguido de execução iterativa das etapas (ii) e (iii) para melhorar a localização das sementes e, consequentemente, o delineamento dos superpixels. A informação de objeto provém de um mapa de saliências, o qual é previamente gerado e utilizado para incorporar informação de objeto nas três etapas do OISF. Os resultados incluem maior eficácia no delineamento com um número significativamente menor de superpixels e flexibilidade na adaptação do arcabouço para diferentes aplicações. Esses resultados são demonstrados em comparação com diversos outros métodos do estado-da-arte, inclusive métodos baseados no ISF, usando duas bases de imagens naturais e uma base de imagens médicas Abstract: Image segmentation through superpixel methods aims partitioning the image in connected regions (i.e., superpixels) such that the objects of interest can be represented by the union of its superpixels. Such result is crucial for many applications, improving the computational performance and allowing to explore mid-level information of the objects involved in the image analysis. Depending of the algorithm, the superpixel segmentation performance may be proportional to the number of regions generated. However, the lack of information of the objects of interest leads efficient results to be often related to an unnecessary over-segmentation, causing a negative impact over the aforementioned objectives. Given the development of efficient methods for superpixel segmentation -- whose objects can be efficaciously represented with a low quantity of superpixels --, this work incorporates object information into the Iterative Spanning Forest (ISF) framework. Like ISF, the resulting framework, named Object-based Iterative Spanning Forest (OISF), is composed of three independent steps: (i) initial seed pixels sampling; (ii) superpixel delineation through the Image Foresting Transform (IFT) restricted to the sampled seeds, for a given connectivity function (i.e., path-cost in an image graph); and (iii) seed recomputation, followed by iterative executions of steps (ii) and (iii) for a better displacement of seeds and, consequently, better superpixel delineation. The object information is obtained through a previously generated saliency map, and it is used for incorporating object information in all three steps of OISF. Results indicates a higher efficacy for lower quantities of superpixels, and flexibility in adapting the framework for different applications. Such results are demonstrated in comparison with many different state-of-the-art methods, including ISF-based ones, for two natural image datasets, and one medical Mestrado Ciência da Computação Mestre em Ciência da Computação CNPQ 131000/2018-7 CAPES FAPESP 2014/12236-1
- Published
- 2021
- Full Text
- View/download PDF
8. Machine learning applied to open geographical data Aprendizado de máquina aplicado a dados geográficos abertos
- Author
-
Vargas Muñoz, John Edgar, 1991, Falcão, Alexandre Xavier, 1966, Feitosa, Raul, Coelho, Clarimar José, Oliveira, Stanley Robson de Medeiros, Lamparelli, Rubens Augusto Camargo, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Image processing ,Análise de imagem ,Pattern recognition ,Machine learning ,Processamento de imagens ,Aprendizado de máquina ,Sensoriamento remoto ,Remote sensing ,Image analysis - Abstract
Orientador: Alexandre Xavier Falcão Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Dados geográficos são utilizados em várias aplicações, tais como mapeamento, navegação e planificação urbana. Em particular, serviços de mapeamento são frequentemente utilizados e requerem informação geográfica atualizada. No entanto, devido a limitações orçamentárias, mapas oficiais (e.g. governamentias) sofrem de imprecisões temporais e de completude. Neste contexto projetos crowdsourcing, assim como os sistemas de informação geográfica voluntária, surgiram como uma alternativa para obter dados geográficos atualizados. OpenStreetMap (OSM) é um dos maiores projetos desse tipo com milhões de usuários (consumidores e produtores de informação) em todo o mundo e os dados coletados pelo OSM estão disponíveis gratuitamente. Uma desvantagem do OSM é o fato de poder ser editado por voluntários com diferentes habilidades de anotação, o que torna a qualidade das anotações heterogêneas em diferentes regiões geográficas. Apesar desse problema de qualidade, os dados do OSM têm sido amplamente utilizados em várias aplicações, como por exemplo no mapeamento de uso da terra. Por outro lado, é crucial melhorar a qualidade dos dados em OSM de forma que as aplicações que dependam de informações precisas, por exemplo, roteamento de carros, se tornem mais eficazes. Nesta tese, revisamos e propomos métodos baseados em aprendizado de máquina para melhorar a qualidade dos dados em OSM. Apresentamos métodos automáticos e interativos focados na melhoria dos dados em OSM para fins humanitários. Os métodos apresentados podem corrigir as anotações do OSM de edifícios em áreas rurais e permitem realizar a anotação eficiente de coqueiros a partir de imagens aéreas. O primeiro é útil na resposta a crises que afetam áreas vulneráveis, enquanto que o último é útil para monitoramento ambiental e avaliação pós-desastre. Nossa metodologia para correção automática das anotações de prédios rurais existentes em OSM consiste em três tarefas: correção de alinhamento, remoção de anotações incorretas e adição de anotações ausentes de construções. Esta metodologia obtém melhores resultados do que os métodos de segmentação semântica supervisionados e, mais importante, produz resultados vetoriais adequados para o processamento de dados geográficos. Dado que esta estratégia automática poderia não alcançar resultados precisos em algumas regiões, propomos uma abordagem interativa que reduz os esforços de humanos ao corrigir anotações de prédios rurais. Essa estratégia reduz drasticamente a quantidade de dados que os usuários precisam analisar, encontrando automaticamente a maioria dos erros de anotação existentes. A anotação de objetos de imagens aéreas é uma tarefa demorada, especialmente quando o número de objetos é grande. Assim, propomos uma metodologia na qual o processo de anotação é realizado em um espaço 2D, obtido da projeção do espaço de características das imagens. Esse método permite anotar com eficiência mais objetos do que o método tradicional de fotointerpretação, coletando amostras rotuladas mais eficazes para treinar um classificador para detecção de objetos Abstract: Geographical data are used in several applications, such as mapping, navigation, and urban planning. Particularly, mapping services are routinely used and require up-to-date geographical data. However, due to budget limitations, authoritative maps suffer from completeness and temporal inaccuracies. In this context, crowdsourcing projects, such as Volunteer Geographical Information (VGI) systems, have emerged as an alternative to obtain up-to-date geographical data. OpenStreetMap (OSM) is one of the largest VGI projects with millions of users (consumers and producers of information) around the world and the collected data in OSM are freely available. OSM is edited by volunteers with different annotation skills, which makes the annotation quality heterogeneous in different geographical regions. Despite these quality issues, OSM data have been extensively used in several applications (e.g., landuse mapping). On the other hand, it is crucial to improve the quality of the data in OSM such that applications that depend on accurate information become more effective (e.g., car routing). In this thesis, we review and propose methods based on machine learning to improve the quality of the data in OSM. We present automatic and interactive methods focused on improving OSM data for humanitarian purposes. The methods can correct the OSM annotations of building footprints in rural areas and can provide efficient annotation of coconut trees from aerial images. The former is helpful in the response to crises that affect vulnerable areas, while the later is useful for environmental monitoring and post-disaster assessment. Our methodology for automatic correction of the existing OSM annotations of rural buildings consists of three tasks: alignment correction, removal of incorrect annotations, and addition of missing building annotations. This methodology obtains better results than supervised semantic segmentation methods and, more importantly, it outputs vectorial footprints suitable for geographical data processing. Given that this automatic strategy could not attain accurate results in some regions, we propose an interactive approach which reduces the human efforts when correcting rural building annotations in OSM. This strategy drastically reduces the amount of data that the users need to analyze by automatically finding most of the existing annotation errors. The annotation of objects from aerial imagery is a time-consuming task, especially when the number of objects is high. Thus, we propose a methodology in which the annotation process is performed in a 2D space of projected image features. This method allows to efficiently annotate more objects than using traditional photointerpretation, collecting more effective labeled samples to train a classifier for object detection Doutorado Ciência da Computação Doutor em Ciência da Computação CAPES FAPESP 2016/14760-5 , 2017/10086-0
- Published
- 2020
- Full Text
- View/download PDF
9. Índices espectrais para identificação de deficiência de nitrogênio em plantas de milho
- Author
-
Murilo Mesquita Baesso, Liliane Maria Romualdo, Jessica Angela Bet, Fernanda de Fatima da Silva Devechio, and Pedro Henrique de Cerqueira Luz
- Subjects
010504 meteorology & atmospheric sciences ,Nutrição mineral ,Mineral nutrition ,Soil Science ,chemistry.chemical_element ,Image processing ,Horticulture ,01 natural sciences ,Processamento de imagens ,Image analysis ,Digital image ,Dry weight ,Zea mays L ,Dry matter ,lcsh:Agriculture (General) ,Completely randomized design ,0105 earth and related environmental sciences ,Mathematics ,Pixel ,Análise de imagem ,Nitrogen deficiency ,04 agricultural and veterinary sciences ,lcsh:S1-972 ,Nitrogen ,chemistry ,040103 agronomy & agriculture ,0401 agriculture, forestry, and fisheries ,Agronomy and Crop Science - Abstract
Image analysis can provide information extracted from the leaves of crops, and contribute to early identification of nutrient deficiency. The objective of this study was to recognize nutritional nitrogen (N) patterns in maize plants, at the V4 and V7 stages, using digital image analysis based on spectral indexes. The experiment was carried out in a greenhouse under hydroponic cultivation. Treatments consisted of a completely randomized design, in a 4 × 2 factorial arrangement, with four replications. The factors were constituted by the doses of N (0; 3.0; 6.0 e 15 mmol L-1) combined at V4 and V7. In each stage, digital images were taken of leaf blades, with subsequent chemical composition and image analysis. For image recognition and classification, a vector of characteristics based on the spectral indexes was used as follows: excess of green, normalized red, normalized green and red-green ratio, and the combination among them. Additionally, extracted blocks of 9 × 9, 20 × 20 and 40 × 40 pixels on original images were used. The N content in the leaf blade, the dry mass of the plants and the external critical level of N in the nutrient solution were determined for result validation, based on 90% dry matter production. Maximum the global accuracy rate for N patterns was 80 and 93% at V4 and V7, respectively. The use of combined spectral indexes provided better classification performance, and the 9 × 9 pixel image block appeared more adequate for differentiation among the doses of N. RESUMO A análise de imagens pode fornecer informações extraídas das folhas das culturas, que podem contribuir na identificação precoce de deficiência de nutrientes. O objetivo do trabalho foi reconhecer padrões nutricionais de nitrogênio (N) em plantas de milho, nos estádios V4 e V7, utilizando análise de imagens digitais baseados em índices espectrais. O experimento foi realizado em casa de vegetação sob cultivo hidropônico. Os tratamentos foram dispostos em um delineamento inteiramente casualizado, em esquema fatorial 4×2, com quatro repetições. Os fatores foram constituídos pelas doses de N (0; 3,0; 6,0 e 15 mmol L-1) combinados no V4 e V7. Em cada estádio foram digitalizadas imagens da lâmina foliar, que foram processadas pela análise de imagens e analisadas quimicamente. Para reconhecimento das imagens foi utilizado um vetor de características baseados nos índices espectrais: excesso de verde, vermelho normalizado, verde normalizado e razão verde-vermelho, e na combinação entre eles. Na imagem original foram extraídos blocos de 9×9; 20×20 e 40×40 pixels. Para validação dos resultados foi determinado o teor de N na lâmina foliar, a massa seca das plantas e o nível crítico externo de N na solução nutritiva, com base em 90% produção de massa seca. A máxima porcentagem de acerto global dos padrões de N foi 80 e 93% em V4 e V7, respectivamente. A utilização de índices espectrais combinados proporcionou melhor desempenho na classificação, e o bloco de imagem 20×20 pixels mostrou-se mais adequado para a diferenciação entre as doses de N.
- Published
- 2018
- Full Text
- View/download PDF
10. Simplificações morfológicas multiescala baseadas em relações extremas : melhoras e aplicações
- Author
-
Saire Pilco, Darwin Danilo, 1989, Ramírez Rivera, Adín, 1986, Leite, Neucimar Jerônimo, 1961-2016, Pedrini, Hélio, Hirata Junior, Roberto, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Graph theory ,Morfologia matemática ,Teoria dos grafos ,Image processing ,Análise de imagem ,Mathematical morphology ,Processamento de imagens ,Image analysis - Abstract
Orientadores: Gerberth Adín Ramírez Rivera, Neucimar Jerônimo Leite Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: A abordagem de simplificação de imagem visa reduzir a quantidade de informação presente nas imagens, isto através da filtragem de componentes de ruído e eliminação de detalhes não significativos, mantendo as informações necessárias para a obtenção do resultado desejado. Além disso, a simplificação de imagens tem mostrado ser útil em diversas aplicações de processamento de imagens como um passo adicional para tarefas mais complexas, como a segmentação e extração de características. Nesta Dissertação de Mestrado, criamos um método de simplificação de imagens, que aproveita os múltiplos níveis de observação (multi-escala), que utiliza uma medida de persistência e ainda tem demanda computacional reduzida. Para isso, exploramos um método de simplificação baseado em grafos que garante o bom comportamento da supressão dos nós extremos da imagem (máximas / mínimas), tendo em conta a informação da distância e contraste, bem como alguns aspectos interessantes da teoria do espaço-escala. Finalmente, apresentamos dois tipos de resultados: teóricos e experimentais. Os resultados teóricos são a criação e demonstração de novas propriedades no grafo que suporta todo o processo de simplificação. Com essas novas propriedades, nós definimos uma atualização local do grafo que implica um desvio interessante em toda a estrutura do algoritmo que, originalmente, é muito custos. Por outro lado, os resultados experimentais são divididos em duas partes. A primeira parte são as comparações de tempo de execução, usando as bases de dados "Berkeley Segmentation Dataset and Benchmark 300" e "Berkeley Segmentation Dataset and Benchmark 500", demonstrando que nosso método contribui para uma redução no custo computacional. E a segunda parte é a apresentação de aplicações onde mostramos como combinar este processo de simplificação com ferramentas morfológicas bem conhecidas para abordar problemas relacionados, principalmente, com segmentação de imagens multiescala e homogeneização Abstract: Image simplification approach aims to reduce the amount of information present in the images, this by filtering out noise components and eliminating of non-significant details while keeping the information necessary to the achievement of the desired outcome. In addition, image simplification has been proved useful in several image processing applications as an additional step for more complex tasks, such as segmentation and feature extraction. In this Master's Thesis, we create a method of images simplification, that takes advantage of the multiple levels of observation (multi-scale), that uses a persistence measure and still be of reduced computational demand. To achieve it, we explore a graph-based simplification method that guarantees a well-behaved suppression of the image extrema (maxima/minima) by taking into account both information of distance and contrast, as well as some interesting aspects of the scale-space theory. Finally, we present two types of results: theoretical and experimental. The theoretical results are the creation and demonstration of new properties on the graph that supports the whole process of simplification. With this properties, we define a local update of the graph which implies an interesting bypass in the whole algorithm structure which, originally, is very time-consuming. On the other hand, the experimental results are divided into two parts. The first part is the run-time comparisons, using the "Berkeley Segmentation Dataset and Benchmark 300" and "Berkeley Segmentation Dataset and Benchmark 500" databases, demonstrating that our method contributes to a reduction in computational cost. And the second part is the presentation of applications where we illustrate how to combine this simplification process with well-known morphological tools to address problems related mainly to multi-scale image segmentation and homogenization Mestrado Ciência da Computação Mestre em Ciência da Computação CNPQ 132866/2015-3
- Published
- 2017
11. Trifocal geometry in 3D reconstruction
- Author
-
Pinho, David da Costa de, Fabbri, Ricardo, Carvalho, Nelson Violante de, and Custódio, Lis Ingrid Roque Lopes
- Subjects
Sistemas de varredura ,CIENCIAS EXATAS E DA TERRA::MATEMATICA::MATEMATICA APLICADA [CNPQ] ,Processamento de imagens ,Imagem tridimensional ,Bases de Gröbner ,Reconstrução de imagens ,Analise de imagem ,Geometria trifocal ,Trifocal geometry ,Reconstrução 3D ,Computer vision ,3D reconstruction ,Gröbner Bases ,Visão por computador - Modelos matemáticos ,Sistemas imageadores - Abstract
Submitted by Boris Flegr (boris@uerj.br) on 2021-01-07T14:42:06Z No. of bitstreams: 1 Dissertacao_DavidDaCostaDePinho.pdf: 4925098 bytes, checksum: bb56af09866b0a874e89f5403ed69df1 (MD5) Made available in DSpace on 2021-01-07T14:42:06Z (GMT). No. of bitstreams: 1 Dissertacao_DavidDaCostaDePinho.pdf: 4925098 bytes, checksum: bb56af09866b0a874e89f5403ed69df1 (MD5) Previous issue date: 2016-02-19 In this work we investigate some advantages of using trifocal geometry applied to 3D multiview reconstruction systems and multiple camera model estimation, as opposed to using pairwise epipolar geometry. We present a detailed exposition and interpretation of the most important mathematical tools in two key recent papers, aiming at tackling trifocal problems for general curvilinear structures in the future. While one of them shows Hamilton's quaternions and Gröbner bases applications for computing the pose of one camera given 3D{2D corresponding structures, the other one is the most computationally efficient approach (to date) for trifocal reconstruction of camera systems. The first chapters and appendices present the basic theory about projective geometry, linear algebra and algebraic geometry useful for advancing research in the field of 3D multiview reconstruction and structure from motion systems. Neste trabalho nós investigamos alguns benefícios na utilização da geometria trifocal aplicada em sistemas de reconstrução 3D multifocal e estimação de modelos de múltiplas câmeras, em oposição à utilização da geometria epipolar com pares de câmeras. Apresentamos a interpretação e o detalhamento matemático dos pontos mais importantes de dois artigos recentes e essenciais, objetivando resolver problemas trifocais de estrutura de curvas no futuro. Enquanto um deles mostra a aplicação do quatérnion de Hamilton e das bases de Gröbner para a cálculo da pose de uma câmera dadas estruturas correspondentes 3D{2D, o outro é a abordagem mais eficiente computacionalmente (até a presente data) na reconstrução das câmeras num sistema trifocal. Os primeiros capítulos e os apêndices apresentam as teorias básicas sobre geometria projetiva, álgebra linear e geometria algébrica necessárias ao avanço das pesquisas no campo da reconstrução 3D trifocal e multifocal e sistemas de determinação de estruturas a partir do movimento.
- Published
- 2016
12. Representation of time series using shape descriptors applied to recurrence plots
- Author
-
Ederlon Barbosa Cruz, Torres, Ricardo da Silva, 1977, Ferreira, Alexandre Mello, Camolesi Júnior, Luiz, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Image processing ,Análise de imagem ,Time-series analysis - Data processing ,Pattern recognition ,Análise de séries temporais - Processamento de dados ,Processamento de imagens ,Descriptors ,Descritores ,Image analysis - Abstract
Orientador: Ricardo da Silva Torres Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Fenologia de plantas tem sido reconhecida como uma importante área de pesquisa para o entendimento de mudanças climáticas globais. Neste contexto, novas tecnologias para observação fenológica têm sido propostas. Câmeras digitais têm sido utilizadas com sucesso como sensores de imagem multicanal, na medida em que permitem obter informações sobre medidas de alteração da cor (canais RGB) das folhas, do folheamento ou mudanças fenológicas em plantas. Recentemente, foi iniciado o monitoramento de mudanças nos padrões das folhas de uma região de cerrado por meio da captura diária de imagens digitais. As análises das imagens vêm sendo realizadas por meio da definição de 10 regiões de interesse (RIs) na imagem digital original, incluindo imagens totais ou parciais, associadas a 6 espécies de plantas. A extração de séries temporais associadas às diferentes regiões em que as imagens foram obtidas faz aumentar a necessidade do uso de ferramentas apropriadas para a mineração de padrões de interesse. Nos últimos anos, várias técnicas vêm sendo usadas para representar dados e séries temporais com o objetivo de facilitar a extração de informações e descoberta de padrões. Em especial, Recurrence Plot (RP) tem se mostrado uma boa solução para representação de séries temporais. Neste trabalho, usamos RP para representar as séries temporais extraídas a partir dos dados fenológicos com o objetivo de identificar e avaliar descritores de forma adequados para a caracterização de séries temporais associadas a diferentes horas do dia, a diferentes canais de cor, e a diferentes áreas de interesse. Em nosso estudo, as séries temporais foram caracterizadas por descritores de forma tradicionais. Resultados experimentais apontam para a boa eficácia de descritores de forma na caracterização de representações RP de séries temporais Abstract: Plant phenology has been recognized as an important research area for climate change understanding. In this context, new technologies for phenological observation has been proposed. Digital cameras have been successfully used as multi-channel image sensors, providing measures of leaf color change information (RGB channels), or leafing phenological changes in plants. We have been monitoring leaf-changing patterns of a cerradosavanna vegetation by taking daily digital images. We extracted RGB channels from digital images and correlated it with phenological changes over time. The image analyses were conducted by defining ten regions of interest (ROIs) in the original digital image, including total or partial images, and six plant species. The extraction of time series associated with different regions in which the images have been obtained raises the need of using appropriate tools for mining patterns of interest. In recent years various techniques have been used to represent time series in order to facilitate the extraction of information and discovery patterns. In particular, Recurrence Plot (RP) has proven to be a good solution for the representation of time series. In this work, we use RP to represent the time series drawn from the phenological data in order to identify and evaluate appropriate shape descriptors for characterizing time series associated with different times of day, different color channels, and with different areas of interest. In our study, time series were characterized by traditional shape descriptors. Experimental results demonstrate the effectiveness of shape descriptors in characterizing RP representations of time series Mestrado Ciência da Computação Mestre em Ciência da Computação CAPES 01-P-1965/2012 CNPQ 132748/2014-2
- Published
- 2016
13. Aprendizado ativo baseado em atributos contextuais de superpixel para classificação de imagem de sensoriamento remoto
- Author
-
Vargas Muñoz, John Edgar, 1991, Falcão, Alexandre Xavier, 1966, Santos, Jefersson Alex dos, 1984, Fonseca, Leila Maria Garcia, Rezende, Pedro Jussieu de, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Remote-sensing images ,Image processing ,Análise de imagem ,Pattern recognition ,Machine learning ,Processamento de imagens ,Aprendizado de máquina ,Imagens de sensoriamento remoto ,Image analysis - Abstract
Orientadores: Alexandre Xavier Falcão, Jefersson Alex dos Santos Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Recentemente, técnicas de aprendizado de máquina têm sido propostas para criar mapas temáticos a partir de imagens de sensoriamento remoto. Estas técnicas podem ser divididas em métodos de classificação baseados em pixels ou regiões. Este trabalho concentra-se na segunda abordagem, uma vez que estamos interessados em imagens com milhões de pixels e a segmentação da imagem em regiões (superpixels) pode reduzir consideravelmente o número de amostras a serem classificadas. Porém, mesmo utilizando superpixels, o número de amostras ainda é grande para anotá-las manualmente e treinar o classificador. As técnicas de aprendizado ativo propostas resolvem este problema começando pela seleção de um conjunto pequeno de amostras selecionadas aleatoriamente. Tais amostras são anotadas manualmente e utilizadas para treinar a primeira instância do classificador. Em cada iteração do ciclo de aprendizagem, o classificador atribui rótulos e seleciona as amostras mais informativas para a correção/confirmação pelo usuário, aumentando o tamanho do conjunto de treinamento. A instância do classificador é melhorada no final de cada iteração pelo seu treinamento e utilizada na iteração seguinte até que o usuário esteja satisfeito com o classificador. Observamos que a maior parte dos métodos reclassificam o conjunto inteiro de dados em cada iteração do ciclo de aprendizagem, tornando este processo inviável para interação com o usuário. Portanto, enderaçamos dois problemas importantes em classificação baseada em regiões de imagens de sensoriamento remoto: (a) a descrição efetiva de superpixels e (b) a redução do tempo requerido para seleção de amostras em aprendizado ativo. Primeiro, propusemos um descritor contextual de superpixels baseado na técnica de sacola de palavras, que melhora o resultado de descritores de cor e textura amplamente utilizados. Posteriormente, propusemos um método supervisionado de redução do conjunto de dados que é baseado em um método do estado da arte em aprendizado ativo chamado Multi-Class Level Uncertainty (MCLU). Nosso método mostrou-se tão eficaz quanto o MCLU e ao mesmo tempo consideravelmente mais eficiente. Adicionalmente, melhoramos seu desempenho por meio da aplicação de um processo de relaxação no mapa de classificação, utilizando Campos Aleatórios de Markov Abstract: In recent years, machine learning techniques have been proposed to create classification maps from remote sensing images. These techniques can be divided into pixel- and region-based image classification methods. This work concentrates on the second approach, since we are interested in images with millions of pixels and the segmentation of the image into regions (superpixels) can considerably reduce the number of samples for classification. However, even using superpixels the number of samples is still large for manual annotation of samples to train the classifier. Active learning techniques have been proposed to address the problem by starting from a small set of randomly selected samples, which are manually labeled and used to train a first instance of the classifier. At each learning iteration, the classifier assigns labels and selects the most informative samples for user correction/confirmation, increasing the size of the training set. An improved instance of the classifier is created by training, after each iteration, and used in the next iteration until the user is satisfied with the classifier. We observed that most methods reclassify the entire pool of unlabeled samples at every learning iteration, making the process unfeasible for user interaction. Therefore, we address two important problems in region-based classification of remote sensing images: (a) the effective superpixel description and (b) the reduction of the time required for sample selection in active learning. First, we propose a contextual superpixel descriptor, based on bag of visual words, that outperforms widely used color and texture descriptors. Second, we propose a supervised method for dataset reduction that is based on a state-of-art active learning technique, called Multi-Class Level Uncertainty (MCLU). Our method has shown to be as effective as MCLU, while being considerably more efficient. Additionally, we further improve its performance by applying a relaxation process on the classification map by using Markov Random Fields Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2015
14. Imagens de grande alcance dinâmico aplicadas ao mapeamento da distribuição de luminâncias da abóbada celeste
- Author
-
Souza, Dennis Flores de, 1984, Scarazzato, Paulo Sérgio, 1954, Pedrini, Hélio, 1963, Moreira, Daniel de Carvalho, Santanchè, André, Cabús, Ricardo Carvalho, Pereira, Fernando Oscar Ruttkay, Universidade Estadual de Campinas. Faculdade de Engenharia Civil, Arquitetura e Urbanismo, Programa de Pós-Graduação em Arquitetura, Tecnologia e Cidade, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Iluminação natural ,Céu - Fotografia ,Image processing ,Análise de imagem ,High dynamic range imaging ,Processamento de imagens ,Daylighting ,Sky - Photographs ,Image analysis ,Imagens de grande alcance dinâmico - Abstract
Orientadores: Paulo Sergio Scarazzato, Hélio Pedrini Tese (doutorado) - Universidade Estadual de Campinas, Faculdade de Engenharia Civil, Arquitetura e Urbanismo Resumo: O uso de imagens de grande alcance dinâmico (HDR) nos estudos de iluminação vem se tornando um expediente frequente pela capacidade de armazenamento de dados referentes à distribuição de luminâncias em uma cena. Diversos estudos comprovaram, por exemplo, as possibilidades de registro da luz natural por imagens digitais, uma vez que as características das imagens HDR puderam melhorar os resultados. Dentre as diferentes aplicações, o registro da abóbada celeste é um dos que mais pode se beneficiar dessa ferramenta, pois tal procedimento é mais simples do que aqueles realizados a partir de medições feitas por luminancímetros ou escâneres de céu. Além disso, atualmente a identificação dos tipos de céu ainda é feita em sua maioria utilizando métodos subjetivos. Isto se deve ao fato de não existir uma metodologia para comparar imagens HDR com modelos matemáticos, apenas métodos unidimensionais que focalizam um ou outro aspecto. Esta pesquisa teve por objetivo desenvolver um método multidimensional de identificação, classificação e extração de dados de iluminação natural a partir de imagens HDR da abóbada celeste. As imagens das câmeras foram calibradas segundo métodos disponíveis para estabelecer a confiabilidade da análise e interpretação dos dados, e foram obtidas em localidade com o mínimo de obstrução à visão da abóbada celeste. O método multidimensional de análise foi desenvolvido juntamente a uma rotina em MATLAB, que serviu ao propósito de verificar sua viabilidade e a precisão. Os dados extraídos foram testados na plataforma Flash, usando a linguagem ActionScript 3, para brevemente demonstrar as possibilidades de uso. Este método utiliza um sistema de classificação baseado na relevância das características identificadas na imagem, como a cobertura de nuvens e a distribuição de luminâncias, para escolher o tipo de céu da norma ISO 15469:2004 (e) / CIE S 011/E:2003 mais apropriado. Os resultados apontam para a viabilidade desse método em escolher o tipo de céu mais relevante de acordo com os dados extraídos da imagem HDR. A proposição deste método multidimensional de análise pode contribuir para a criação de um sistema de classificação e de um banco de dados digital úteis para futuros programas de simulação, providenciando dados de entrada obtidos a partir de medições de uma realidade física, facilmente registrada com precisão e confiabilidade a partir de imagens fotográficas Abstract: Lately, the high dynamic range images (HDR) have experienced a significant growth in their usage in lighting studies, due to their capacity to store data of luminance distribution in a scene. Various studies have attested, for instance, the possibilities of using digital images in the register of daylighting, since the features of HDR images could enhance the results. Among different applications, the record of the light on the sky vault is one that can benefit most from HDR techniques, because this procedure is simpler than those performed by luminance meters or sky scanners measurements. Besides, the identification and classification of sky types are still done mostly by subjective methods. This can be explained by the unavailability of a methodology able to compare HDR images with mathematical models, although there are unidimensional methods that focus on one or another aspect of digital images. This research aimed at the development of a multidimensional method of identification, classification and extraction of daylight data from HDR images of the sky vault. The images registered by the camera were calibrated using available methods to establish the reliability of the analysis and interpretation of data. They were then obtained on a site with minimal obstruction to the vision of the sky vault. The multidimensional analysis method was developed in conjunction with a routine in MATLAB, which served the purpose of verifying its feasibility and accuracy. The extracted data were tested in Flash platform using ActionScript 3 language to briefly demonstrate the usage possibilities. This method relies on a classification system based on the relevance of the features identified in the image, such as cloud covering and luminance distribution, to choose the most appropriate sky type according to ISO 15469:2004 (e) / CIE S 011/E:2003 Standard. The results demonstrate the feasibility of this method in choosing the most relevant sky type according to the data extracted from the HDR image. The proposition of this multidimensional analysis method may contribute to the creation of a classification system and a digital database useful for future simulation software, providing input data from measurements of a physical reality, easily recorded with accuracy and confidence by photographic images Doutorado Arquitetura, Tecnologia e Cidade Doutor em Arquitetura, Tecnologia e Cidade
- Published
- 2014
15. Detection of solar filaments using parallel processing in hybrid architectures
- Author
-
Andrijauskas, Fábio, 1986, Gradvohl, André Leon Sampaio, 1973, Coluci, Vitor Rafael, 1976, Carvalho, Marco Antonio Garcia de, Stephany, Stephan, Universidade Estadual de Campinas. Faculdade de Tecnologia, Programa de Pós-Graduação em Tecnologia, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Image processing ,Análise de imagem ,Solar filaments ,Processamento de imagens ,High performance computing ,Computação de alto desempenho ,Filamentos solares ,Image analysis - Abstract
Orientadores: André Leon Sampaio Gradvohl, Vitor Rafael Coluci Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Tecnologia Resumo: A quantidade de imagens astronômicas geradas cresce diariamente, além da quantidade já obtida e armazenada. Uma grande fonte de dados são imagens solares, cujo estudo pode detectar eventos que têm a capacidade de afetar as telecomunicações, transmissão de energia elétrica e outros sistemas na Terra. Para que tais eventos sejam detectados, torna-se necessário analisar essas imagens de forma eficiente, levando em conta os aspectos de armazenamento, processamento e visualização. Agregar algoritmos de processamento de imagem e técnicas de computação de alto desempenho facilita o tratamento da informação de forma correta e em tempo reduzido. As técnicas de computação para alto desempenho utilizadas neste trabalho foram desenvolvidas para sistemas híbridos, isto é, aqueles que utilizam uma combinação de sistemas de memórias compartilhada e distribuída. Foram produzidas versões paralelas para sistemas híbridos de técnicas já estabelecidas. Além disso, novas técnicas foram propostas e testadas para esse sistema tais como o Filamento Diffusion Detection. Para avaliar a melhora no desempenho, foram feitas comparações entre as versões seriais e paralelas. Esse texto também apresenta um sistema com capacidade para armazenar, processar e visualizar as imagens solares. Em uma das técnicas de detecção de filamentos, o processo foi acelerado 120 vezes e um processo auxiliar para a detecção de áreas mais brilhantes foi 155 vezes mais rápido do que a versão serial Abstract: The number of astronomical images produced grows daily, in addition to the amount already stored. Great sources of data are solar images, whose study can detect events which have the capacity to affect the telecommunications, electricity transmission and other systems on Earth. For such events being detected, it becomes necessary to treat these images in a coherent way, considering aspects of storage, processing and image visualization. Combining image processing algorithms and high performance computing techniques facilitates the handling of information accurately and in a reduced time. The techniques for high performance computing used in this work were developed for hybrid systems, which employ a combination of shared and distributed memory systems. Parallel version of some established techniques were produced for hybrid systems. Moreover, new techniques have been proposed and tested for this system. To evaluate the improvement in performance, comparisons were made between serial and parallel versions. In addition to the analysis, this text also presents a system with capacity to store, process and visualize solar images. In one of the techniques for detecting filaments, the process was accelerated 120 times. Also an auxiliary process for the detection of brighter areas was 155 times faster than the serial version Mestrado Tecnologia e Inovação Mestre em Tecnologia
- Published
- 2013
16. Clustering of pixels by image foresting transform and its application in background segmentation of natural images
- Author
-
Maíra Saboia da Silva, Falcão, Alexandre Xavier, 1966, Guimarães, Silvio Jamil Ferzoli, Pedrini, Hélio, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Reconhecimento de padrões ,Image segmentation ,Image processing ,Análise de imagem ,Pattern recognition ,Segmentação de imagens ,Processamento de imagens ,Image analysis - Abstract
Orientador: Alexandre Xavier Falcão Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Esta dissertação apresenta uma metodologia automática para separar objetos de interesse em imagens naturais. Objetos de interesse são definidos como os maiores objetos que se destacam com relação aos pixels em torno deles dentro de uma imagem. Estes objetos não precisam necessariamente estar centrados, mas devem possuir o mínimo possível de pixels na região assumida como fundo da imagem (e.g., borda de imagem com uma dada espessura). A metodologia é baseada em segmentação de fundo e pode ser dividida em duas etapas. Primeiramente, um modelo nebuloso é criado para o fundo da imagem utilizando um método de agrupamento baseado em função densidade de probabilidade das cores de fundo. A partir do modelo é criado um mapa de pertinência, onde os pixels de objeto são mais claros do que os pixels de fundo. Foram investigadas técnicas de agrupamento baseadas em deslocamento médio, transformada imagem floresta, mistura de Gaussianas e maximização da esperança. Três métodos para criação do mapa de pertinência foram propostos e comparados; um inteiramente baseado na transformada imagem floresta, o outro em mistura de Gaussianas e o terceiro em maximização da esperança. Nos dois últimos casos, o agrupamento baseado na transformada imagem floresta foi utilizado como estimativa inicial dos grupos. Em seguida, o mapa de pertinência é utilizado para possibilitar a seleção de pixels sementes de objeto e fundo. Estes pixels geram um agrupamento binário da imagem colorida que separa o fundo do(s) objeto(s). Os experimentos foram realizados com uma base heterogênea composta por 50 imagens naturais. Os melhores resultados foram os obtidos pela metodologia inteiramente baseada na Transformada Imagem Floresta. Para justificar o uso de um agrupamento binário das cores para segmentação, os resultados foram comparados com uma limiarização ótima, aplicada ao mapa de pertinência. Esses testes foram realizados com o algoritmo de Otsu, mas o agrupamento binário apresentou melhores resultados. Também foi proposto um método híbrido de binarização do mapa de pertinência, envolvendo a limiarização de Otsu e a transformada imagem floresta. Neste caso, a limiarização de Otsu reduz o número de parâmetros em relação à primeira Abstract: This work presents a new methodology for automatic extraction of desired objects in natural images. Objects of interest are defined as the largest components that differ from their surrounding pixels in a given image. These objects do not need to be centered, but they should contain a minimum number of pixels in the region assumed as background (e.g., an image border of certain thickness). This methodology is based on background segmentation and it can be summarized in two steps. First, a fuzzy model is created by a clustering method based on probability density function of the background colors. This model is a membership map, wherein object pixels are brighter than background pixels. For clustering, the following techniques were investigated: mean-shift, image foresting transform, Gaussian mixture model and expectation maximization. We then propose and compare three approaches to create a membership map; a first method entirely based on the image foresting transform, a second approach based on Gaussian mixture model and a third tecnique using expectation maximization. The clustering based on image foresting transform was adopted as the initial estimate for the clusters in the case of the two last methods. In a second step, the membership map is used to enable the selection of object and background seed pixels. These pixels create a binary clustering of the color pixels that separates background and object(s). The experiments involved a heterogeneous dataset with 50 natural images. The approach entirely based on the image foresting transform provided the best result. In order to justify the use of a binary clustering of color pixels instead of optimum thresholding on the membership map, we demonstrated that the binary clustering can provide a better result than Otsu's approach. It was also proposed a hybrid approach to binarize the membership map, which combines Otsu's thresholding and image foresting transform. In this case, Otsu's thresholding reduces the number of parameters in regard to the first approach Mestrado Ciência da Computação Mestre em Ciência da Computação
- Published
- 2011
17. Synergistic delineation and recognition of objects in images with applications in medicine
- Author
-
Paulo Andre Vechiatto de Miranda, Falcão, Alexandre Xavier, 1966, Jackowski, Marcel Parolin, Cesar Junior, Roberto Marcondes, Pedrini, Hélio, Goldenstein, Siome Klein, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Estruturas de dados (Computação) ,Data structures (Computer science) ,Espectroscopia de ressonância magnética ,Algoritmos ,Image processing ,Análise de imagem ,Magnetic resonance ,Processamento de imagens ,Algorithms ,Image analysis - Abstract
Orientador: Alexandre Xavier Falcão Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Segmentar uma imagem consiste em particioná-la em regiões relevantes para uma dada aplicação (e.g., objetos e fundo). A segmentação de imagem é um dos problemas mais fundamentais e desafiadores em processamento de imagem e vis¿ao computacional. O problema da segmentação representa um desafio técnico importante na computação devido 'a dificuldade da máquina em extrair informações globais sobre os objetos nas imagens (e.g., forma e textura) contando apenas com informações locais (e.g., brilho e cor) dos pixels. Segmentação de imagens envolve o reconhecimento de objetos e o delineamento. O reconhecimento é representado por tarefas cognitivas que determinam a localização aproximada de um objeto desejado em uma determinada imagem (detecção de objeto),e identificam um objeto desejado de entre uma lista de objetos candidatos (classificação de objeto). Já o delineamento consiste em definir de forma precisa a extensão espacial do objeto de interesse. No entanto, métodos de segmentação efetivos devem explorar essas tarefas de forma sinérgica. Esse tema constitui o foco central deste trabalho que apresenta soluções interativas e automáticas para segmentação. A automação é obtida mediante o uso de modelos discretos que são criados por aprendizado supervisionado. Esses modelos empregam reconhecimento e delineamento de uma maneira fortemente acoplada pelo conceito de Clouds. Estes modelos são demonstrados no âmbito da neurologia para a segmentação automática do cérebro (sem o tronco cerebral), do cerebelo, e de cada hemisfério cerebral a partir de imagens de ressonância magnética. Estas estruturas estão ligadas em várias partes, o que impõe sérios desafios para a segmentação. Os resultados indicam que estes modelos são ferramentas rápidas e precisas para eliminar as intervenções do usuário ou, pelo menos, reduzi-las para simples correções, no contexto da segmentação de imagens do cérebro. Abstract: Segmenting an image consists of partitioning it into regions relevant for a given application (e.g., objects and background). The image segmentation is one of the most fundamental and challenging problems in image processing and computer vision. The segmentation problem represents a significant technical challenge in computer science because of the difficulty of the machine in extracting global informations about the objects in the images (e.g., shape and texture) counting only with local information (e.g., brightness and color) of the pixels. Image segmentation involves object recognition and delineation. Recognition is represented by cognitive tasks that determine the approximate location of a desired object in a given image (object detection), and identify a desired object among candidate ones (object classification), while delineation consists in defining the exact spatial extent of the object. Effective segmentation methods should exploit these tasks in a synergistic way. This topic forms the central focus of this work that presents solutions for interactive and automatic segmentation. The automation is achieved through the use of discrete models that are created by supervised learning. These models employ recognition and delineation in a tightly coupled manner by the concept of Clouds. We demonstrate their usefulness in the automatic MR-image segmentation of the brain (without the brain stem), the cerebellum, and each brain hemisphere. These structures are connected in several parts, imposing serious challenges for segmentation. The results indicate that these models are fast and accurate tools to eliminate user's intervention or, at least, reduce it to simple corrections, in the context of brain image segmentation. Doutorado Ciência da Computação Doutor em Ciência da Computação
- Published
- 2009
18. Image transformations based on mathematical morphology operations
- Author
-
Leyza Elmeri Baldo Dorini, Leite, Neucimar Jerônimo, 1961-2016, Marana, Aparecido Nilceu, Hirata Junior, Roberto, Falcão, Alexandre Xavier, Pedrini, Hélio, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Morfologia matemática ,Image processing ,Análise de imagem ,Mathematical morphology ,Processamento de imagens ,Image analysis - Abstract
Orientador: Neucimar Jeronimo Leite Tese (doutorado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Este trabalho apresenta um novo conjunto de transformações de imagens que podem ser utilizadas como uma etapa adicional em diversas aplicações, tal como segmentação, de modo a evitar o uso de operações com custo computacional mais alto. Tais transformações utilizam como base operações de morfologia matemática e possuem a forma de um operador do tipo toggle. Inicialmente, foi definida uma nova operação com propriedades espaço-escala, através da qual pode-se obter uma simplificação bem controlada da imagem em que máximos e mínimos interagem ao mesmo tempo, uma vantagem em relação a outras abordagens que consideram transformações de extremos separadamente. A análise de diferentes níveis de representação traz inúmeras vantagens, possibilitando lidar adequadamente com a natureza multi-escala das imagens e permitindo a extração das características específicas que se tornam explícitas a cada escala. A partir de variações na formulação e na forma de aplicação do operador proposto, foi possível definir uma nova operação de limiarização adaptativa multi-escala e um método de filtragem de ruído. Foram realizados diversos experimentos que comprovaram as vantagens da utiliza¸c¿ao das abordagens propostas. Abstract: In this work, we present a new set of image transformations that can be used as an additional step in several applications, such as segmentation, to avoid the need of operations with a higher computational cost. These transformations are based on mathematical morphology operations and have the format of a toggle operator. The first proposed operation has scale-space properties, which conduce to a well-controlled simplification of the image where minima and maximal interact at the same time, an advantage when compared to other approaches. Through the analysis of different representation levels, it is possible to deal with the multiscale nature of images, as well as to extract the specific features that become explicit at each scale. By changing the primitives the form of application of the proposed operator, we also define an adaptative multiscale thresholding operation and a noise filtering method. We show the results of several computational experiments, which demonstrate the advantages of the proposed approaches. Doutorado Processamento de Imagens Doutor em Ciência da Computação
- Published
- 2009
19. Shape descriptiors based on Tensor Scale
- Author
-
Fernanda Alcantara Andalo, Torres, Ricardo da Silva, 1977, Falcão, Alexandre Xavier, 1966, Jr, Roberto Marcondes Cesar, Leite, Neucimar Jerônimo, Universidade Estadual de Campinas. Instituto de Computação, Programa de Pós-Graduação em Ciência da Computação, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Information retrieval systems ,Image processing ,Análise de imagem ,Processamento de imagens ,Sistemas de recuperação de informação ,Image analysis - Abstract
Orientadores: Ricardo da Silva Torres, Alexandre Xavier Falcão Dissertação (mestrado) - Universidade Estadual de Campinas, Instituto de Computação Resumo: Recentemente o número de coleções de imagens disponíveis vem crescendo. Conseqüentemente, surge a demanda por sistemas de informação para armazenamento, indexação e busca destas imagens. Uma das principais soluções adotadas é a utilização de sistemas de recuperação de imagem por conteúdo que possuem a habilidade de, dada uma imagem de consulta, retornar as imagens mais similares em uma base de dados. Para viabilizar este tipo de consulta, é importante que o processo de caracterização do conteúdo seja automatizado, destacando-se, neste contexto, o uso de descritores de imagem baseados na cor, textura ou forma dos objetos contidos nas imagens. Neste trabalho, são propostos descritores de forma baseados em Tensor Scale. Tensor Scale é um parâmetro morfométrico que unifica a representação de orientação, espessura e anisotropia de estruturas locais na imagem, que pode ser utilizado em várias aplicações de visão computacional e processamento de imagem. Além dos descritores de forma baseados neste parâmetro morfométrico, este trabalho apresenta um estudo de algoritmos para cálculo do Tensor Scale. As principais contribuições deste trabalho são: (i) estudo de descritores de imagens baseados em cor e textura e, mais extensivamente, descritores baseados em forma; (ii) estudo de algoritmos para cálculo do Tensor Scale; (iii) proposta e implementação de detector de saliências de contorno baseado em Tensor Scale; (iv) proposta e implementação de novos descritores de forma baseados em Tensor Scale; e (v) validação dos descritores propostos quanto à sua utilização em sistemas de recuperação de imagens por conteúdo, por meio de experimentos comparativos com outros descritores de forma relevantes, recentemente propostos Abstract: In the past few years, the number of image collections available has increased. In this scenery, there is a demand for information systems for storing, indexing, and retrieving these images. One of the main adopted solutions is to use content-based image retrieval systems (CBIR), that have the ability to, for a given query image, return the most similar images stored in the database. To answer this kind of query, it is important to have an automated process for content characterization and, for this purpose, the CBIR systems use image descriptors based on color, texture and shape of the objects within the images. In this work, we propose shape descriptors based on Tensor Scale. Tensor Scale is a morphometric parameter that unifies the representation of local structure thickness, orientation, and anisotropy, which can be used in several computer vision and image processing tasks. Besides the shape descriptors based on this morphometric parameter, we present a study of algorithms for Tensor Scale computation. The main contributions of this work are: (i) study of image descriptors based on color, texture and shape descriptors; (ii) study of algorithms for Tensor Scale computation; (iii) proposal and implementation of a contour salience detector based on Tensor Scale; (iv) proposal and implementation of new shape descriptors based on Tensor Scale; and (v) validation of the proposed descriptors with regard to their use in content-based image retrieval systems, comparing them, experimentally, to other relevant shape descriptors, recently proposed. Mestrado Processamento de Imagens Mestre em Ciência da Computação
- Published
- 2007
20. Methodology for visual and automatic inspection of cargo in railway cars
- Author
-
Gabriel dos Santos Tambur, Tozzi, Clésio Luis, 1948, Castanho, Jose Eduardo Cogo, De Martino, José Mário, Lotufo, Roberto de Alencar, Universidade Estadual de Campinas. Faculdade de Engenharia Elétrica e de Computação, Programa de Pós-Graduação em Engenharia Elétrica, and UNIVERSIDADE ESTADUAL DE CAMPINAS
- Subjects
Visão por computador ,Image segmentation ,Hough transform ,Análise de imagem ,Processamento de imagens ,Co-occurence matrix ,Image analysis - Abstract
Orientador: Clesio Luis Tozzi Dissertação (mestrado) - Universidade Estadual de Campinas, Faculdade de Engenharia Eletrica e de Computação Resumo: Neste trabalho foi desenvolvida uma metodologia para inspeção visual e automática de carga de grãos em vagões ferroviários que utiliza técnicas de processamento de imagens. A metodologia inclui três etapas principais: a localização do vagão na imagem utilizando a transformada de Hough, a descrição da carga usando cor e textura, e a identificação de regiões com possíveis objetos sobrepostos. A avaliação dos resultados foi feita a partir de imagens reais e simuladas. A abordagem proposta mostrou-se adequada para os objetivos especificados Abstract: This work proposes the development of a methodology to scan visually and automatically the grain cargo in railway cars using image processing techniques. The methodology is composed by three main steps: the localization of the railway car in the image using the Hough Transform, the description of the cargo using its color and texture, and the identification of regions with possibly overlaid objects. The assessment of the results was done through real and simulated images. The proposed methodology proved to be adequate for the specified objectives Mestrado Engenharia de Computação Mestre em Engenharia Elétrica
- Published
- 2007
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.