46 results on '"Valdir Grassi Junior"'
Search Results
2. Improving multi-goal and target-driven reinforcement learning with supervised auxiliary task.
- Author
-
Luiz Ricardo Takeshi Horita, Angelica Tiemi Mizuno Nakamura, Denis F. Wolf, and Valdir Grassi Junior
- Published
- 2021
- Full Text
- View/download PDF
3. Deep learning for autonomous vehicles
- Author
-
Gustavo A. Prudencio de Morais, Lucas Barbosa Marcos, José Nuno A. D. Bueno, Marco Henrique Terra, and Valdir Grassi Junior
- Published
- 2023
- Full Text
- View/download PDF
4. Effective Deep Reinforcement Learning Setups for Multiple Goals on Visual Navigation
- Author
-
Valdir Grassi Junior, Luiz Ricardo Takeshi Horita, and Denis F. Wolf
- Subjects
Trust region ,Class (computer programming) ,Artificial neural network ,Computer science ,business.industry ,media_common.quotation_subject ,010501 environmental sciences ,Machine learning ,computer.software_genre ,01 natural sciences ,Visualization ,03 medical and health sciences ,0302 clinical medicine ,Function approximation ,Reinforcement learning ,Probability distribution ,Artificial intelligence ,Function (engineering) ,business ,Categorical variable ,computer ,030217 neurology & neurosurgery ,0105 earth and related environmental sciences ,media_common - Abstract
Deep Reinforcement Learning (DRL) represents an interesting class of algorithms, since its objective is to learn a behavioral policy through interaction with the environment, leveraging the function approximation properties of neural net-works. Nonetheless, for episodic problems, it is usually modeled to deal with a unique goal. In this sense, some works showed that it is possible to learn multiple goals when using a Universal Value Function Approximator (UVFA), i.e. a method to learn a universal policy by taking information about the current state of the agent and the goal. Their results are promising but show that there is still space for new contributions regarding the integration of the goal information into the model. For this reason, we propose using the Hadamard product or the Gated-Attention module in the UVFA architecture for visual-based problems. Also, we propose a hybrid exploration strategy based on the ϵ-greedy and the categorical probability distribution, namely ϵ-categorical. By systematically comparing different architectures of UVFA for different exploration strategies, and applying or not the Trust Region Policy Optimization (TRPO), we demonstrate through experiments that, for visual topologic navigation, combining visual information of the current and goal states through Hadamard product or Gated-Attention module allows the network learning near-optimal navigation policies. Also, we empirically show that the ϵ-categorical policy helps to avoid local minimums during the training, which facilitates the convergence to better results.
- Published
- 2020
- Full Text
- View/download PDF
5. Controle preditivo baseado em modelo de veículo autônomo para direção ecológica
- Author
-
Kenny Anderson Queiroz Caldas, Valdir Grassi Junior, Valdir Grassi Junior, Guilherme Vianna Raffo, and Adriano Almeida Gonçalves Siqueira
- Subjects
Model predictive control ,Computer science ,Control theory ,Control (management) - Abstract
The purpose of this masters thesis is the implementation of a model-based predictive controller for eco-driving in autonomous ground vehicles. Eco-driving consists of a group of strategies adopted by a driver aiming to reduce fuel consumption and improvement of safety and comfort levels during a trip. Through the use of digital maps and a GPS module, the predictive controller can calculate a sequence of control input to smooth the vehicle\'s acceleration and braking along the route in critical parts, such as uphills, downhills and curves, following the speed limits of each road. This is accomplished by predictions based on the mathematical model of the vehicle and estimation of gasoline expenditure. The chosen optimizer algorithm is called C/GMRES, where its main advantage from the traditional methods is that the solution of the optimal problem does not required iterative searches, which greatly reduces the computational burden, allowing a real time implementation. The proposed control strategy was implemented in two routes, in a city and highway scenarios, in a simulated environment. The obtained results were considered satisfactory and showed the predictive controller potential to deal with the fuel consumption problem in autonomous vehicles. A proposta desta dissertação de mestrado é a implementação de um controlador preditivo baseado em modelo para direção ecológica em veículos autônomos terrestres. Direção ecológia consiste em um conjunto de estratégias que um motorista pode adotar visando a redução do consumo de combustível e melhora dos níveis de segurança e conforto durante uma viagem. Através da utilização de mapas digitais e de um módulo de GPS, o controlador preditivo pode calcular uma sequência de entradas de controle visando suavizar a aceleração e frenagem do veículo ao longo do percurso em trechos críticos como ladeiras, declives e em curvas, respeitando o limite de velocidade de cada estrada. Isto é realizado por meio de predições baseadas no modelo matemático do veículo e da estimação do gasto de gasolina. O algoritmo de otimização utilizado é chamado de C/GMRES, onde a sua principal vantagem em relação aos métodos tradicionais consiste na solução do problema de otimização não necessitar de buscas iterativas, o que reduz consideravelmente o custo computacional de processamento, permitindo a sua implementação em tempo real. A estratégia de controle proposta foi implementada em dois percursos, em trecho urbano e rodoviário, em um ambiente simulado no MATLAB. Os resultados obtidos foram considerados satisfatórios e demonstraram o potencial que o controlador preditivo possui para o problema da redução do consumo de combustível em veículos autônomos.
- Published
- 2018
6. Robust path-following control for articulated heavy-duty vehicles
- Author
-
Valdir Grassi Junior, Maíra Martins da Silva, Lucas Barbosa Marcos, Filipe Marques Barbosa, and Marco H. Terra
- Subjects
0209 industrial biotechnology ,Lateral stability ,Computer science ,Applied Mathematics ,Path following ,020208 electrical & electronic engineering ,02 engineering and technology ,Systems and Control (eess.SY) ,37N35(Primary), 62G35, 70Q05, 93C85, 70E60 (Secondary) ,Electrical Engineering and Systems Science - Systems and Control ,Computer Science Applications ,020901 industrial engineering & automation ,Control and Systems Engineering ,Robustness (computer science) ,Control theory ,Performance comparison ,Heavy duty ,Mass variation ,0202 electrical engineering, electronic engineering, information engineering ,FOS: Electrical engineering, electronic engineering, information engineering ,ENGENHARIA ELÉTRICA ,Electrical and Electronic Engineering ,Robust control ,Parametric statistics - Abstract
Path following and lateral stability are crucial issues for autonomous vehicles. Moreover, these problems increase in complexity when handling articulated heavy-duty vehicles due to their poor manoeuvrability, large sizes and mass variation. In addition, uncertainties on mass may have the potential to significantly decrease the performance of the system, even to the point of destabilising it. These parametric variations must be taken into account during the design of the controller. However, robust control techniques usually require offline adjustment of auxiliary tuning parameters, which is not practical, leading to sub-optimal operation. Hence, this paper presents an approach to path-following and lateral control for autonomous articulated heavy-duty vehicles subject to parametric uncertainties by using a robust recursive regulator. The main advantage of the proposed controller is that it does not depend on the offline adjustment of tuning parameters. Parametric uncertainties were assumed to be on the payload, and an $\mathcal{H}_{\infty}$ controller was used for performance comparison. The performance of both controllers is evaluated in a double lane-change manoeuvre. Simulation results showed that the proposed method had better performance in terms of robustness, lateral stability, driving smoothness and safety, which demonstrates that it is a very promising control technique for practical applications., 19 pages, 13 figures, preprint submitted to the Control Practice Engineering
- Published
- 2018
7. Sistema de visão omnidirecional aplicado no controle de robôs móveis
- Author
-
Valdir Grassi Junior, Jun Okamoto Junior, Fabio Gagliardi Cozman, and Anna Helena Reali Costa
- Subjects
Computer science - Abstract
Sistemas de visão omnidirecional produzem imagens de 360º do ambiente podendo ser utilizados em navegação, tele-operação e controle servo visual de robôs. Este tipo de sistema dispensa o movimento da câmera para determinada direção de atenção mas requer processamento não convencional da imagem, uma vez que a imagem adquirida se encontra mapeada em coordenadas polares não lineares. Uma maneira efetiva de se obter uma imagem em um sistema omnidirecional é com o uso combinado de lentes e espelhos. Várias formas de espelhos convexos podem ser utilizadas montando-se uma câmera com o seu eixo óptico alinhado com o centro do espelho. Dentre as formas usadas, tem-se os cônicos, parabólicos, hiperbólicos e esféricos. Neste trabalho foi implementado um sistema de visão omnidirecional utilizando um espelho hiperbólico. Este sistema de visão desenvolvido é embarcado em um robô móvel e aplicado em uma tarefa de controle. A tarefa de controle de interesse neste trabalho é a de fazer com que o robô mantenha uma distância constante de um determinado alvo móvel. Esta tarefa é realizada com a realimentação em tempo real de informações visuais do alvo obtidas pelo sistema de visão para controle do robô utilizando uma abordagem de controle servo visual. Omnidirectional vision systems can get images with a 360-degree of field of view. This type of system is very well suited for tasks such as robotic navigation, tele-operation and visual servoing. Such systems do not require the movement of the camera to the direction of attention of the robot. On the other hand, it requires a non-conventional image processing as the image captured by this vision system is mapped on a non-linear polar coordinate system. One effective way to obtain an image in an omnidirectional system is through the use of lenses and mirrors. Several different shapes of convex mirrors can be used, mounting the center of the mirror aligned with the camera optical axis. The most commonly used mirror shapes are conic, parabolic, hyperbolic and spherical. In this work a hyperbolical mirror was used to build an omnidirectional vision system. This system was mounted on a mobile robot and used in a control task. The task of interest here is the tracking in real time of a moving target keeping the distance between the robot and the target constant. This task is accomplished with data acquisition from the omnidirectional vision system, that is used as feedback to control the mobile robot in a visual servo approach.
- Published
- 2015
- Full Text
- View/download PDF
8. Robotics
- Author
-
Roseli A. F. Romero, Valdir Grassi Junior, Fernando Santos Osório, Denis F. Wolf, Kalinka Regina Lucas Jaquie Castelo Branco, and Marcelo Becker
- Subjects
Engineering ,Engineering management ,business.industry ,Intelligent decision support system ,Joint (building) ,Robotics ,Artificial intelligence ,business - Abstract
Revised selected papers: Joint Conference on Robotics and Intelligent Systems - JCRIS (2014 Sao Carlos); Latin American Robotics Symposium - LARS (11. 2014 Sao Carlos); Brazilian Conference on Robotics - SBR (2. 2014 Sao Carlos); Workshop on Applied Robotics and Automation - Robocontrol (6. 2014 Sao Carlos).
- Published
- 2015
- Full Text
- View/download PDF
9. Development of an omnidirectional vision system
- Author
-
Valdir Grassi Junior and Jun Okamoto Junior
- Subjects
Engineering ,Machine vision ,ComputingMethodologies_IMAGEPROCESSINGANDCOMPUTERVISION ,Aerospace Engineering ,Curved mirror ,Image processing ,Field of view ,Visual servoing ,mobile robot ,Industrial and Manufacturing Engineering ,Computer Science::Robotics ,Vision system ,Computer vision ,Smart camera ,business.industry ,Mechanical Engineering ,Applied Mathematics ,hyperbolic mirror ,General Engineering ,Mobile robot ,image processing ,Computer Science::Computer Vision and Pattern Recognition ,Automotive Engineering ,Teleoperation ,Artificial intelligence ,business - Abstract
Omnidirectional vision systems can provide images with a 360° of field of view. For this reason, they can be useful to robotic applications such as navigation, teleoperation and visual servoing. An effective way to construct this type of vision system is by combining lenses and mirrors together resulting on a system that does not require the movement of the camera to the direction of attention of the robot. A typical construction is by mounting a convex mirror in front of a camera aligning the center of the mirror with the optical axis of the camera. The most common convex mirror shapes used are conic, parabolic, hyperbolic and spherical. In this work we present two types of mirror that were constructed: a spherical mirror, used in the initial tests, and a hyperbolic, used for actual robot tasks. The hyperbolic mirror was manufactured using an ultra-precision CNC machine. Additionally, a software was developed to create panoramic and perspective images from the image acquired by the system. This work shows the development of an omnidirectional vision system, presenting the formulation used to determine a suitable mirror shape, the mechanical solutions used to build a fully operational system, and the results of the developed algorithm.
- Published
- 2006
10. Imageamento aéreo por aeronave remotamente pilotada e satélite na cultura do milho: saturação de índices vegetativos e alternativas
- Author
-
Leonardo Pinto de Magalhães, Fabricio Rossi, Luiz Fernando Sommaggio Coletta, Valdir Grassi Junior, and Adriano Rogerio Bruno Tech
- Abstract
Desde 1973, quando foi proposto pela primeira vez, o NDVI (Normalized Difference Vegetative Index), índice vegetativo por diferença normalizada, tem sido amplamente utilizado em aplicações na agricultura. Desde a modelagem da produtividade dos cultivos até a mensuração do IAF (índice de área foliar), diversos autores têm usado o NDVI como ferramenta para essas aplicações. Porém, desde a década de 1980 alguns pesquisadores têm apontado algumas limitações deste índice, em especial sua saturação acima de valores específicos do IAF. Mensurar o IAF, em especial na cultura do milho, é extremamente importante, pois este índice se relaciona com fatores como a produtividade, capacidade de interceptação da radiação solar e transpiração. Portanto, a saturação do NDVI pode levar a modelos ineficientes do IAF, diminuindo a qualidade de mensuração dos mesmos e levando a um manejo inadequado da cultura. Além disso, outros índices vegetativos também tiveram saturação reportada em determinados valores do IAF. Sendo assim, a presente tese teve por objetivo a avaliação da saturação de índices vegetativos na cultura do milho, obtidos a partir de imageamento aéreo por aeronave remotamente pilotada (ARP) e imagens de satélite (Sentinel-2), através de etapas como: revisão integrativa da literatura sobre o tema; avaliação de hipóteses sobre a saturação do NDVI e proposição de alternativas que diminuam este efeito. Avaliou-se também a saturação de índices no RGB, determinando a partir de qual valor do IAF esse efeito ocorre em 15 diferentes índices, bem como foi desenvolvido um modelo para mensuração da massa fresca e seca do milho com índices no RGB. Como resultados se observou que a saturação do NDVI ocorre antes do que em outros índices, com valores menores de 3 para o IAF. Verificou-se que essa saturação decorre do formato do índice e de sua normalização. A diferença de reflectância entre o infravermelho próximo e o vermelho também diminui a sensibilidade do índice a partir do momento em que há grande cobertura vegetal sobre o solo. Para índices no RGB se verificou uma saturação com valores do IAF entre 3 e 3,5, sendo que diferentes índices tiveram melhor desempenho em diferentes fases de desenvolvimento do milho. Since 1973, when it was first proposed, the NDVI (Normalized Difference Vegetative Index), has been widely used in agricultural applications. From crop yield modeling to LAI measurement (leaf area index), several authors have used NDVI as a tool for these applications. However, since the 1980s, some researchers have pointed out some limitations of this index, especially its saturation above specific LAI values. Measuring the LAI, especially in corn, is extremely important, as this index is related to factors such as productivity, ability to intercept solar radiation and transpiration. Therefore, the saturation of the NDVI can lead to inefficient models of the IAF, decreasing the quality of their measurement and leading to an inadequate management of the culture. In addition, other vegetative indices also presented saturation in certain values of the LAI. Therefore, the present thesis aimed to evaluate the saturation of vegetative indices in corn, obtained from aerial imagery by remotely piloted aircraft (RPA) and satellite images (Sentinel-2), through steps such as: review integrative literature on the topic; evaluation of hypotheses about NDVI saturation and proposition of alternatives that reduce this effect. The saturation of indices in RGB was also evaluated, determining from which value of LAI this effect occurs in 15 different indices, as well as a model was developed to measure fresh and dry mass of corn with indices in RGB. As a result, it was observed that the saturation of the NDVI occurs earlier than in other indices, with values lower than 3 for the LAI. It was found that this saturation results from the format of the index and its normalization. The difference in reflectance between the near-infrared and the red also decreases the sensitivity of the index from the moment when there is great vegetation cover on the ground. For indices in RGB, there was a saturation with LAI value between 3 and 3.5, and different indices had better performance at different stages of corn development.
- Published
- 2022
- Full Text
- View/download PDF
11. Aprendizagem profunda aplicada a estimação monocular de profundidade: uma abordagem baseada em atenção e complementação
- Author
-
Raul de Queiroz Mendes, Valdir Grassi Junior, Esther Luna Colombini, and Fernando Santos Osório
- Abstract
Medir a profundidade de imagens é um problema inverso fundamental dentro do campo da Visão Computacional, uma vez que as informações de profundidade são obtidas por meio de imagens 2D, as quais podem ser geradas a partir de infinitas possibilidades de cenas reais observadas. Ademais, tal problema é não bem-posto, pois os valores estimados de profundidade são fortemente dependentes das imagens de espaços do mundo real adquiridas. Outras importantes tarefas da área de Robótica recorrem a medidas de profundidade, como a Localização e Mapeamento Simultâneos (SLAM) e Structure from Motion (SfM). Beneficiando-se do progresso de Redes Neurais Convolucionais Profundas (DCNNs) para explorar características estruturais e informações espaciais de imagens, a Estimação de Profundidade a partir de Uma Única Imagem (SIDE) é frequentemente destacada em meios de inovação científica e tecnológica, já que este conceito proporciona vantagens relacionadas ao seu baixo custo de implementação, menores restrições de uso e robustez a condições ambientais. No contexto de veículos autônomos, as DCNNs otimizam a tarefa de SIDE através da predição de mapas com dados precisos de profundidade, os quais são indispensáveis durante o processo de navegação autônoma em locais distintos. No entanto, essas redes geralmente são treinadas em mapas de profundidade esparsos e ruidosos, gerados por varreduras de Light Detection and Ranging laser (LiDAR) ou structured-light e time-of-flight devices (Kinect), e são executadas com alto custo computacional, exigindo Unidades de Processamento Gráfico (GPUs) de alto desempenho. Sendo assim, este trabalho propõe uma nova arquitetura de DCNN supervisionada e funções de custo baseadas em atenção para solucionar problemas de SIDE. Inova-se também ao incorporar múltiplas técnicas de Visão Computacional, como a utilização de algoritmos de densificação e informações adicionais de semântica, de profundidade e de normais de superfície ao treinamento de tal DCNN. O método introduzido neste trabalho tem foco em aplicações de veículos autônomos em ambientes internos e externos. Measuring the depth of images is a fundamental inverse problem within the field of Computer Vision since the depth information is obtained through 2D images, which can be generated from infinite possibilities of observed real scenes. Furthermore, this problem is ill-posed, since the estimated depth values are strongly dependent on the acquired images of real-world spaces. Other important tasks in the area of Robotics use depth measurements, such as Simultaneous Localization and Mapping (SLAM) and Structure from Motion (SfM). Benefiting from the progress of Deep Convolutional Neural Networks (DCNNs) to explore structural features and spatial image information, Single Image Depth Estimation (SIDE) is often highlighted in means of scientific and technological innovation, as such a concept provides advantages related to its low-cost implementation, fewer restrictions on use and robustness to environmental conditions. In the context of autonomous vehicles, DCNNs optimize the task of SIDE by predicting maps with accurate depth data, which are indispensable during the autonomous navigation process in different locations. However, these networks are usually trained on sparse and noisy depth maps, generated by scans of Light Detection and Ranging laser (LiDAR) or structured-light and time-of-flight devices (Kinect), and are executed with high computational cost, requiring powerful Graphic Processing Units (GPUs). Therefore, this work proposes a new supervised DCNN architecture and attention-based loss functions to solve SIDE problems. It is also innovative by incorporating multiple Computer Vision techniques, such as the use of densification algorithms and additional information on semantics, depth and surface normals to the training of such DCNN. The method introduced in this work focuses on autonomous vehicles applications in indoor and outdoor environments.
- Published
- 2021
- Full Text
- View/download PDF
12. Desvio de Obstáculo para um Manipulador Robótico utilizando Visão e Aprendizado por Reforço Profundo Ponta-a-Ponta
- Author
-
Felipe Padula Sanches, Roseli Aparecida Francelin Romero, Valdir Grassi Junior, Josue Junior Guimarães Ramos, and Denis Fernando Wolf
- Subjects
End-to-end principle ,Computer science ,business.industry ,Obstacle avoidance ,Robot manipulator ,Reinforcement learning ,Robot vision ,Computer vision ,Artificial intelligence ,business ,Motion control - Abstract
Recent changes in industrial paradigms enforce that robots must be intelligent and capable of decision-making. Robotic manipulators need to satisfy many requirements for operating properly. Perhaps the most fundamental one is the capability of operating in its environment without collisions. In this work, we perform visual obstacle avoidance on goal-reaching tasks of a robotic manipulator using an end-to-end Deep Reinforcement Learning model. The motion control policy is responsible for reaching a target position while at the same time avoiding an obstacle positioned randomly in the scene. This policy uses vision and proprioceptive sensor data to operate. We train the reinforcement learning agent using Twin-Delayed DDPG (TD3) algorithm in a simulated environment, utilizing the Unity game engine and the ML-Agents toolkit. Experiments demonstrate that the agent can successfully learn a meaningful policy to avoid obstacles using images. Mudanças recentes nos paradigmas industriais esperam que os robôs sejam inteligentes e capazes de tomar decisões. Os manipuladores robóticos precisam satisfazer muitos requisitos para operar adequadamente. Talvez o mais fundamental seja a capacidade de operar em seu ambiente sem colisões. Neste trabalho, evitamos obstáculos visuais em tarefas de alcance de meta de um manipulador robótico usando um modelo de Aprendizado por Reforço Profundo de ponta-aponta. A política de controle de movimento é responsável por atingir uma posição alvo e, ao mesmo tempo, evitar um obstáculo posicionado aleatoriamente na cena. Esta política usa dados de sensores proprioceptivos e de visão para operar. O agente de aprendizagem por reforço foi treinado através do algoritmo Twin-Delayed DDPG (TD3) em um ambiente simulado, utilizando a game engine Unity e o framework ML-Agents. Experimentos demonstram que o agente pode aprender com sucesso uma política significativa para evitar obstáculos usando imagens.
- Published
- 2021
13. Aprendizagem profunda por reforço combinada com controlador recursivo robusto para controle lateral baseado em visão computacional
- Author
-
Gustavo Alves Prudencio de Morais, Valdir Grassi Junior, Danilo Alves de Lima, and Denis Fernando Wolf
- Abstract
Tecnologias na área de robótica móvel, como veículos autônomos, impactam diretamente na qualidade de vida e na mudança de comportamentos sociais, por isso, se mantêm como uma área promissora para a indústria. Mesmo com este cenário otimista, ainda existem muitos desafios relacionados à segurança que necessitam ser supridos para tornar essa tecnologia viável, como o desenvolvimento de técnicas de controle baseadas em visão para agentes autônomos. Algumas áreas de pesquisa estão propondo soluções a partir de métodos de aprendizagem de máquinas, como Aprendizagem Profunda por Reforço (APR), no entanto, algoritmos de APR ainda apresentam baixo desempenho em simuladores urbanos e realistas. Neste contexto, este trabalho propõe um modelo híbrido que combina APR com um Regulador Linear Quadrático (RLQ) padrão. O modelo definido utiliza algoritmos de aprendizagem de máquinas para extrair características de imagens e, na sequência, estas características são interpretadas como medidas de erro a serem minimizadas pelo controlador. Ademais, um segundo controlador híbrido é proposto, onde é aplicado robustez ao modelo anterior utilizando um Regulador Linear Quadrático Robusto (RLQR) e, devido à dinâmica desconhecida do sistema, o modelo realiza uma busca evolucionária para estimar as matrizes de incerteza do modelo. Desta forma, as entradas para cada sistema de controle são imagens de uma câmera RGB em tempo real, e suas saídas são ações contínuas de esterçamento do volante para manter o veículo com velocidade constante no centro da via. Os resultados experimentais obtidos mostram que o controle RLQ híbrido superou o controle realizado pelo algoritmo de APR implementado, que apresentou o maior erro de trajetória no cenário de treino e não foi capaz de generalizar suas ações no cenário de teste. Por fim, ao adicionar robustez ao controlador por meio do RLQR híbrido, obteve-se menos sensibilidade a distúrbios e, em todos os testes realizados, as colisões foram reduzidas a zero. Technologies in mobile robotics field, such as autonomous vehicles, have a direct impact on the quality of life and the change in social behaviors, therefore, they remain a promising area for the industry. Even with this optimistic scenario, there are still many securityrelated challenges that need to be addressed to make this technology feasible. One of these challenges is the development of vision-based control techniques for autonomous agents and, in this sense, some research areas are proposing solutions based on machine learning methods, such as Deep Reinforced Learning (DRL). However, DRL algorithms underperforms in urban and realistic simulators. In this context, this work proposes a hybrid model that merges DRL with a standard Linear Quadratic Regulator (RQL), applied for vision-based autonomous vehicles control. The proposed model uses machine learning algorithms to feature extraction and, subsequently, these values are interpreted as error measures to be minimized by the controller. In addition, a second hybrid controller is proposed, where it is applied robustness to the previous model using a Robust Quadratic Linear Regulator (RLQR) and, due to the unknown dynamics of the system, an evolutionary search was used to estimate the system uncertainty matrices. In this way, the inputs for each control system are real-time images from an RGB camera, and their outputs are continuous steering actions to keep the vehicle at constant speed in the center of the road. The experimental results obtained show that the hybrid RQL control outperformed the APR algorithm, which presented the highest trajectory error in the training scenario and it was not able to generalize its actions in the test scenario. Also, by adding robustness to the controller via the hybrid RLQR, it was obtained less sensitivity to disturbances and, in all tests performed, collisions were reduced to zero.
- Published
- 2021
- Full Text
- View/download PDF
14. Detecção de dutos submarinos para rastreamento por AUVs
- Author
-
Carlos Andrés, Soto Bravo, Ettore Apolonio de Barros, Jun Okamoto Junior, Teodiano Freire Bastos Filho, and Valdir Grassi Junior
- Abstract
Nos últimos anos, o uso de Veículos Subaquáticos Autônomos (Autonomous Underwater V ehicle - AUV ) aumentou consideravelmente na inspeção de estruturas offshore. Essa área é primordial para as empresas de petróleo e gás porque elas precisam inspecionar seus oleodutos subaquáticos para evitar acidentes devido à corrosão e consequentemente vazamentos de fuidos. Para uma tarefa automatizada de inspeção de tubulação com um AUV, é necessário o desenvolvimento de um sistema de seguimento. Este trabalho propõe um método para o rastreamento de tubulações subaquáticas com câmeras de vídeo. O algoritmo proposto combina ferramentas de processamento de imagem para estimar a orientação e a posição de um duto, e assim, produzir a variável de controle necessária para realizar o seu seguimento. Alguns vídeos de tubulações submarinas foram utilizados para validar o algoritmo de detecção dos dutos. Posteriormente, um simulador em tempo real do movimento do AUV Pirajuba, veículo desenvolvido no Laborátorio de Veículos Não Tripulados (LVNT), é usado para verificar se o valor de saída da detecção realizada é adequado para a realização do controle de seguimento. Finalmente, experimentos de forma online foram realizados usando um veículo remontamente operado (Remotely Operated V ehicle - ROV ) para a realização de um controle de seguimento do duto. Os resultados desses testes são apresentados e demonstram que esse método é robusto para a detecção e seguimentos de dutos em um ambiente submarino real. In the last years, the use of Autonomous Underwater Vehicles (AUV) has been increased for inspection of offshore structures. This research is significant for petroleum and gas companies because they need to inspect their underwater pipelines to prevent accidents due to corrosion and consequently fluid leaks. For an automated pipeline inspection task using an AUV, the development of a tracking system is necessary. This work proposes a method for the detection and tracking of underwater pipelines with video-cameras. The proposed algorithm combines image processing tools to estimate the orientation and position of a pipeline. These parameters are sent to the AUV control system. Some videos of underwater pipelines were used to validate the detection. Subsequently, a real-time simulator of the movement of the AUV Pirajuba, a vehicle developed at the Unmanned Vehicle Laboratory (LVNT), is used for validating the tracking control. Finally, online experiments were performed using a Remotely Operated Vehicle (ROV) to carry out a pipeline tracking control. The results of these tests are presented and demonstrate that this method is robust for pipeline detection and tracking in a real submarine environment.
- Published
- 2021
- Full Text
- View/download PDF
15. Aprendizado por reforço profundo para navegação visual semântica com memória
- Author
-
Iury Batista de Andrade Santos, Roseli Aparecida Francelin Romero, Rodrigo Calvo, Valdir Grassi Junior, and Denis Fernando Wolf
- Abstract
A navegação de robôs móveis é um tema amplamente estudado ao longo de décadas, sendo esta uma atividade crucial para a inserção de robôs em diversos cenários. Contudo, ambientes complexos e mutáveis, como interiores de residências, ainda apresentam desafios a serem superados, sendo objetos de estudo em diversos trabalhos que adotam abordagens com visão computacional sem usar mapas topológicos ou métricos. Este trabalho propõe uma arquitetura para navegação de robôs móveis visando a busca objeto-direcionada em ambientes internos de residências, utilizando métodos de visão computacional e informações semânticas com memória. A arquitetura proposta tem capacidade de generalizar por meio de conhecimento a priori dos objetos detectados em cenas e também reforçar relacionamentos por meio de experiências passadas, em uma abordagem de navegação baseada em aprendizado. Para tanto, são adotados os seguintes modelos de aprendizado de máquina: redes neurais convolucionais, redes neurais de grafos, redes neurais recorrentes e aprendizado por reforço profundo, em uma abordagem objeto-direcionada. Esta arquitetura foi treinada em diversos ambientes domésticos, adotando-se um ambiente simulado fotorrealista. Esta arquitetura foi avaliada por meio de análise qualitativa, com execuções de episódios do agente no ambiente simulado de maneira visual, e análise quantitativa, usando medidas como taxas de sucesso e taxas de sucesso ponderadas pela trajetória. Políticas aprendidas por meio da arquitetura proposta foram comparadas com agentes de política randômica, com agentes utilizando apenas aprendizado por reforço e, por fim, com agentes com políticas de navegação semântica sem memória. Os experimentos realizados mostraram um comportamento mais exploratório da arquitetura proposta em relação a outros sem memória, obtendo maiores taxas de êxito nas tarefas em ambas as métricas. Quando exposto a cenários mais restritos, e por conseguinte de maior dificuldade, as políticas aprendidas por estes modelos apresentaram os melhores resultados, com menor queda no desempenho quando comparados as execuções menos restritivas e com os demais modelos. Desta forma, o modelo proposto apresentou resultados consistentes de melhoria nas políticas aprendidas pelos agentes, resultando em comportamentos bem sucedidos para tarefas de busca objeto-direcionada em ambientes internos de residências. The navigation of mobile robots is a subject vastly studied in the last decades, being a crucial task for the insertion of robots in diverse scenarios. However, complex and changeable environments, as indoors of houses, still shows challengers to be transpassed, being an object of study in several works that adopts approaches as computer vision without topological or metric maps. This work proposes an architecture for the navigation of mobile robots aiming target-object search in indoor ambiances of houses, using computer vision methods and semantic information with memory. The proposed architecture can generalize through a priori acknowledgment of detect objects in scenes and reinforce relationships over experiences of the past, in a learning-based navigation approach. Therefore, the following models of machine learning will be adopted: neural convolutional netwoks, graph neural networks, recorrent neural networks and deep reinforcement learning, in a targetobject approach. This architecture has trained in several domestic ambiances, adopting a photo-realistic simulated environment. The architecture was evaluated through qualitative analysis, executing episodes of the agent in the simulated environment with visual insight, and quantitative analysis, adopting metrics like success rate and success rate weighted by path length. Policies learn by the proposed architecture were compared with agents using random policies, agents using only reinforcement learning, and, finally, agents with navigation semantic policies without memory. The experiments performed showed a more exploratory behavior of the proposed architecture when compared with the nonmemory approaches. reaching better success rates in the tasks for both metrics. When exposed to restrict scenarios, consequently being of greater difficulty, the policies learn by such models demonstrated better results, with a lower decrease in its performance when compared with less restrictive executions and other models. Thus, the proposed model presented consistent results with better policies learn by the agents, resulting in behaviors more successful in the task of target-object search in indoor-home environments.
- Published
- 2020
- Full Text
- View/download PDF
16. Environment reconstruction on disparity images using surface features and Generative Adversarial Networks
- Author
-
Lucas Peres Nunes Matias, Denis Fernando Wolf, Mauricio Acconcia Dias, Valdir Grassi Junior, and Fernando Santos Osório
- Subjects
Surface (mathematics) ,Adversarial system ,Computer science ,business.industry ,Pattern recognition ,Artificial intelligence ,business ,Generative grammar - Abstract
The study and development of autonomous vehicles have become more relevant at each day. For the intelligent vehicle to be able to navigate through a real urban environment it is necessary a high degree of reliability to ensure the passenger and pedestrians safety. Therefore, sensors and algorithms used to help the decision making during the autonomous navigation need the maximum amount of information available, for the environment analysis to be most complete as possible. As an human driver, the computer should analyze the surrounding environment and evaluate the possible actions to execute in order to reach the final destination safely. However, despite the high precision data collected by the sensors, computational methods has a disadvantage when compared to the human cognition. A human driver can analyze the surrounding environment and deduce occluded information, more specifically information related to the environment behind objects and structures. For computational methods extract this missing data is a challenge. Recent works on image processing propose methods to estimate the area behind specified regions. Yet, those methods are applied on RGB images, where the focus is a visually satisfactory result. When dealing with disparity images, which codify depth data, it is necessary a coherent and precise estimation, since any noise on the image will be intensified in the tridimensional reconstruction, and will influence on the decision making algorithms environment interpretation. In this work we deal with the hypothesis of, by using specific disparity and depth features as guideline for the disparity image estimation, it is possible to achieve a coherent environment reconstruction of the area behind a masked region. Our results point out to this hypothesis validation, since we achieve - at the end of this work - a continuous environment reconstruction without significant noise. O estudo e desenvolvimento de veículos autônomos vem se tornando cada vez mais relevante. Para que estes veículos possam trafegar em um ambiente urbano real é necessário alto grau de confiabilidade para garantir a segurança dos passageiros e dos pedestres. Para isso, os sensores e algoritmos utilizados para auxiliar na tomada de decisão durante a direção autônoma necessitam do máximo de informação disponível, para que a análise do ambiente seja o mais ampla possível. Assim como um motorista humano, o computador deve analisar o ambiente ao seu redor e avaliar as possíveis medidas a serem tomadas afim de alcançar o destino final do trajeto de modo seguro. Contudo, apesar dos sensores coletarem informações com alta precisão, métodos computacionais possuem uma desvantagem em relação à cognição humana. Um motorista humano pode analisar as informações do ambiente ao seu redor e deduzir informações oclusas, mais especificamente informações sobre o ambiente por de trás de diferentes objetos e estruturas. Para métodos computacionais, extrair esta informação omissa é um desafio. Trabalhos recentes na área de processamento de imagens propõe métodos para estimar a área por trás de regiões especificadas. Porém, estes métodos são aplicados a imagens RGB, onde o foco é um resultado visualmente satisfatório. Ao lidarmos com imagens de disparidade, que codificam dados de profundidade, é necessária uma estimativa coerente e precisa, uma vez que quaisquer ruídos na imagem, serão intensificados na reconstrução tridimensional e influenciarão na interpretação do ambiente ao redor pelos algoritmos de tomada de decisão. Neste trabalho lidamos com a hipótese de que, utilizando aspectos específicos dos dados de disparidade e profundidade como orientação para a estimativa de disparidade, é possível alcançar uma reconstrução coerente do ambiente por de trás de uma região demarcada. Os resultados apontam para a validação dessa hipótese, uma vez que alcançamos - ao fim deste trabalho - uma reconstrução contínua do ambiente com poucos ruídos.
- Published
- 2020
- Full Text
- View/download PDF
17. Uma abordagem baseada em aprendizagem profunda para controle servo-visual e detecção de pontos de preensão para manipulação robótica autônoma
- Author
-
Eduardo Godinho Ribeiro, Valdir Grassi Junior, Glauco Augusto de Paula Caurin, and Luiz Chaimowicz
- Abstract
The development of the robotics and artificial intelligence fields has not yet allowed robots to execute, with dexterity, simple actions performed by humans. One of them is the grasping of objects by robotic manipulators. Aiming to explore the use of deep learning algorithms, specifically Convolutional Neural Networks, to approach the robotic grasping problem, this work addresses the visual perception phase involved in the task. That is, the processing of visual data to obtain the location of the object to be grasped, its pose and the points at which the robot\'s grippers must make contact to ensure a stable grasp. For this, the dataset Cornell Grasping is used to train a convolutional neural network capable of considering these three stages simultaneously. In other words, having an image of the robot\'s workspace, containing a certain object, the network predicts a grasp rectangle that symbolizes the position, orientation and opening of the robot\'s parallel grippers in the instant before its closing. In addition to this network, capable of processing images in real-time, another network is designed so that it is possible to deal with situations in which the object moves in the environment. In this way, the second convolutional network is trained to perform a visual servo control which ensures that the object remains in the robot\'s field of view. This network predicts the proportional values of the linear and angular velocities that the camera must have so that the object is always in the image processed by the grasp network. The dataset used for training was generated, with reduced human supervision, by a Kinova Gen3 robotic manipulator with seven degrees of freedom. The robot is also used to evaluate the applicability in real-time and obtain practical results from the designed algorithms. In addition, the offline results obtained through validation sets are also analyzed and discussed taking into account their efficiency and processing speed. The results for grasping exceed 90% accuracy with state-of-the-art prediction speed. Regarding visual servoing, one of the designed models achieves millimeter positioning accuracy for a first-seen object. In a small evaluation, the complete system performed successful tracking and grasping of first-seen dynamic objects in 85% of attempts. So, this work presents a new system for autonomous robotic manipulation, able to generalize to different objects and with high processing speed, which allows its application in real-time and real-world robotic systems. A evolução dos campos da Robótica e da Inteligência Artificial ainda não possibilitou que tarefas simples executadas pelo ser humano, sejam executadas com destreza por um robô. Uma delas é a manipulação de objetos por manipuladores robóticos. Visando explorar o uso de algoritmos de aprendizagem profunda, especificamente Redes Neurais Convolucionais, para abordar o problema de preensão robótica, este trabalho explora a fase de percepção visual envolvida na tarefa. Isto é, o processamento de dados visuais para que se possa obter a localização do objeto a ser pego, sua postura e os pontos nos quais as garras do robô devem fazer contato para garantir uma preensão estável. Para tal, o conjunto de dados Cornell Grasping foi utilizado para treinar uma rede neural convolucional capaz de considerar estas três etapas de forma simultânea. Ou seja, de posse de uma imagem do ambiente de trabalho do robô, contendo determinado objeto, a rede prediz um retângulo de preensão que simboliza a posição, orientação e abertura da garra paralela do robô no instante anterior ao seu fechamento. Em adição a esta rede, capaz de processar as imagens em tempo real, outra rede foi projetada para que seja possível lidar com situações em que o objeto se movimenta no ambiente. Desta forma, a segunda rede convolucional é treinada para realizar um controle servo-visual que assegura a permanência do objeto no campo de visão do robô. Esta rede prediz os valores proporcionais das velocidades linear e angular que a câmera deve possuir para que o objeto sempre esteja na imagem processada pela rede de preensão. O conjunto de dados utilizado para treinamento foi gerado, com reduzida supervisão humana, por um robô manipulador Kinova Gen3 com sete graus de liberdade. O robô também foi utilizado para avaliar a aplicabilidade em tempo real e obtenção de resultados práticos dos algoritmos projetados. Os resultados de preensão alcançam 90% de precisão com alta velocidade de processamento. Um dos modelos projetados para controle servo-visual alcança precisão milimétrica de posicionamento para um objeto visto pela primeira vez. Em uma pequena avaliação, o sistema completo executou o rastreamento e a preensão de objetos dinâmicos vistos pela primeira vez em 85% das tentativas. Assim, este trabalho apresenta um novo sistema de manipulação robótica autônoma, capaz de generalizar para diferentes objetos e com alta velocidade de processamento, o que permite sua aplicação em sistemas robóticos de tempo real.
- Published
- 2020
18. Analysis and merging of 2D and 3D images for detecting and classifying vertical traffic signs to the benefit of the road safety with intelligent robotic vehicles
- Author
-
Diego Renan Bruno, Fernando Santos Osório, Valdir Grassi Junior, Claudio Rosito Jung, and Roseli Aparecida Francelin Romero
- Abstract
Os Veículos Robóticos Inteligentes são aplicados principalmente em beneficio da redução de acidentes de trânsito, possibilitando então reduzir falhas e imprudências humanas com sistemas que utilizam Visão Computacional, Inteligência Artificial, Automação e outras tecnologias, para auxiliar o condutor em sua tarefa de dirigir. Aplicando a robotização, também é possível o aumento do nível da segurança viária por meio do desenvolvimento de veículos autônomos totalmente livres do controle humano e que são programados para navegarem dentro das leis de trânsito. Sendo que as falhas humanas são a causa de mais de 90% para acidentes fatais em todo o mundo. Esta pesquisa de doutorado teve como objetivo principal o estudo, proposta, desenvolvimento, adaptações e testes de um conjunto de técnicas e métodos de Visão Computacional e Inteligência Artificial, com vistas para um sistema de percepcão com fusão de imagens 2D e 3D mais robusto para detecção de sinais de trânsito verticais. Também foi desenvolvido um modelo de Atenção Visual Fuzzy, capaz de analisar a prioridade de cada informação detectada por meio do sistema de percepção, possibilitando então dar suporte para a tomada de decisão do veículo envolvendo situações de emergência (acidentes e obras na via), utilizando como base, os valores de prioridade de cada regra de trânsito. O sistema de Visão Computacional Robótica deve ser capaz de detectar, classificar e analisar a prioridade dos sinais de trânsito verticais utilizados atualmente e, que são funcionais para o trânsito envolvendo motoristas humanos no mundo real, não exigindo adaptações da sinalização. O sistema de visão deve então auxiliar um veículo totalmente autônomo, ou semi-autônomo, a navegar dentro das regras de trânsito locais, assim, detectando informações de grande importância, como: velocidade máxima, parada obrigatória, cones de emergência e cores do semáforo. Em casos de navegação autônoma, apenas o sistema de percepção e análise de sinais de trânsito verticais deve ser utilizado. Já para a navegação semi-controlada, ou seja, com auxílio de um humano, o sistema de visão externo deve trabalhar em conjunto com a análise do condutor e dos dados de controle do veículo, ativando rotinas automáticas corretivas com base nos erros detectados na tarefa de dirigir, possibilitando evitar graves acidentes relacionados com o desrespeito as sinalizações de trânsito e que são gerados por falha humana e imprudência. Intelligent Robotic Vehicles are mainly applied for the benefit of the traffic accidents reduction, thus enabling to reduce human faults and recklessness with systems that use Computer Vision, Artificial Intelligence, Automation and other technologies to assist the driver in his driving task. By applying robotization, it is also possible to increase the level of road safety by developing autonomous vehicles totally free of human control and which are programmed to navigate within traffic laws. Human failures in driving take responsability over 90% for fatal accidents worldwide. The main objective of this doctoral research was the study, proposal, development, adaptations and tests of a set of techniques and methods of Computer Vision and Artificial Intelligence, aiming at a 2D and 3D image fusion perception system, being more robust for detecting vertical road signs. A Fuzzy Visual Attention model was also developed, capable of analyzing the priority of each information detected through the perception system, thus enabling the decision making of the vehicle involving emergency situations (accidents and road works) to be supported. The Fuzzy Visual Attention model uses the priority values of each traffic sign as a basis. The Robotic Computer Vision system shall be capable of detecting, classifying and analyzing the priority of currently used vertical traffic signs that are functional for traffic involving human drivers in the real world and do not require signaling adaptations. The vision system should then assist a fully autonomous or semi-autonomous vehicle to navigate within local traffic rules, thus detecting important information such as maximum speed, mandatory stop, emergency cones and traffic light colors. In cases of autonomous navigation, only the system of perception and analysis of vertical traffic signs should be used. For semi-controlled navigation, that is, with the help of a human, the external vision system should work in conjunction with driver analysis and vehicle control data, activating automatic corrective routines based on errors detected in the task execution. Thus making it possible to avoid serious accidents related to disregarding traffic signs, due mainly to human errors and recklessness.
- Published
- 2020
19. Estimação monocular de profundidade por aprendizagem profunda para veículos autônomos: influência da esparsidade dos mapas de profundidade no treinamento supervisionado
- Author
-
Nícolas dos Santos Rosa, Valdir Grassi Junior, Carlos Henrique Quartucci Forster, and Denis Fernando Wolf
- Abstract
Este trabalho aborda o problema da estimação de profundidade a partir de imagens monoculares (SIDE), com foco em melhorar a qualidade das predições de redes neurais profundas. Em um cenário de aprendizado supervisionado, a qualidade das predições está intrinsecamente relacionada aos rótulos de treinamento, que orientam o processo de otimização. Para cenas internas, sensores de profundidade baseados em escaneamento por luz estruturada (Ex.: Kinect) são capazes de fornecer mapas de profundidade densos, embora de curto alcance. Enquanto que para cenas externas, consideram-se LiDARs como sensor de referência, que comparativamente fornece medições mais esparsas, especialmente em regiões mais distantes. Em vez de modificar a arquitetura de redes neurais para lidar com mapas de profundidade esparsa, este trabalho introduz um novo método de densificação para mapas de profundidade, usando o framework de Mapas de Hilbert. Um mapa de ocupação contínuo é produzido com base nos pontos 3D das varreduras do LiDAR, e a superfície reconstruída resultante é projetada em um mapa de profundidade 2D com resolução arbitrária. Experimentos conduzidos com diferentes subconjuntos do conjunto de dados do KITTI mostram uma melhora significativa produzida pela técnica proposta (esparso-para-contínuo), sem necessitar inserir informações extras durante a etapa de treinamento. This work addresses the problem of single image depth estimation (SIDE), focusing on improving the quality of deep neural network predictions. In a supervised learning scenario, the quality of predictions is intrinsically related to the training labels, which guide the optimization process. For indoor scenes, structured-light-based depth sensors (e.g. Kinect) are able to provide dense, albeit short-range, depth maps. While for outdoor scenes, LiDARs are considered the standard sensor, which comparatively provide much sparser measurements, especially in areas further away. Rather than modifying the neural network architecture to deal with sparse depth maps, this work introduces a novel densification method for depth maps using the Hilbert Maps framework. A continuous occupancy map is produced based on 3D points from LiDAR scans, and the resulting reconstructed surface is projected into a 2D depth map with arbitrary resolution. Experiments conducted with various subsets of the KITTI dataset show a significant improvement produced by the proposed Sparse-to-Continuous technique, without the introduction of extra information into the training stage.
- Published
- 2019
- Full Text
- View/download PDF
20. Uma Proposta de Arquitetura para Veículos Autônomos
- Author
-
Iago Pacheco Gomes, Denis Fernando Wolf, Valdir Grassi Junior, Roberto Santos Inoue, and Jo Ueyama
- Subjects
Computer science ,business.industry ,Software architecture ,Software engineering ,business - Abstract
Autonomous Vehicles should transform the urban transport scenario, increasing its efficiency, making it more accessible and safe, reducing environmental impact, among other benefits. To do so, they are composed of a set of hardware and algorithms, which allow them to understand the external environment, their own state and interact with other traffic agents. In turn, these components need to collaborate with each other to ensure the full operation of the vehicle, which makes its architectural design an essential step for the project and development. The software architecture presents the structure and organization of the components, enabling evaluations and making decisions prior to implementation. Another important aspect is that such systems are subject to faults that can affect the whole performance of the vehicle, therefore, it is essential to detect and diagnose them. In this way, the objective of this work is to develop a new architecture for the CaRINA 2, the autonomous vehicle of the University of São Paulo, adding new functionalities developed by the research group and focusing mainly on safety requirements, which consists of detecting and diagnosing faults. In addition, new map structure and a new method for behavior and maneuver development were also included to the architecture. Os Veículos Autônomos devem transformar o cenário do transporte urbano, aumentando sua eficiência, tornando-o mais acessível e seguro, diminuindo o impacto ambiental, entre outros benefícios. Para tanto, eles são compostos por um conjunto de dispositivos físicos e algoritmos, que os permitem compreender o ambiente externo, seu próprio estado e interagir com outros agentes do trânsito. Por sua vez, estes componentes precisam colaborar uns com os outros para garantir o pleno funcionamento do veículo, o que faz com que o seu desenho arquitetural seja uma etapa imprescindível para o projeto e desenvolvimento. A arquitetura de software apresenta a estrutura e organização dos componentes, possibilitando que avaliações e decisões sejam tomadas antes da implementação. Outro aspecto importante, é que tais sistemas estão sujeitos a falhas que podem afetar todo o desempenho do veículo, por conta disso, é essencial detectar e diagnosticá-las. Desta forma, o objetivo deste trabalho é desenvolver uma nova arquitetura para o CaRINA 2, o veículo autônomo da Universidade de São Paulo, agregando novas funcionalidades desenvolvidas no grupo de pesquisa e atentando-se principalmente para os requisitos de segurança do sistema, que consiste em detectar e diagnosticar as falhas. Além disso, uma nova estrutura de mapa e um novo método para desenvolvimento dos comportamentos e manobras foram incluídos à arquitetura.
- Published
- 2019
21. Visual urban road features detection using Convolutional Neural Network with application on vehicle localization
- Author
-
Luiz Ricardo Takeshi Horita, Valdir Grassi Junior, Douglas Guimarães Macharet, and Fernando Santos Osório
- Subjects
Stereopsis ,Computer science ,business.industry ,Computer vision ,Artificial intelligence ,Urban road ,business ,Convolutional neural network - Abstract
Curbs and road markings were designed to provide a visual low-level spatial perception of road environments. In this sense, a perception system capable of detecting those road features is of utmost importance for an autonomous vehicle. In vision-based approaches, few works have been developed for curb detection, and most of the advances on road marking detection have aimed lane markings only. Therefore, to detect all these road features, multiple algorithms running simultaneously would be necessary. Alternatively, as the main contribution of this work, it was proposed to employ an architecture of Fully Convolutional Neural Network (FCNN), denominated as 3CSeg-Multinet, to detect curbs and road markings in a single inference. Since there was no labeled dataset available for training and validation, a new one was generated with Brazilian urban scenes, and they were manually labeled. By visually analyzing experimental results, the proposed approach has shown to be effective and robust against most of the clutter present on images, running at around 10 fps in a Graphics Processing Unit (GPU). Moreover, with the intention of granting spatial perception, stereo vision techniques were used to project the detected road features in a point cloud. Finally, as a way to validate the applicability of the proposed perception system on a vehicle, it was also introduced a vision-based metric localization model for the urban scenario. In an experiment, compared to the ground truth, this localization method has revealed consistency on its pose estimations in a map generated by LIDAR. Guias e sinalizações horizontais foram projetados para fornecer a percepção visual de baixo nível do espaço das vias urbanas. Deste modo, seria de extrema importância para um veículo autônomo ter um sistema de percepção capaz de detectar tais características visuais. Em abordagens baseadas em visão, poucos trabalhos foram desenvolvidos para detecção de guias, e a maioria dos avanços em detecção de sinalizações horizontais foi focada na detecção de faixas apenas. Portanto, para que fosse possível detectar todas essas características visuais, seria necessário executar diversos algoritmos simultaneamente. Alternativamente, como sendo a principal contribuição deste trabalho, foi proposto a adoção de uma Rede Neural Totalmente Convolutiva, denominado 3CSeg-Multinet, para detectar guias e sinalizações horizontais em apenas uma inferência. Como não havia um conjunto de dados rotulados disponível para treinar e validar a rede, foi gerado um novo conjunto com imagens capturadas em ambiente urbano brasileiro, e foi realizado a rotulação manual. Através de uma análise visual dos resultados experimentais obtidos, o método proposto mostrou-se eficaz e robusto contra a maioria dos fatores que causam confusão nas imagens, executando a aproximadamente 10 fps em uma GPU. Ainda, com o intuito de garantir a percepção espacial, foram usados métodos de visão estéreo para projetar as características detectadas em núvem de pontos. Finalmente, foi apresentado também um modelo de localização métrica baseado em visão para validar a aplicabilidade do sistema de percepção proposto em um veículo. Em um experimento, este método de localização revelou-se capaz de manter as estimativas consistentes com a verdadeira pose do veículo em um mapa gerado a partir de um sensor LIDAR.
- Published
- 2019
- Full Text
- View/download PDF
22. Robust recursive path-following control for autonomous heavy-duty vehicles
- Author
-
Filipe Marques Barbosa, Valdir Grassi Junior, Samuel Siqueira Bueno, and Maíra Martins da Silva
- Subjects
Control theory ,Computer science ,Heavy duty ,Path following ,Control (management) ,Robust control - Abstract
Path following and lateral stability are crucial issues for autonomous vehicles. Moreover, these problems increase in complexity when handling heavy-duty vehicles due to their poor manoeuvrability, large sizes and mass variation. In addition, uncertainties on mass may have the potential to significantly decrease the performance of the system, even to the point of destabilising it. These parametric variations must be taken into account during the design of the controller. However, robust control techniques usually require offline adjustment of auxiliary tuning parameters, which is not practical and leads to sub-optimal operation. Hence, this work presents an approach to path-following and lateral control for autonomous heavy-duty vehicles subject to parametric uncertainties by using a robust recursive regulator. The main advantage of the proposed controller is that it does not depend on the offline adjustment of tuning parameters. Parametric uncertainties were assumed to be on the payload, and an H∞ controller was used for performance comparison in simulations. The performance of both controllers is evaluated in a double lane-change manoeuvre. Simulation results showed that the proposed method had better performance in terms of robustness, lateral stability, driving smoothness and safety, which demonstrates that it is a very promising control technique for practical applications. Ultimately, experiment tests in a rigid heavy-duty truck validate what was found in simulation results. O seguimento de caminho e a estabilidade lateral são questões cruciais para veículos autônomos. Além disso, devido à baixa capacidade de manobra, tamanho e grande variação de massa, estes problemas se tornam mais complexos quando se trata de veículos pesados. Adicionalmente, as incertezas na massa têm o potencial de diminuir significativamente o desempenho do sistema, chegando ao ponto de desestabilizá-lo, assim, essas variações paramétricas devem ser consideradas durante o projeto do controlador. No entanto, as técnicas de controle robusto geralmente exigem o ajuste off-line de parâmetros auxiliares do controlador, o que não é prático e lava a uma operação sub-ótima. Assim, este trabalho apresenta uma abordagem de controle de seguimento de caminho e controle lateral para veículos pesados autônomos sujeitos a incertezas paramétricas usando um regulador robusto recursivo. A principal vantagem deste controlador é que ele não depende do ajuste off-line de parâmetros. Assumiu-se que as incertezas paramétricas estavam na carga do veículo, e um controlador H∞ foi usado para comparar o desempenho em simulação. O desempenho de ambos os controladores é avaliado em uma manobra de mudança de faixa. Os resultados de simulação mostraram que o método proposto apresentou melhor desempenho em termos de robustez, estabilidade lateral, suavidade na condução e segurança, o que o demonstra como uma técnica de controle bastante promissora para aplicações práticas. Por fim, testes experimentais em um caminhão rígido reforçam os resultados obtidos em simulação.
- Published
- 2019
- Full Text
- View/download PDF
23. Reconhecimento e Rastreamento de Veículos em Rodovias usando Deep Learning
- Author
-
Ludwin Lope Cala, Roseli Aparecida Francelin Romero, Reinaldo Augusto da Costa Bianchi, Valdir Grassi Junior, and Fernando Santos Osório
- Subjects
Recurrent neural network ,Computer science ,business.industry ,Deep learning ,Computer vision ,Artificial intelligence ,Tracking (particle physics) ,business ,Drone - Abstract
Unmanned aerial vehicles (UAV) have become increasingly popular and their ability to analyze images collected in real time has drawn the attention of researchers regarding their use in several tasks, as surveillance of environments, persecution, collection of images, among others. This dissertation proposes a vehicle tracking system through which UAVs can recognize a vehicle and monitor it in highways. The system is based on a combination of bio-inspired machine learning algorithms VOCUS2, CNN and LSTM and was tested with real images collected by an aerial robot. The results show it is simpler and outperformed other complex algorithms, in terms of precision. Veículos aéreos não tripulados têm se tornado cada vez mais populares e sua capacidade de analisar imagens coletadas em tempo real tem chamado a atenção de pesquisadores quanto ao seu uso em diversas tarefas, como vigilância de ambientes, perseguição, coleta de imagens, entre outros. Esta dissertação propõe um sistema de rastreamento de veículos através do qual os UAV podem reconhecer um veículo e monitorá-lo em rodovias. O sistema é baseado em uma combinação de algoritmos de aprendizado de máquina bio-inspirados VOCUS2, CNN e LSTM e foi testado com imagens reais coletadas por um robô aéreo. Os resultados mostram que é mais simples e superou outros algoritmos complexos, em termos de precisão.
- Published
- 2019
24. Ankle torque estimation for lower-limb robotic rehabilitation
- Author
-
Jonathan Campo Jaimes, Adriano Almeida Gonçalves Siqueira, Valdir Grassi Junior, and Álvaro David Orjuela Cañon
- Subjects
medicine.medical_specialty ,Physical medicine and rehabilitation ,Computer science ,medicine ,Robotic rehabilitation ,Human–robot interaction ,Ankle torque ,Lower limb - Abstract
In robotic rehabilitation therapies, knowledge of human joint torques is important for patient safety, to provide a reliable data for clinical assessment and to increase control performance of the device, nevertheless, its measurement can be complex or have a highcost implementation. The most of techniques for torque estimation have been developed for upper limb robotic rehabilitation devices, in addition, they typically require detailed anthropometric and musculoskeletal models. In this dissertation is presented the ankle torque estimation for the Anklebot robot, the estimation uses an ankle/Anklebot dynamic model that consider the ankle joint angular displacement and velocity measurement, its mechanical impedance parameters are obtained through a second-order modeled mechanical impedance of the ankle and an identification of frictional and gravitational torques. Three approaches for the ankle torque estimation were proposed to be implemented in the Anklebot robot, the Generalized Momentum, the Kalman filter and finally a combination of both the above mentioned approaches. The validation of such approaches was developed first on a physical mockup configured to reproduce the human ankle joint movement, by assessing its performances, the Kalman filter approach was selected to be implemented on a voluntary subject. A set of experiments were performed considering the physical activity that the subject may realize when interacting with the Anklebot, the developed ankle torque estimation proved to be successful for passive torque and in most of the proposed scenarios where active torque is performed. Em terapias de reabilitação robótica, o conhecimento dos torques da articulação humana é importante para a segurança do paciente, para fornecer dados confiáveis na avaliação clínica e aumentar o desempenho de controle do dispositivo, no entanto, sua medição pode ser complexa ou costoso de implementar. A maioria das técnicas de estimativa de torque tem sido desenvolvidas para dispositivos de reabilitação robótica de membros superiores, além disso, eles normalmente requerem modelos antropométricos e musculoesqueléticos detalhados. Nesta dissertação é apresentada a estimativa do torque do tornozelo no robô Anklebot, a estimação utiliza um modelo dinâmico tornozelo + Anklebot o qual considera a medição da posição e velocidade angular do tornozelo, os parametros de impedancia mecânica do tornozelo são obtidos por meio de um modelo simples de segunda ordem e são identificados os torques gravitacionais e de atrito. Três abordagens para a estimativa de torque de tornozelo foram propostas para serem implementadas, o momento generalizado, o filtro de Kalman e, finalmente, uma abordagem que combina tanto o momento generalizado e o filtro de Kalman. A validação de tais abordagens foi desenvolvida primeiro em um mock-up físico configurado para reproduzir o movimento articular do tornozelo humano, avaliando seus desempenhos. A segunda abordagem proposta foi selecionada para ser implementada em um usuário voluntário. Um conjunto de experimentos foi realizado considerando a atividade física que o sujeito pode realizar ao interagir com o Anklebot, a estimativa desenvolvida de torque de tornozelo demostrou ser bem sucedida para o torque passivo e na maioria dos cenários propostos onde o torque ativo é realizado.
- Published
- 2018
- Full Text
- View/download PDF
25. Path and trajectory planning for a dual-arm planar free-floating manipulator
- Author
-
Wenderson Gustavo Serrantola, Valdir Grassi Junior, Tatiana de Figueiredo Pereira Alves Taveira Pazelli, and Adriano Almeida Gonçalves Siqueira
- Abstract
Robôs manipuladores vem desempenhando um importante papel em operações orbitais, e isso foi possível devido ao grande avanço da robótica espacial nas últimas décadas. Porém, o planejamento do movimento ainda é considerado um dos maiores desafios nesse campo, embora diversos métodos e considerações tenham sido propostas para resolver esse problema. As primeiras contribuições na área de planejamento de movimento dependiam de uma representação explícita do espaço de configuração do robô. Dessa forma, o planejamento de movimento para sistemas robóticos com muitos graus de liberdade era impraticável. Para lidar com esse problema, surgiram os métodos baseados em amostragem, dentre eles, o método de Árvore Aleatória de Exploração Rápida - RRT (do inglês, Rapidly- Exploring Random Tree). Estes métodos, ao invés da construção de todo o conjunto de configurações livre de colisões, requerem apenas a verificação de colisão com obstáculos para um conjunto discreto e finito de configurações do robô. Consequentemente, para este tipo de problema, são métodos mais vantajosos em termos computacionais. Com esta motivação, o presente trabalho tem como objetivo o desenvolvimento de um planejador de rota e de um planejador de trajetória para um robô manipulador espacial de base livre flutuante com dois braços, ambos planejadores com suporte a desvio de obstáculos estáticos. O conceito de manipulador dinamicamente equivalente é utilizado para modelar o manipulador espacial. Isso permite que o planejamento seja feito para um manipulador de base fixa subatuado dinamicamente equivalente ao manipulador de base livre flutuante. Os algoritmos baseados em amostragem RRT* e RRTControl disponibilizados na biblioteca OMPL (do inglês, Open Motion Planning Library) foram adaptados para resolver este problema de planejamento. O algoritmo RRT* é usado para o planejamento de rota, e o RRTControl para o planejamento de trajetória. Ambos planejadores utilizam o espaço de configuração das juntas do robô. Para possibilitar que a orientação e posição final dos dois efetuadores do robô pudessem ser especificadas no espaço da tarefa, um algoritmo de cinemática inversa baseado em algoritmo genético também foi desenvolvido para encontrar a solução da cinemática inversa do manipulador. Robot manipulator has played an important role in orbital missions and this was possible due to the advance of space robotics in recent decades. However, motion planning is still considered one of the biggest challenges of the field though various methods and considerations were proposed by researchers to handle this problem. The first contributions in this field were dependent on an explicit representation of the free configuration space. Consequently, it was impractical to solve the motion planning problem for robotic systems with many degrees of freedom. In order to cope with this limitation, sampling-based methods were proposed, in particular, the Rapidly-Exploring Random Tree – RRT. Sampling-based methods only requires a procedure to verify collision with obstacles for a discrete amount of robot configuration during planning. Therefore, they are more advantageous in computational terms. In this work a path planner and a trajectory planner were developed for a free-floating planar manipulator with two arms with support for static obstacle avoidance. The Dynamically Equivalent Manipulator approach was used for modelling the robot. Thus, the planners were developed based on a fixed-base underactuated manipulator model which is dynamically equivalent to the free-floating manipulator. The sampling-based algorithms RRT* and RRTControl of the Open Motion Planning Library (OMPL) were adapted to solve this motion planning problem. The RRT* were used for path planning, and the RRTControl for trajectory planning, both carried out in the robot joint space. As the desired orientations and positions of the two end-effectors were specified in the task-space, a genetic algorithm was also developed to compute the inverse kinematics of the manipulator.
- Published
- 2018
26. Aprendizado Bayesiano aplicado ao controle de veículos autônomos de grande porte
- Author
-
Fernando Henrique Morais da Rocha, Valdir Grassi Junior, Glauco Augusto de Paula Caurin, Adriano Almeida Gonçalves Siqueira, Alberto Ferreira de Souza, and Denis Fernando Wolf
- Abstract
O tópico de identificação de sistemas aparece em vários ramos da ciência, com especial importância ao campo de Controle Automático. Entretanto, os problemas encontrados na construção de uma representação precisa de um sistema, como a falta de informações prévias, e as diversas decisões de projeto que devem ser tomadas para a resolução de problemas de identificação de sistemas por meios mais tradicionais, podem ser solucionados através da análise empírica do sistema. Nesse sentido, os processos Gaussianos apresentam-se como uma alternativa viável para a modelagem não-paramétrica de sistemas, trazendo a vantagem da estimação da incerteza do modelo. Para verificar o potencial dos processos Gaussianos em problemas de identificação de sistemas, foi realizada a identificação do modelo longitudinal de um veículo de grande porte, tendo alcançado um desempenho satisfatório, mesmo quando se utilizou poucos dados de treinamento. A partir do modelo aprendido, foi projetado um controlador preditivo baseado em modelo para controlar a velocidade do veículo. O controlador levou em consideração a variância da predição do modelo GP (Gaussian Process - Processos Gaussianos) em consideração durante o processo de otimização do sinal de controle. O controlador proposto alcançou um baixo erro no seguimento da referência, mesmo em situações extremas, como estradas íngremes. Entretanto, em alguns tipos de problemas, o resultado só pode ser mensurado a partir da combinação de uma sequência de ações, ou sinais de controle, aplicados ao longo da execução do processo, como é o caso do problema de direção ecológica (eco-driving). Nesses casos, estratégias que otimizem sinais de controle instantâneos podem não ser viáveis, sendo necessária a utilização de estratégias em que toda a política de controle seja otimizada de uma vez. Além disso, a avaliação do custo, ou execução de todo um episódio do processo, pode ser dispendiosa, é desejável que uma solução seja encontrada com a menor quantidade de interações possíveis com o sistema real. Uma técnica apropriada para essa situação é a Otimização Bayesiana, um algoritmo de otimização caixa-preta bastante eficiente. Porém, um dos problemas dessa solução é a incapacidade de lidar com um grande número de dimensões. Sendo assim, nesse trabalho, foi proposto o Coordinate Descent Bayesian Optimisation, um algoritmo baseado na Otimização Bayesiana, que busca o ótimo em espaços de alta dmensionalidade de maneira mais eficiente pois otimiza cada dimensão individualmente, em um esquema de descida coordenada. The system identification topic appears in various branches of science, with particular emphasis on Automatic Control field. However, problems encountered in building an accurate representation of a system, such as lack of prior information, and the various design decisions which have to be taken to deal with system identification problems by more traditional means, can be solved through the empirical analysis of the system. In this sense, the Gaussian processes are presented as a viable alternative for non-parametric modelling systems, bringing the advantage of estimating the uncertainty of the model. To investigate the potential of Gaussian processes of system identification problems, identifying the longitudinal model of a large vehicle was performed, achieving reasonable performance even when used little training data. From the obtained model, a Model Predictive Controller was designed to control the vehicle speed. The controller took into account the variance of the GP model prediction on the control signal optimization and achieved low reference tracking error, even on hard conditions, like steep roads. However, in some kinds of problems, the observable outcome can often be described as the combined effect of an entire sequence of actions, or controls, applied throughout its execution. In these cases, strategies to optimise control policies for individual stages of the process might not be applicable, and instead the whole policy might have to be optimised at once. Also, the cost to evaluate the policy\'s performance might also be high, being desirable that a solution can be found with as few interactions with the real system as possible. One appropriate candidate is Bayesian Optimization, a very efficient black-box optimization algorithm. But one of the main problems of this solution is the inability of dealing with a large number of dimensions. For that reason, in this work it was proposed Coordinate Descent Bayesian Optimisation, an algorithm to search more efficiently over high-dimensional policy-parameter spaces with BO, by searching over each dimension individually, in a sequential coordinate descent-like scheme.
- Published
- 2018
- Full Text
- View/download PDF
27. Piecewise linear continuous-curvature path planning for autonomous vehicles
- Author
-
Júnior Anderson Rodrigues da Silva, Valdir Grassi Junior, Luciano Cunha de Araújo Pimenta, and Denis Fernando Wolf
- Subjects
Piecewise linear function ,Computer science ,Mathematical analysis ,Motion planning ,Curvature - Abstract
Autonomous vehicles have increasingly become an attractive field due its promising capabilities of improvements regarding safety, comfort, traffic flow etc. A required attribute for those vehicles is the ability of autonomously compute its path towards a destination point. The path must be planned considering the constructive aspects of the vehicle in order to guarantee the maneuver feasibility. This work consists on computing a feasible path for autonomous vehicles with non-holonomic constraints. Piecewise linear continuouscurvature paths constituted of clothoids, circular arcs, and straight lines are used for this purpose, providing passenger\'s comfort. The road network is modeled from GPS (Global Positioning System) vehicle trajectories by defining lanes, roundabouts and intersections. GPS points are used later to parameterize lanes using clothoids and to extract roundabout centers and radii. This approach provides a sparse road network model since GPS points are replaced by parameterized curves. The information about connections between roads coming from the model is used by a global path planner, which computes a minimal length route from the vehicle current position to the destination point. After that, path planners compute intersection and roundabout paths depending on the nature of connections between roads. Also, lanes changes are performed to obey traffic rules. These three path planners that connects adjacent roads use clothoids, circular arc, and straight lines as interpolating curves whose curvature is constrained to that the vehicle can perform: the intersection path planner uses only a minimal amount of steering to perform the maneuver, increasing the comfort level; the roundabout path planner takes the roundabout center and radius as well as parameters that defines the entrance and exit maneuvers to compute the path; the lane change path planner connects lanes belonging to the same road with a prescribed longitudinal traveled distance depending on whether this maneuver is required. In the end, an global continuous-curvature path is generated. As the result of this work, a real urban scenario is modeled and the proposed approaches are validated. Veículos autônomos têm cada vez mais se tornado um campo atraente de pesquisa devido às suas capacidades promissoras de melhorias em segurança, conforto, fluxo de tráfego, etc. Um atributo necessário para esses veículos é a capacidade de calcular, de forma autônoma, o seu caminho para um ponto de destino. O percurso deve ser planejado considerando os aspectos construtivos do veículo para que a viabilidade das manobras a serem executadas seja garantida. Este trabalho consiste no planejamento de trajetória para veículos autônomos com restrições não-holonômicas. Utilizam-se, para esse efeito, trajetórias cuja curvatura seja contínua e linear por partes, constituídas por clotóides, arcos de circunferência e retas, de forma a proporcionar conforto aos passageiros. A topologia de vias é modelada a partir de trajetórias definidas por pontos de GPS (Sistema de Posicionamento Global), definindo pistas, rotatórias e cruzamentos. Pontos de GPS são usados posteriormente para parametrizar as pistas usando clotóides a para extrair centros e raios das rotatórias. Essa abordagem proporciona um modelo esparso de topologia de vias uma vez que pontos de GPS são substituídos por curvas parametrizadas. A informação a cerca das conexões entre vias advinda do modelo é usada por um planejador de caminho global, o qual calcula a rota mais curta da posição atual do veículo até seu ponto de destino. Após essa etapa, planejadores calculam caminhos em cruzamentos e rotatórias dependendo do tipo de conexão entre as vias. Também, trocas de faixa devem ser executadas para obedecer regras de trânsito. Esses três planejadores de caminho usam clotóides, arcos de circunferência e retas como curvas interpoladoras, cuja curvatura é restrita a valores que o veículo é capaz de executar: o planejador de caminho em cruzamentos usa apenas um mínimo de velocidade de rotação do volante do veículo para executar a manobra, melhorando o nível de conforto; o planejador de caminho em rotatórias requer as coordenadas do centro e o raio da rotatória, bem como parâmetros que definem as manobras na entrada e na saída da rotatória para calcular o caminho; o planejador de caminho para troca de faixa conecta pistas pertencentes à mesma via com uma distância longitudinal do caminho previamente determinada. Ao final, um caminho com curvatura globalmente contínua é gerado. Como resultado deste trabalho, um cenário urbano real é modelado e os métodos propostos são validados.
- Published
- 2018
- Full Text
- View/download PDF
28. Controle robusto para robô manipulador espacial planar de base livre flutuante com dois braços
- Author
-
José Nuno Almeida Dias Bueno, Valdir Grassi Junior, Tatiana de Figueiredo Pereira Alves Taveira Pazelli, and Maíra Martins da Silva
- Abstract
Manipuladores robóticos têm ganhado cada vez mais importância em operações espaciais por poderem substituir humanos na realização de tarefas perigosas ou demasiadamente demoradas e repetitivas. Em destaque tem-se os manipuladores de base livre, por poderem ser acoplados a satélites ou estações espaciais e representarem um grande desafio para engenheiros de controle. Tais robôs possuem dois modos de operação: com base livre controlada e com base livre flutuante. No primeiro modo a base do manipulador tem atitude e translação controladas por jatos propulsores ou rodas de reação, de modo que o comportamento do robô se aproxima de um manipulador de base fixa. Porém, há um considerável consumo de combustível e energia elétrica, além de novos distúrbios que são inseridos no sistema. No segundo modo, considerado neste trabalho de mestrado, os controles da base são desligados durante a operação e ela pode mover-se livremente em resposta aos movimentos do braço. Embora tenha-se notável economia de combustível e energia elétrica, o acoplamento dinâmico entre base e braço deve ser considerado tanto na modelagem como no projeto do controlador. Para modelar o robô espacial considerado neste projeto foi aplicado o método do Manipulador Dinamicamente Equivalente, que mapeia um manipulador de base livre flutuante através de um robô sub-atuado de base fixa. Dessa forma é possível utilizar sobre robôs espaciais técnicas de controle já desenvolvidas para manipuladores terrestres. Este trabalho trata da análise de controladores robustos e adaptativo aplicados sobre um manipulador planar de base livre flutuante com dois braços para realizar a tarefa de seguimento de trajetórias definidas no espaço de tarefa. Os sistemas de controle considerados foram: Regulador Linear Quadrático Recursivo Robusto (RLQR), controlador H-infinito robusto e controlador adaptativo com modos deslizantes. Os resultados mostraram que os controladores apresentaram desempenhos distintos mas ainda assim foram capazes de realizar a tarefa de seguir trajetórias no espaço de trabalho com erros de acompanhamento bastante pequenos. Foi elaborada também uma comparação quantitativa através de índices de desempenho considerando integral de torques e norma L2 de erros de acompanhamento. Robotic manipulators gained greater importance in space operations by being able to replace humans in dangerous or very long and repetitive tasks. Free-floating manipulators are highlighted, because they can be coupled to satellites or space stations and represent a great challenge to control engineers. These robots have two operation modes: controlled base and free-floating base. In the first mode, the base has its attitude and translation controlled by propulsion jets or reaction wheels, so that the robot behavior is similar to a fixed-base manipulator. However, there is considerable fuel and electrical energy consumption, besides additional disturbances inserted in the system. In the second mode, which is considered in this work, the base is not controlled during operation and is able to move freely in response to movements of the arm. Even though there is a remarkable fuel and electrical energy saving, the dynamic coupling between base and arm must be taken into account during modelling and controller design. To model the space manipulator considered in this work the Dynamically Equivalent Manipulator method was used, which maps a free-floating manipulator into a underactuated fixed-base manipulator. Thus, it is possible to apply known control techniques for terrestrial manipulators on free-floating ones. This work discusses robust and adaptive controllers applied on a planar dual-arm free-floating space manipulator in order to track trajectories defined in the workspace. The considered control systems are: Robust Recursive Linear Quadratic Regulator, Robust H-infinity and Adaptive Sliding Modes. Results showed that the controllers had distinct performances but were still able to perform trajectory tracking in workspace with very small tracking errors. A quantitative comparison was also elaborated with performance indexes considering integral of torques and L2 norm of tracking errors.
- Published
- 2018
- Full Text
- View/download PDF
29. Road features detection and sparse map-based vehicle localization in urban environments
- Author
-
Alberto Yukinobu Hata, Denis Fernando Wolf, Rafael Vidal Aróca, Valdir Grassi Junior, Guilherme Augusto Silva Pereira, and João Luis Garcia Rosa
- Subjects
Geography ,business.industry ,Monte Carlo localization ,Computer vision ,Artificial intelligence ,business - Abstract
Localization is one of the fundamental components of autonomous vehicles by enabling tasks as overtaking, lane keeping and self-navigation. Urban canyons and bad weather interfere with the reception of GPS satellite signal which prohibits the exclusive use of such technology for vehicle localization in urban places. Alternatively, map-aided localization methods have been employed to enable position estimation without the dependence on GPS devices. In this solution, the vehicle position is given as the place that best matches the sensor measurement to the environment map. Before building the maps, feature sof the environment must be extracted from sensor measurements. In vehicle localization, curbs and road markings have been extensively employed as mapping features. However, most of the urban mapping methods rely on a street free of obstacles or require repetitive measurements of the same place to avoid occlusions. The construction of an accurate representation of the environment is necessary for a proper match of sensor measurements to the map during localization. To prevent the necessity of a manual process to remove occluding obstacles and unobserved areas, a vehicle localization method that supports maps built from partial observations of the environment is proposed. In this localization system,maps are formed by curb and road markings extracted from multilayer laser sensor measurements. Curb structures are detected even in the presence of vehicles that occlude the roadsides, thanks to the use of robust regression. Road markings detector employs Otsu thresholding to analyze infrared remittance data which makes the method insensitive to illumination. Detected road features are stored in two map representations: occupancy grid map (OGM) and Gaussian process occupancy map (GPOM). The first approach is a popular map structure that represents the environment through fine-grained grids. The second approach is a continuous representation that can estimate the occupancy of unseen areas. The Monte Carlo localization (MCL) method was adapted to support the obtained maps of the urban environment. In this sense, vehicle localization was tested in an MCL that supports OGM and an MCL that supports GPOM. Precisely, for MCL based on GPOM, a new measurement likelihood based on multivariate normal probability density function is formulated. Experiments were performed in real urban environments. Maps were built using sparse laser data to verify there ronstruction of non-observed areas. The localization system was evaluated by comparing the results with a high precision GPS device. Results were also compared with localization based on OGM. No contexto de veículos autônomos, a localização é um dos componentes fundamentais, pois possibilita tarefas como ultrapassagem, direção assistida e navegação autônoma. A presença de edifícios e o mau tempo interferem na recepção do sinal de GPS que consequentemente dificulta o uso de tal tecnologia para a localização de veículos dentro das cidades. Alternativamente, a localização com suporte aos mapas vem sendo empregada para estimar a posição sem a dependência do GPS. Nesta solução, a posição do veículo é dada pela região em que ocorre a melhor correspondência entre o mapa do ambiente e a leitura do sensor. Antes da criação dos mapas, características dos ambientes devem ser extraídas a partir das leituras dos sensores. Dessa forma, guias e sinalizações horizontais têm sido largamente utilizados para o mapeamento. Entretanto, métodos de mapeamento urbano geralmente necessitam de repetidas leituras do mesmo lugar para compensar as oclusões. A construção de representações precisas dos ambientes é essencial para uma adequada associação dos dados dos sensores como mapa durante a localização. De forma a evitar a necessidade de um processo manual para remover obstáculos que causam oclusão e áreas não observadas, propõe-se um método de localização de veículos com suporte aos mapas construídos a partir de observações parciais do ambiente. No sistema de localização proposto, os mapas são construídos a partir de guias e sinalizações horizontais extraídas a partir de leituras de um sensor multicamadas. As guias podem ser detectadas mesmo na presença de veículos que obstruem a percepção das ruas, por meio do uso de regressão robusta. Na detecção de sinalizações horizontais é empregado o método de limiarização por Otsu que analisa dados de reflexão infravermelho, o que torna o método insensível à variação de luminosidade. Dois tipos de mapas são empregados para a representação das guias e das sinalizações horizontais: mapa de grade de ocupação (OGM) e mapa de ocupação por processo Gaussiano (GPOM). O OGM é uma estrutura que representa o ambiente por meio de uma grade reticulada. OGPOM é uma representação contínua que possibilita a estimação de áreas não observadas. O método de localização por Monte Carlo (MCL) foi adaptado para suportar os mapas construídos. Dessa forma, a localização de veículos foi testada em MCL com suporte ao OGM e MCL com suporte ao GPOM. No caso do MCL baseado em GPOM, um novo modelo de verossimilhança baseado em função densidade probabilidade de distribuição multi-normal é proposto. Experimentos foram realizados em ambientes urbanos reais. Mapas do ambiente foram gerados a partir de dados de laser esparsos de forma a verificar a reconstrução de áreas não observadas. O sistema de localização foi avaliado por meio da comparação das posições estimadas comum GPS de alta precisão. Comparou-se também o MCL baseado em OGM com o MCL baseado em GPOM, de forma a verificar qual abordagem apresenta melhores resultados.
- Published
- 2018
- Full Text
- View/download PDF
30. Localização topológica e identificação de obstáculos por meio de sensor laser 3D (LIDAR) para aplicação em navegação de veículos autônomos terrestres
- Author
-
Danilo Habermann, Fernando Santos Osório, Kalinka Regina Lucas Jaquie Castelo Branco, Janito Vaqueiro Ferreira, Valdir Grassi Junior, and Ivan Nunes da Silva
- Abstract
O emprego de veículos terrestres autônomos tem se tornado cada vez mais comum nos últimos anos em aplicações civis e militares. Eles podem ser úteis para as pessoas com necessidades especiais e para reduzir os acidentes de trânsito e o número de baixas em combate. Esta tese aborda o problema da classificação de obstáculos e da localização do veículo em relação a um mapa topológico, sem fazer uso de GPS e de mapas digitais detalhados. Um sensor laser 3D é usado para coletar dados do ambiente. O sistema de classificação de obstáculos extrai as features da nuvem de pontos e usam-nas para alimentar um classificador que separa os dados em quatro classes: veículos, pessoas, construções, troncos de árvores e postes. Durante a extração de features, um método original para transformar uma nuvem 3D em um grid 2D é proposto, o que ajuda a reduzir o tempo de processamento. As interseções de vias de áreas urbanas são detectadas e usadas como landmarks em um mapa topológico. O sistema consegue obter a localização do veículo, utilizando os pontos de referência, e identifica as mudanças de direção do veículo quando este passa pelos cruzamentos. Os experimentos demonstraram que o sistema foi capaz de classificar corretamente os obstáculos e localizar-se sem o uso de sinais de GPS. The employment of autonomous ground vehicles, both in civilian and military applications, has become increasingly common over the past few years. Those vehicles can be helpful for disabled people and also to reduce traffic accidents. In this thesis, approaches to the problem of obstacles classification and the localization of the vehicle in relation to a topologic map are presented. GPS devices and previous digital maps are not employed. A 3D laser sensor is used to collect data from the environment. The obstacle classification system extracts features from point clouds and uses them to feed a classifier which separates data into four classes: vehicle, people, building and light poles/ trees. During the feature extraction, an original method to transform 3D to 2D data is proposed, which helps to reduce the processing time. Crossing roads are detected and used as landmarks in a topological map. The vehicle performs self-localization using the landmarks and identifying direction changes through the crossing roads. Experiments demonstrated that system was able to correctly classify obstacles and to localize itself without using GPS signals.
- Published
- 2018
- Full Text
- View/download PDF
31. Extração de atributos robustos a partir de nuvens de pontos 3D
- Author
-
Carlos André Braile, Przewodowski Filho, Fernando Santos Osório, João do Espírito Santo Batista Neto, Valdir Grassi Junior, and Eduardo Todt
- Subjects
Computer science ,business.industry ,Feature extraction ,Point cloud ,Pattern recognition ,Artificial intelligence ,business - Abstract
Computer vision is a research field in which images are the main object of study. One of its category of problems is shape description. Object classification is one important example of applications using shape descriptors. Usually, these processes were performed on 2D images. With the large-scale development of new technologies and the affordable price of equipment that generates 3D images, computer vision has adapted to this new scenario, expanding the classic 2D methods to 3D. However, it is important to highlight that 2D methods are mostly dependent on the variation of illumination and color, while 3D sensors provide depth, structure/3D shape and topological information beyond color. Thus, different methods of shape descriptors and robust attributes extraction were studied, from which new attribute extraction methods have been proposed and described based on 3D data. The results obtained from well known public datasets have demonstrated their efficiency and that they compete with other state-of-the-art methods in this area: the RPHSD (a method proposed in this dissertation), achieved 85:4% of accuracy on the University of Washington RGB-D dataset, being the second best accuracy on this dataset; the COMSD (another proposed method) has achieved 82:3% of accuracy, standing at the seventh position in the rank; and the CNSD (another proposed method) at the ninth position. Also, the RPHSD and COMSD methods have relatively small processing complexity, so they achieve high accuracy with low computing time. Visão computacional é uma área de pesquisa em que as imagens são o principal objeto de estudo. Um dos problemas abordados é o da descrição de formatos (em inglês, shapes). Classificação de objetos é um importante exemplo de aplicação que usa descritores de shapes. Classicamente, esses processos eram realizados em imagens 2D. Com o desenvolvimento em larga escala de novas tecnologias e o barateamento dos equipamentos que geram imagens 3D, a visão computacional se adaptou para este novo cenário, expandindo os métodos 2D clássicos para 3D. Entretanto, estes métodos são, majoritariamente, dependentes da variação de iluminação e de cor, enquanto os sensores 3D fornecem informações de profundidade, shape 3D e topologia, além da cor. Assim, foram estudados diferentes métodos de classificação de objetos e extração de atributos robustos, onde a partir destes são propostos e descritos novos métodos de extração de atributos a partir de dados 3D. Os resultados obtidos utilizando bases de dados 3D públicas conhecidas demonstraram a eficiência dos métodos propóstos e que os mesmos competem com outros métodos no estado-da-arte: o RPHSD (um dos métodos propostos) atingiu 85:4% de acurácia, sendo a segunda maior acurácia neste banco de dados; o COMSD (outro método proposto) atingiu 82:3% de acurácia, se posicionando na sétima posição do ranking; e o CNSD (outro método proposto) em nono lugar. Além disso, os métodos RPHSD têm uma complexidade de processamento relativamente baixa. Assim, eles atingem uma alta acurácia com um pequeno tempo de processamento.
- Published
- 2018
32. Stereo cameras systems evaluation and proposal for pedestrian detection on intelligent vehicles
- Author
-
Angelica Tiemi Mizuno Nakamura, Valdir Grassi Junior, Fernando Santos Osório, and Raquel Frizera Vassallo
- Abstract
Detecção de pedestres é uma importante área em visão computacional com o potencial de salvar vidas quando aplicada em veículos. Porém, essa aplicação exige detecções em tempo real, com alta acurácia e menor quantidade de falsos positivos possível. Durante os últimos anos, diversas ideias foram exploradas e os métodos mais recentes que utilizam arquiteturas profundas de redes neurais possibilitaram um grande avanço nesta área, melhorando significativamente o desempenho das detecções. Apesar desse progresso, a detecção de pedestres que estão distantes do veículo continua sendo um grande desafio devido às suas pequenas escalas na imagem, sendo necessária a avaliação da eficácia dos métodos atuais em evitar ou atenuar a gravidade dos acidentes de trânsito que envolvam pedestres. Dessa forma, como primeira proposta deste trabalho, foi realizado um estudo para avaliar a aplicabilidade dos métodos estado-da-arte para evitar colisões em cenários urbanos. Para isso, a velocidade e dinâmica do veículo, o tempo de reação e desempenho dos métodos de detecção foram considerados. Através do estudo, observou-se que em ambientes de tráfego rápido ainda não é possível utilizar métodos visuais de detecção de pedestres para assistir o motorista, pois nenhum deles é capaz de detectar pedestres que estão distantes do veículo e, ao mesmo tempo, operar em tempo real. Mas, ao considerar apenas pedestres em maiores escalas, os métodos tradicionais baseados em janelas deslizantes já conseguem atingir um bom desempenho e rápida execução. Dessa forma, com a finalidade de restringir a operação dos detectores apenas para pedestres em maiores escalas e assim, possibilitar a aplicação de métodos visuais em veículos, foi proposta uma configuração de câmeras que possibilitou obter imagens para um maior intervalo de distância à frente do veículo com pedestres em resolução quase duas vezes maior em comparação à uma câmera comercial. Resultados experimentais mostraram considerável melhora no desempenho das detecções, possibilitando superar a dificuldade causada pelas pequenas escalas dos pedestres nas imagens. Pedestrian detection is an important area in computer vision with the potential to save lives when applied on vehicles. This application requires accurate detections and real-time operation, keeping the number of false positives as minimal as possible. Over the past few years, several ideas were explored, including approaches with deep network architectures, which have reached considerably better performances. However, detecting pedestrians far from the camera is still challenging due to their small sizes on images, making it necessary to evaluate the effectiveness of existing approaches on avoiding or reducing traffic accidents that involves pedestrians. Thus, as the first proposal of this work, a study was done to verify the state-of-the-art methods applicability for collision avoidance in urban scenarios. For this, the speed and dynamics of the vehicle, the reaction time and performance of the detection methods were considered. The results from this study show that it is still not possible to use a vision-based pedestrian detector for driver assistance on urban roads with fast moving traffic, since none of them is able to handle real-time pedestrian detection. However, for large-scale pedestrians on images, methods based on sliding window approach can already perform reliably well with fast inference time. Thus, in order to restrict the operation of detectors only for pedestrians in larger scales and enable the application of vision-based methods in vehicles, it was proposed a camera setup that provided to get images for a larger range of distances in front of the vehicle with pedestrians resolution almost twice as large compared to a commercial camera. Experimental results reveal a considerable enhancement on detection performance, overcoming the difficulty caused by the reduced scales that far pedestrians have on images.
- Published
- 2017
33. 3D feature extraction for objects recognition in point clouds
- Author
-
Daniel Oliva Sales, Fernando Santos Osório, Kalinka Regina Lucas Jaquie Castelo Branco, Valdir Grassi Junior, Lucio André de Castro Jorge, and Ivan Nunes da Silva
- Subjects
Computer science - Abstract
A detecção e reconhecimento de objetos é uma tarefa fundamental em aplicações relacionadas à navegação autônoma de robôs móveis e veículos inteligentes. Com a evolução tecnológica nos sistemas sensoriais, surgiram equipamentos capazes de detectar e representar os elementos presentes no ambiente de forma tridimensional, em estruturas chamadas nuvem de pontos. Os sensores 3D geralmente capturam um grande volume de pontos em curtos intervalos de tempo, o que demanda técnicas robustas para processamento dessa informação além de tolerância a eventuais ruídos nos dados. Uma abordagem frequentemente utilizada na área de Visão Computacional para redução de dimensionalidade é a extração de features robustas, armazenando um subconjunto de informações representativas e simplificadas do conjunto de dados. Esta tese apresenta uma metodologia de classificação de objetos em nuvens de pontos 3D através da extração de features 3D globais. Foi desenvolvido um novo descritor 3D invariante à escala, translação e rotação denominado 3D-CSD (3D-Contour Sample Distances) para representação da superfície dos objetos presentes no ambiente, e utilizado um método de aprendizado supervisionado para reconhecimento de padrões. Os experimentos realizados envolveram o uso de Redes Neurais Artificiais para o reconhecimento de diferentes classes de objetos, avaliando e validando a metodologia proposta. Os resultados obtidos demostraram a viabilidade da aplicação desta abordagem para o reconhecimento de objetos em sistemas de percepção 3D. Objects detection and recognition is a critical task in applications for mobile robots and intelligent vehicles autonomous navigation. With the advent of many 3D sensors, environment elements can be detected and represented in three-dimensional mode, in structures known as point clouds. 3D sensors usually capture a large amount of points at high rates, requiring robust techniques to process this information and also deal with noise on input data. A common approach in the Computer Vision field for dimensionality reduction is the use of robust features extraction techniques. This way, only a subset with representative and simplified information from the dataset is processed. This thesis presents a methodology for objects recognition in 3D point clouds using global 3D features extraction. A novel 3D descriptor invariant to scale, translation and rotation named 3D-CSD (3D-Contour Sample Distances) was developed to represent the objects surface, and a supervised learning method used for pattern recognition. The experiments were performed using Artificial Neural Networks for the recognition of different classes of objects, evaluating and validating the proposed methodology. Obtained results demonstrated the feasibility of this approach application for object recognition in 3D perception systems.
- Published
- 2017
34. Método de estimativa de torque da articulação do joelho baseada em EMG
- Author
-
Boris Stheven, Sullcahuaman Jauregui, Adriano Almeida Gonçalves Siqueira, Valdir Grassi Junior, and Luciano Luporini Menegaldo
- Abstract
Este trabalho apresenta um método de estimativa de torque do joelho baseado em sinais eletromiográficos (EMG) durante terapia de reabilitação robótica. Os EMGs, adquiridos de cinco músculos envolvidos no movimento de flexão e extensão do joelho, são processados para encontrar as ativações musculares. Em seguida, mediante um modelo simples de contração muscular, são calculadas as forças e, usando a geometria da articulação, o torque do joelho. As funções de ativação e contração musculares possuem parâmetros limitados que devem ser calibrados para cada usuário, sendo o ajuste feito mediante a minimização do erro entre o torque estimado e o torque medido na articulação usando a dinâmica inversa. São comparados dois métodos iterativos para funções não-lineares como técnicas de otimização restrita para a calibração dos parâmetros: Gradiente Descendente e Quasi-Newton. O processamento de sinais, calibração de parâmetros e cálculo de torque estimado foram desenvolvidos no software MATLAB®; o cálculo de torque medido foi feito no software OpenSim com sua ferramenta de dinâmica inversa. This work presents a method for knee torque estimation based on electromyographic signals (EMG) during robotic rehabilitation therapy. EMG, taken from five muscles acting during flexion and extension movements of the knee joint, are processed to get the muscle activations. Then, through a simple model of muscle contraction, the forces are computed and knee torque estimated using the joint geometry. Muscle activation and muscle contraction functions have bounded parameters to be adjusted for each user. This adjustment is made by minimizing the error between the estimated torque and the measured torque in the joint computed via inverse dynamics. Two iterative methods for constrained nonlinear optimization are compared, escending Gradient and Quasi-Newton. Signal processing, parameters calibration and estimated torque calculation are developed in the MATLAB® software. Measured torque calculation is performed on OpenSim software using the dynamic inverse tool.
- Published
- 2017
- Full Text
- View/download PDF
35. Fusão de informações obtidas a partir de múltiplas imagens visando à navegação autônoma de veículos inteligentes em abiente agrícola
- Author
-
Vítor Manha Utino, Fernando Santos Osório, Valdir Grassi Junior, and Emerson Carlos Pedrino
- Abstract
Este trabalho apresenta um sistema de auxilio à navegação autônoma para veículos terrestres com foco em ambientes estruturados em um cenário agrícola. É gerada a estimativa das posições dos obstáculos baseado na fusão das detecções provenientes do processamento dos dados de duas câmeras, uma estéreo e outra térmica. Foram desenvolvidos três módulos de detecção de obstáculos. O primeiro módulo utiliza imagens monoculares da câmera estéreo para detectar novidades no ambiente através da comparação do estado atual com o estado anterior. O segundo módulo utiliza a técnica Stixel para delimitar os obstáculos acima do plano do chão. Por fim, o terceiro módulo utiliza as imagens térmicas para encontrar assinaturas que evidenciem a presença de obstáculo. Os módulos de detecção são fundidos utilizando a Teoria de Dempster-Shafer que fornece a estimativa da presença de obstáculos no ambiente. Os experimentos foram executados em ambiente agrícola real. Foi executada a validação do sistema em cenários bem iluminados, com terreno irregular e com obstáculos diversos. O sistema apresentou um desempenho satisfatório tendo em vista a utilização de uma abordagem baseada em apenas três módulos de detecção com metodologias que não tem por objetivo priorizar a confirmação de obstáculos, mas sim a busca de novos obstáculos. Nesta dissertação são apresentados os principais componentes de um sistema de detecção de obstáculos e as etapas necessárias para a sua concepção, assim como resultados de experimentos com o uso de um veículo real. This work presents a support system to the autonomous navigation for ground vehicles with focus on structured environments in an agricultural scenario. The estimated obstacle positions are generated based on the fusion of the detections from the processing of data from two cameras, one stereo and other thermal. Three modules obstacle detection have been developed. The first module uses monocular images of the stereo camera to detect novelties in the environment by comparing the current state with the previous state. The second module uses Stixel technique to delimit the obstacles above the ground plane. Finally, the third module uses thermal images to find signatures that reveal the presence of obstacle. The detection modules are fused using the Dempster-Shafer theory that provides an estimate of the presence of obstacles in the environment. The experiments were executed in real agricultural environment. System validation was performed in well-lit scenarios, with uneven terrain and different obstacles. The system showed satisfactory performance considering the use of an approach based on only three detection modules with methods that do not prioritize obstacle confirmation, but the search for new ones. This dissertation presents the main components of an obstacle detection system and the necessary steps for its design as well as results of experiments with the use of a real vehicle.
- Published
- 2017
- Full Text
- View/download PDF
36. Estimação de navegabilidade para veículos autônomos usando aprendizado de máquina
- Author
-
Caio César Teodoro Mendes, Denis Fernando Wolf, Heloisa de Arruda Camargo, Valdir Grassi Junior, Roseli Aparecida Francelin Romero, and Alberto Ferreira de Souza
- Subjects
Estimation ,Stereopsis ,business.industry ,Computer science ,Deep learning ,Navigability ,Artificial intelligence ,business ,Machine learning ,computer.software_genre ,computer - Abstract
Autonomous navigation in outdoor, unstructured environments is one of the major challenges presents in the robotics field. One of its applications, intelligent autonomous vehicles, has the potential to decrease the number of accidents on roads and highways, increase the efficiency of traffic on major cities and contribute to the mobility of the disabled and elderly. For a robot/vehicle to safely navigate, accurate detection of navigable areas is essential. In this work, we address the task of visual road detection where, given an image, the objective is to classify its pixels into road or non-road. Instead of trying to manually derive an analytical solution for the task, we have used machine learning (ML) to learn it from a set of manually created samples. We have applied both traditional (shallow) and deep ML models to the task. Our main contribution regarding traditional ML models is an efficient and versatile way to aggregate spatially distant features, effectively providing a spatial context to such models. As for deep learning models, we have proposed a new neural network architecture focused on processing time and a new neural network layer called the semi-global layer, which efficiently provides a global context for the model. All the proposed methodology has been evaluated in the Karlsruhe Institute of Technology (KIT) road detection benchmark, achieving, in all cases, competitive results. A navegação autônoma em ambientes externos não estruturados é um dos maiores desafios no campo da robótica. Uma das suas aplicações, os veículos inteligentes autônomos, tem o potencial de diminuir o número de acidentes nas estradas e rodovias, aumentar a eficiência do tráfego nas grandes cidades e contribuir para melhoria da mobilidade de deficientes e idosos. Para que um robô/veículo navegue com segurança, uma detecção precisa de áreas navegáveis é essencial. Neste trabalho, abordamos a tarefa de detecção visual de ruas onde, dada uma imagem, o objetivo é classificar cada um de seus pixels em rua ou não-rua. Ao invés de tentar derivar manualmente uma solução analítica para a tarefa, usamos aprendizado de máquina (AM) para aprendê-la a partir de um conjunto de amostras criadas manualmente. Nós utilizamos tanto modelos tradicionais (superficiais) quanto modelos profundos para a tarefa. A nossa principal contribuição em relação aos modelos tradicionais é uma forma eficiente e versátil de agregar características espacialmente distantes, fornecendo efetivamente um contexto espacial para esses modelos. Quanto aos modelos de aprendizagem profunda, propusemos uma nova arquitetura de rede neural focada no tempo de processamento e uma nova camada de rede neural, chamada camada semi-global, que fornece eficientemente um contexto global ao modelo. Toda a metodologia proposta foi avaliada no benchmark de detecção de ruas do Instituto de Tecnologia de Karlsruhe, alcançando, em todos os casos, resultados competitivos.
- Published
- 2017
37. Detecção e classificação de objetos em imagens para rastreamento de veículos
- Author
-
Raphael Montanari, Roseli Aparecida Francelin Romero, Valdir Grassi Junior, and Flavio Tonidandel
- Abstract
A robótica é uma área multidisciplinar que cresce continuamente com a contribuição do avanço científico e aumento frequente do poder computacional do hardware. As pesquisas em robótica estão divididas em diversas linhas de investigação. A visão computacional é uma das linhas de pesquisa de grande interesse devido à farta variedade de métodos e técnicas oferecidas. Um dos maiores desafios para os robôs é descobrir e analisar o ambiente em que estão inseridos. Dentre os principais sensores que podem ser utilizados, as câmeras digitais oferecem um bom benefício: podem ser leves, pequenas e baratas, características fundamentais para alguns robôs. Este trabalho propõe o desenvolvimento e análise de um sistema de visão computacional para rastrear veículos usando sistemas de detecção e classificação de segmentos em imagens. Para atingir os objetivos são investigados métodos de extração de informações das imagens, modelos de atenção visual e modelos de aprendizado bioinspirados para detecção e classificação de veículos. Para a tarefa de atenção visual foram utilizadas as técnicas de geração de mapas de saliência iNVT e VOCUS2, enquanto que para classificação foi empregada a técnicas bag-of-features e finalmente, para o rastreamento do veículo especificado, durante seu percurso em uma rodovia, foi adotada a técnica Camshift com filtro de Kalman. O sistema desenvolvido foi implementado com um robô aéreo e testado com imagens reais contendo diferentes veículos em uma rodovia e os resultados de classificação e rastreamento obtidos foram muito satisfatórios. Robotics is a multidisciplinary area that continually grows with the contribution of scientific advancement and frequent increase in computational hardware power. Research in robotics are divided into several lines of investigation. Computer vision is one of the research areas of great interest due to the abundant variety of methods and techniques offered. One of the biggest challenges for the robots is to discover and analyze the environment in which they are inserted. Among the main sensors that can be used, digital cameras offer good benefits: they can be lightweitgh, small and cheap, which are fundamental characteristics for some robots. This work undertakes the development and analysis of a computer vision system to track vehicles by detecting and classifying segments in imaging systems. To achieve the objectives, methods on image information extraction, visual attention models and bioinspired learning models were studied for detection and classification of vehicles. For the task of visual attention the INVT and VOCUS2 models were used to generate saliency maps, while for classification was applied the bag-of-features method and finally to track the specified vehicle during its journey on a highway, it was adopted CamShift technique joint with a Kalman filter. The developed system was implemented with an aerial robot and tested with real images containing different vehicles on a highway and the results of classification and tracking obtained were very satisfactory.
- Published
- 2017
- Full Text
- View/download PDF
38. Estimação de probabilidade de colisão com obstáculos móveis para navegação autônoma
- Author
-
Felipe Taha Sant'Ana, Valdir Grassi Junior, Marco Henrique Terra, and Denis Fernando Wolf
- Subjects
Computer science - Abstract
Na área de robótica móvel autônoma é importante que o robô siga uma trajetória livre de obstáculos. Estes podem ser desde obstáculos estáticos, como paredes e cadeiras em um ambiente interno, ou mesmo obstáculos móveis, como pessoas caminhando na calçada e carros passando pela rua, quando consideramos ambientes externos. No caso de um ambiente estático, o problema pode ser resolvido planejando uma trajetória livre de colisões, sendo que não é necessário um replanejamento se todos os obstáculos estáticos foram considerados. Para ambientes onde os obstáculos estão em constante movimento, é necessário um constante replanejamento da trajetória para que se evite colisões. Alternativamente, pode ser verificada a possibilidade de se manter na rota planejada, alterando apenas a velocidade de cruzeiro do robô para que este desvie dos obstáculos móveis. Este trabalho propõe uma metodologia para calcular uma velocidade de cruzeiro para o robô de forma a minimizar a probabilidade de colisão com os obstáculos detectados pelos seus sensores. A escolha da variação de velocidade para o robô considera a sua velocidade atual, e as velocidades estimadas para os obstáculos. A metodologia para resolução deste problema é apresentada considerando incertezas na posição do robô e obstáculos. São apresentados resultados de simulação que exemplificam a aplicação da metodologia. Following a free path is an important issue in the area of autonomous mobile robotics. The obstacles can be anything from walls and chairs in an indoor environment, or they can also be people walking on the sidewalk and cars moving through the street. In the case of a static environment, the problem can be solved by planning a path free from collisions, thus it is not essential another path planning as all static obstacles were considered. For an environment were the obstacles are constantly moving, it is necessary an unceasing path replanning to avoid possible collisions. Alternatively, keeping the robot on the previously calculated path can be verified modifying the robot\'s traffic velocity to avoid moving obstacles. Our proposal is to calculate a velocity for the robot which minimizes its collision probability with moving obstacles detected by its sensors. Varying the robot\'s velocity takes into account its current velocity and the estimated velocities of obstacles. The methodology for solving this problem is presented regarding uncertainties in robots and obstacles\' positions. Results from simulations that exemplifies an application for the methodology are presented.
- Published
- 2016
- Full Text
- View/download PDF
39. Modelagem e controle de robô manipulador de base livre flutuante com dois braços
- Author
-
Rayza Araújo Bezerra, Valdir Grassi Junior, Jaime Hideo Izuka, and Adriano Almeida Gonçalves Siqueira
- Subjects
Computer science - Abstract
A pesquisa na área de robótica espacial lida com problemas exclusivos, acarretados pela natureza e características dinâmicas dos sistemas. Isso torna a modelagem uma área de extrema importância para garantir um desempenho satisfatório. A maior característica dos braços robóticos espaciais é que seu movimento perturba a espaçonave na qual está acoplado. Essa propriedade deve ser levada em consideração, especialmente no caso de robôs de base livre flutuante que não possuem controle de posição ou atitude na base. A maior destreza e flexibilidade de manipuladores de múltiplos braços faz com que sua pesquisa seja colocada em foco. Eles possuem maior possibilidade de lidar com cargas maiores e fornecer maior acurácia em tarefas como montagens, reparos, abastecimento, etc. Nesse contexto, o presente trabalho tem como objetivo o desenvolvimento do modelo de um manipulador espacial de base livre flutuante de dois braços. Esse modelo, então, foi aplicado no desenvolvimento de um sistema de controle. A metodologia sugerida facilita, não só a obtenção do modelo, como também a especificação de controladores. Dois esquemas de controle foram desenvolvidos: um no espaço da tarefa e outro no espaço das juntas, com diferentes especificações de trajetórias. A simulação do sistema foi realizada no ambiente Simulink (MATLAB) e os resultados são discutidos, indicando as situações de falha dos controladores especificados. Space robotics research faces unique problems, which are mainly related to the intrinsic nature and dynamic characteristics of its systems. As a consequence, modelling becomes essential to guarantee the best system result. A important characteristic of space robotic arms is that their movements affect their bases position and attitude. This property must be taken into account, specially in the case of free floating space manipulators which have no control system for the base. High dexterity and flexibility of multi-arm manipulators cause their research to be a focus for the community. With higher loads and accuracy demands, they are more likely to suceed in tasks such as maintenance, assembly, refueling, among others. In that context, this thesis aims to develop a model for a dual-arm free-floating space manipulator. The model, then, is used in the design of a control system. The suggested methodology makes the process easier not only the modelling, but also the controller design. Two control schemes were developed: one in joint and the other in task space, with different trajectories. System simulations were run on Simulink (MATLAB) and the obtained results were discussed, with comments regarding fault situations for the specified control systems.
- Published
- 2016
- Full Text
- View/download PDF
40. Planejamento de rota para manipulador espacial planar de base livre flutuante utilizando o algoritmo RRT
- Author
-
João Roberto Soares Benevides, Valdir Grassi Junior, Bruno Vilhena Adorno, and Adriano Almeida Gonçalves Siqueira
- Abstract
Como tópico de fundamental importância na robótica, o planejamento de rotas tem encontrado excelentes resultados nos últimos anos através da utilização de algoritmos baseados no conceito de árvore de exploração rápida, RRT. No entanto, a aplicação desses métodos em sistemas robóticos espaciais revela um cenário ainda a ser explorado. O comportamento não-holonômico e a presença de singularidades dinâmicas são alguns fatores que dificultam a consideração de obstáculos no planejamento de rotas desses sistemas. Além disso, os trabalhos relacionados ao planejamento de movimento para manipuladores espaciais mostram-se concentrados na estratégia ponto-a-ponto, com interesse especial nos aspectos particulares da dinâmica desses sistemas. De modo geral, para manipuladores espaciais, o planejamento de trajetória envolvendo o desvio de obstáculos depende de uma rota previamente computada. Contudo, essa tarefa carece de formulações ou técnicas solidificadas, sobretudo para manipuladores espaciais de base livre flutuante. Com esta motivação, o trabalho proposto nesta dissertação de mestrado cria um planejador de rotas com suporte a desvio de obstáculos para um manipulador espacial planar de base livre flutuante. O modelo dinâmico utilizado é baseado no conceito de manipulador dinamicamente equivalente e incorporado a um algoritmo baseado no conceito de RRT. As major challenge in the field of robotics, path planning has experienced successful results in recent years by means of the RRT algorithm. However, the application of such algorithms in space manipulators reveals a scenario yet to be explored. The non-holonomic behavior, added to the presence of dynamic singularities are only a few factors that make collision-avoidance path planning of these systems such a hard task. Besides, works in the field of motion planning of space manipulators often concentrate in the strategy pointto- point, with particular interest in the complex dynamics of such systems. As a rule of thumb, collision-avoidance for space manipulators depends on a previous computed path. However, this task still lacks robust formulations, specially in the case of free-floating manipulators. With this motivation, the proposed work creates a collision-avoiding path planning for a free-floating planar manipulator. The dynamic model is based on the Dynamically Equivalent Manipulator and the concept of Rapidly-Exploring Random Trees serves as a frame for the developed algorithm.
- Published
- 2016
- Full Text
- View/download PDF
41. Planejamento de trajetória para estacionamento de veículos autônomos
- Author
-
Marcos Gomes Prado, Denis Fernando Wolf, Valdir Grassi Junior, and Adriane Beatriz de Souza Serapião
- Subjects
Computer science - Abstract
A navegação autônoma é um dos problemas fundamentais na área de robótica móvel. Esse problema vem sendo pesquisado nessa área por décadas e ainda apresenta um grande potencial para pesquisas científicas. A maior parte dos algoritmos e soluções desenvolvidas nessa área foi concebida para que robôs operem em ambientes estruturados. No entanto, outra questão de grande interesse para pesquisadores da área é a navegação em ambientes externos. Em ambientes não estruturado os veículos autônomos (robôs de grande porte) devem ser capazes de desviar de obstáculos, que eventualmente apareçam no caminho. Esta dissertação aborda o desenvolvimento de um sistema inteligente capaz de gerar e executar um planejamento de caminho para o estacionamento de veículos autônomos em ambientes semi-estruturados. O sistema é capaz de reconhecer vagas de estacionamento por meio de sensores instalados no veículo, gerar uma trajetória válida que o conduza até a vaga e enviar os comandos de esterçamento e aceleração que guiam o veículo pelo caminho gerado Autonomous navigation is one of the fundamental problems in mobile robotics. This problem has been addressed for decades and still has great potential for scientific research. Most solutions and algorithms developed in this field is designed for robots that operate in structured environments. However, another issue of great interest to researchers in this area is autonomous navigation in outdoor environments. In partially structured environments autonomous vehicles (large robots) must be able to avoid obstacles that may arise along the way. This dissertation addresses the development of an intelligent system able to generate and run a path planning for parking of autonomous vehicles in semi-structured environments. The system is able to recognize parking lots using sensors installed in the vehicle, generate a valid path that leads up to the parking lot and send the steering commands and acceleration that to guide the vehicle to its goal point
- Published
- 2015
- Full Text
- View/download PDF
42. Navegação de robôs móveis utilizando visão estéreo
- Author
-
Caio César Teodoro Mendes, Denis Fernando Wolf, Valdir Grassi Junior, and Roseli Aparecida Francelin Romero
- Abstract
Navegação autônoma é um tópico abrangente cuja atenção por parte da comunidade de robôs móveis vemaumentando ao longo dos anos. O problema consiste em guiar um robô de forma inteligente por um determinado percurso sem ajuda humana. Esta dissertação apresenta um sistema de navegação para ambientes abertos baseado em visão estéreo. Uma câmera estéreo é utilizada na captação de imagens do ambiente e, utilizando o mapa de disparidades gerado por um método estéreo semi-global, dois métodos de detecção de obstáculos são utilizando para segmentar as imagens em regiões navegáveis e não navegáveis. Posteriormente esta classificação é utilizada em conjunto com um método de desvio de obstáculos, resultando em um sistema completo de navegação autônoma. Os resultados obtidos por está dissertação incluem a avaliação de dois métodos estéreo, esta sendo favorável ao método estéreo empregado (semi-global). Foram feitos testes visando avaliar a qualidade e custo computacional de dois métodos para detecção de obstáculos, um baseado em plano e outro baseado em cone. Tais testes deixaram claras as limitações de ambos os métodos e levaram a uma implementação paralela do método baseado em cone. Utilizando uma unidade de processamento gráfico, a versão paralelizada do método baseado em cone atingiu um ganho no tempo computacional de aproximadamente dez vezes. Por fim, os resultados demonstrarão o sistema completo em funcionamento, onde a plataforma robótica utilizada, um veículo elétrico, foi capaz de desviar de pessoas e cones alcançando seu objetivo seguramente Autonomous navigation is a broad topic that has received increasing attention from the community of mobile robots over the years. The problem is to guide a robot in a smart way for a certain route without human help. This dissertation presents a navigation system for open environments based on stereo vision. A stereo camera is used to capture images of the environment and based on the disparity map generated by a semi-global stereo method, two obstacle detection methods are used to segment the images into navigable and non-navigable regions. Subsequently, this classification is employed in conjunction with a obstacle avoidance method, resulting in a complete autonomous navigation system. The results include an evaluation two stereo methods, this being favorable to the employed stereo method (semi-global). Tests were performed to evaluate the quality and computational cost of two methods for obstacle detection, a plane based one and a cone based. Such tests have left clear the limitations of both methods and led to a parallel implementation of the cone based method. Using a graphics processing unit, a parallel version of the cone based method reached a gain in computational time of approximately ten times. Finally, the results demonstrate the complete system in operation, where the robotic platform used, an electric vehicle, was able to dodge people and cones reaching its goal safely
- Published
- 2015
- Full Text
- View/download PDF
43. Sistema para localização robótica de veículos autônomos baseado em visão computacional por pontos de referência
- Author
-
Leandro Nogueira Couto, Fernando Santos Osório, Valdir Grassi Junior, and Roseli Aparecida Francelin Romero
- Abstract
A integração de sistemas de Visão Computacional com a Robótica Móvel é um campo de grande interesse na pesquisa. Este trabalho demonstra um método de localização global para Robôs Móveis Autônomos baseado na criação de uma memória visual, através da detecção e descrição de pontos de referência de imagens capturadas, com o método SURF, associados a dados de odometria, em um ambiente interno. O procedimento proposto, associado com conhecimento específico sobre o ambiente, permite que a localização seja obtida posteriormente pelo pareamento entre quadros memorizados e a cena atual observada pelo robô. Experimentos são conduzidos para mostrar a efetividade do método na localização robótica. Aprimoramentos para situações difíceis como travessia de portas são apresentados. Os resultados são analisados, e alternativas para navegação e possíveis futuros refinamentos discutidos Integration of Computer Vision and Mobile Robotics systems is a field of great interest in research. This work demonstrates a method of global localization for Autonomous Mobile Robots based on the creation of a visual memory map, through detection and description of reference points from captured images, using the SURF method, associated to odometer data in a specific environment. The proposed procedure, coupled with specific knowledge of the environment, allows for localization to be achieved at a later stage through pairing of these memorized features with the scene being observed in real time. Experiments are conducted to show the effectiveness of the method for the localization of mobile robots in indoor environments. Improvements aimed at difficult situations such as traversing doors are presented. Results are analyzed and navigation alternatives and possible future refinements are discussed
- Published
- 2015
- Full Text
- View/download PDF
44. Video stabilization system based on accelerometer, robust filtering and three-step search algorithm
- Author
-
Ayrton Galindo Bernardino Florêncio, Marco Henrique Terra, Valdir Grassi Junior, and Fernando Cesar Lizarralde
- Abstract
Câmeras embarcadas em sistemas robóticos móveis com sensoriamento visual geralmente são afetadas pelo movimento de seu suporte quando é necessária a aquisição de imagens com alta confiabilidade. Algumas câmeras disponíveis no mercado já estão equipadas com sistemas de estabilização de imagens, implementados nas lentes da câmera ou no sensor de imagem. Esses sistemas são relativamente caros para serem instalados em sistemas robóticos móveis aéreos ou terrestres de pequeno porte. Outro conceito que tem sido utilizado para alcançar a estabilização consiste em adotar sensores inerciais, algoritmos de visão computacional e aplicação de filtros digitais para estimativa e suavização de movimento. Esta dissertação tem por finalidade apresentar um sistema de estabilização digital de vídeo em conjunto com um acelerômetro para detectar movimentos da câmera. Considera-se que a câmera está instalada sobre plataforma instável ou em veículo em movimento, assim, utiliza-se filtragem robusta para minimizar o efeito da vibração sobre a câmera. Vários experimentos são realizados adicionando vibração em vídeo por meio de simulações em computador. Considera-se também experimentos em ambiente real com a câmera montada em um suporte dentro de um veículo em movimento. A principal contribuição deste trabalho é a realização de um estudo comparativo para analisar a vantagem de se usar uma abordagem robusta entre os métodos de filtragem comumente utilizados em sistemas de estabilização de vídeo. Embedded cameras in robotic systems usually are susceptible to movements of your basis. The measurements can be affected mainly when they should obtain high performance in actual applications. Although some cameras available on the market are already equipped with an optical image stabilization system, implemented either in the camera lenses or in the image sensor. They are usually expensive to be installed into small aerial or land robotic systems. This dissertation presents a video stabilization system coupled with an accelerometer for motion detection at an unstable platform. It is embedded in a vehicle. Robust filtering is used to minimize vibration effects on the camera. Several experiments were performed, adding either vibrations via computer simulations and taking images from the camera with the vehicle moving. The main contribution of this work is the accomplishment of a comparative study to analyse the advantages of applying a robust approach among others filtering methods that frequently are used to video stabilizing systems.
- Published
- 2015
45. An alert for remote monitoring of energy consumption using wireless sensor networks
- Author
-
Geraldo Pereira, Rocha Filho, Jo Ueyama, Valdir Grassi Junior, and Fábio Luciano Verdi
- Subjects
Computer science - Abstract
Determinar quais são os aparelhos eletrônicos de uma residência que possuem maior influência na conta de luz não é tarefa trivial. As Redes de Sensores Sem Fios (RSSF) auxiliam os usuários nessa tarefa, permitindo descobrir se há algum tipo de desperdício no ambiente monitorado e assim, auxiliá-los a fazer as devidas correções. Por isso, é fundamental usar nas smart grids métodos que detectam novidades, também conhecido como anomalias , de forma individual e autônoma, para os usuários quando algo anômalo surge no consumo de energia dos equipamentos eletrônicos. Tais anomalias podem surgir, por exemplo, quando um equipamento consome energia acima do esperado, o que pode indicar um defeito. Nesse contexto, este trabalho propõe um método inteligente, nomeado como Novelty Detection Power Meter (NodePM), para detectar as novidades no consumo de energia dos equipamentos eletrônicos monitorados por uma smart grid. O NodePM detecta as novidades considerando a entropia de cada equipamento monitorado, a qual é calculada com base em um modelo de cadeia de markov que é gerado através de um algoritmo de aprendizado de máquina. Para tanto, o NodePM é integrado a uma plataforma de monitoramento remoto de consumo de energia, que consiste de uma RSSF associada a uma aplicação em nuvem. Para validar o desempenho do NodePM foram feitos experimentos utilizando a análise de variância e testes paramétricos e não-paramétricos. Os resultados de tais experimentos, obtidos mediante a análise estatística, evidenciou a viabilidade do NodePM na plataforma desenvolvida It is not a simple task to determine which pieces of elevtronic equipment have the greatest influence on the electricity bill. The Wireless Sensor Networks (WSN) assist users in this task, allowing to discover if there is any type of a waste in a monitored environment and thus, help them to take proper actions. Hence, it is of crucial importance to use intelligent methods in the smart grids for a novelty detection and to inform the users in an individual and autonomous way when some anomaly has occurred in the energy consumption of electronic equipment. These anomalies can arise, for instance, when a piece of equipment consumes more energy than expected. In this context, we propose an intelligent method, named the Novelty Detection Power Meter (NodePM), to detect the novelties in the energy consumption of electonic equipment monitored by a smart grid. The NodePM detects the novelties considering the entropy of each device monitored, which is calculed based on a Markov chain model that is generated through a machine learning algorithm. For this end, the NodePM is integrated into a platform for the remote monitoring of energy consumption, which consists of a WSN associated with a cloud application. To validate the performance of the NodePM, experiments were done using analysis of variance and parametric and non-parametric tests. The result of these tests, which were obtained from a statistical analysis, provided evidence of the feasibility of the NodePM in the platform that was developed
- Published
- 2014
46. Autonomous navigation for mobile robots using supervised learning
- Author
-
Jefferson Rodrigo de Souza, Denis Fernando Wolf, Heloisa de Arruda Camargo, Valdir Grassi Junior, Josue Junior Guimarães Ramos, and João Luis Garcia Rosa
- Abstract
A navegação autônoma é um dos problemas fundamentais na área da robótica móvel. Algoritmos capazes de conduzir um robô até o seu destino de maneira segura e eficiente são um pré-requisito para que robôs móveis possam executar as mais diversas tarefas que são atribuídas a eles com sucesso. Dependendo da complexidade do ambiente e da tarefa que deve ser executada, a programação de algoritmos de navegação não é um problema de solução trivial. Esta tese trata do desenvolvimento de sistemas de navegação autônoma baseados em técnicas de aprendizado supervisionado. Mais especificamente, foram abordados dois problemas distintos: a navegação de robôs/- veículos em ambientes urbanos e a navegação de robôs em ambientes não estruturados. No primeiro caso, o robô/veículo deve evitar obstáculos e se manter na via navegável, a partir de exemplos fornecidos por um motorista humano. No segundo caso, o robô deve identificar e evitar áreas irregulares (maior vibração), reduzindo o consumo de energia. Nesse caso, o aprendizado foi realizado a partir de informações obtidas por sensores. Em ambos os casos, algoritmos de aprendizado supervisionado foram capazes de permitir que os robôs navegassem de maneira segura e eficiente durante os testes experimentais realizados Autonomous navigation is a fundamental problem in the field of mobile robotics. Algorithms capable of driving a robot to its destination safely and efficiently are a prerequisite for mobile robots to successfully perform different tasks that may be assigned to them. Depending on the complexity of the environment and the task to be executed, programming of navigation algorithms is not a trivial problem. This thesis approaches the development of autonomous navigation systems based on supervised learning techniques. More specifically, two distinct problems have been addressed: a robot/vehicle navigation in urban environments and robot navigation in unstructured environments. In the first case, the robot/vehicle must avoid obstacles and keep itself in the road based on examples provided by a human driver. In the second case, the robot should identify and avoid unstructured areas (higher vibration), reducing energy consumption. In this case, learning was based on information obtained by sensors. In either case, supervised learning algorithms have been capable of allowing the robots to navigate in a safe and efficient manner during the experimental tests
- Published
- 2014
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.