19 results on '"aprendizagem de máquina"'
Search Results
2. Aplicação de inteligência artificial através de algoritmos de aprendizagem de máquina para redução do número de OS em campo, baseado em falhas encontradas na linha de montagem de refrigeradores em uma indústria multinacional de bens de consumo.
- Author
-
Barroso de Oliveira, Joseffe, Santa Rosa Gino, João Vitor, Inácio da Silva Filho, João, and José de Lima, Carlos
- Abstract
Copyright of GeSec: Revista de Gestao e Secretariado is the property of Sindicato das Secretarias e Secretarios do Estado de Sao Paulo (SINSESP) and its content may not be copied or emailed to multiple sites or posted to a listserv without the copyright holder's express written permission. However, users may print, download, or email articles for individual use. This abstract may be abridged. No warranty is given about the accuracy of the copy. Users should refer to the original published version of the material for the full abstract. (Copyright applies to all Abstracts.)
- Published
- 2023
- Full Text
- View/download PDF
3. Projeto Mandamus: a inteligência artificial a serviço do processo judicial.
- Author
-
Moreira, Erica Barbosa Sousa
- Subjects
- *
ARTIFICIAL intelligence , *INDUSTRY 4.0 , *JUDICIAL process , *LEGAL judgments , *LEGAL procedure , *SUMMONS - Abstract
The twenty-first Century was marked by the Fourth Industrial Revolution, and some of its characteristcs are development of intelligent machines and systems, among other aspects. As in impact of this revolution, Brazilian Courts have been using artificial intelligence systems to map and develop solutions for specific problems, in order to offer make judicial process faster. One of the solutions created was "Projeto Mandamus". Developed by the University of Brasília -- UnB and Tribunal de Justiça de Roraima (TJRR), the project's purpose was to create an inteligente center of warrants to improve the process of summons and subpoena in some procedural classes. This paper analyses the research problem identified in the project, as well as detail the steps followed to develop a technological solution that created two robots responsibles for classifying judicial decisions, made to then automatically generate warrants and distribute them efficiently. which facilitated, optimized and improved the economy of Brazilian Courts and made judicial process faster. [ABSTRACT FROM AUTHOR]
- Published
- 2022
4. DETECÇÃO E RECONHECIMENTO DE PLANTAS DE PEQUENO PORTE UTILIZANDO APRENDIZAGEM DE MÁQUINA.
- Author
-
Verne, Thales Santos, Assis da Silva, Francisco, Luiz de Almeida, Leandro, Roberto Pereira, Danillo, and Olivette Artero, Almir
- Subjects
- *
ARTIFICIAL intelligence , *ARTIFICIAL vision , *COMPUTER vision , *CULTIVARS , *IMAGE recognition (Computer vision) , *PLANT classification , *PLANT identification - Abstract
The detection and recognition of plants has always been a difficult task even for connoisseurs and scholars due to the wide variety of plants found worldwide. With the advancement of technology, it has become possible to solve this problem computationally. This paper presents a method to perform plant detection and recognition from images using computer vision and artificial intelligence algorithms. The results show that the computational cost and recognition rate were satisfactory for use in controlled environments. The processing time to recognize each plant was 375 milliseconds, with an accuracy of 92%. [ABSTRACT FROM AUTHOR]
- Published
- 2022
- Full Text
- View/download PDF
5. Serenata de Amor: um Doce Não Tão Saboroso Love Serenade: a Sweet Not So Tasty.
- Author
-
Moraes, Thiago, Messias Valdevino, Antonio, and Lopes Nascimento, Anderson
- Abstract
Objective: This teaching case seeks to discuss the applications of a civic initiative to monitor public spending by federal deputies in Brazil. Data Source: It is an open Data Science project that uses the same artificial intelligence and Machine learning technologies used by giants like Google, Microsoft and Netflix to monitor the use of indemnity funds (Quotas for the Exercise of Parliamentary Activity) granted to parliamentarians and share information in an accessible way to anyone, so that the citizen with a minimum of knowledge can inspect and audit such expenses. Context: The Serenata created Rosie, an artificial intelligence capable of analyzing the expenses reimbursed by the Quota for Exercising Parliamentary Activity of federal deputies and senators, made in the exercise of their function, identifying suspicions and encouraging the population to question them and with her, Jarbas, a dashboard that makes it easy to view all the information monitored by Rosie. Application: disciplines of technologist courses, undergraduate and graduate courses, lato sensu and strictu sensu of Administration, Information Systems and the like, in subjects related to Data Science, Machine Learning and Open Data. [ABSTRACT FROM AUTHOR]
- Published
- 2021
- Full Text
- View/download PDF
6. Desenvolvimento de um Sistema de Previsão de Insolvência das Sociedades Seguradoras no Brasil
- Author
-
Vieira, Bruno de Lima and Castelli, Mauro
- Subjects
Imbalanced Classification ,Sistema de Sinalização Antecipada ,Data Science ,Early Warning System ,Machine Learning ,Insurance ,Classificação Binária ,Artificial Intelligence ,Ciência de Dados ,Aprendizagem Supervisionada ,Inteligência Artificial ,Classificação Desequilibrada ,Insolvency ,Supervised Learning ,Binary Classification ,Aprendizagem de Máquina ,Seguros - Abstract
Dissertation presented as the partial requirement for obtaining a Master's degree in Data Science and Advanced Analytics, specialization in Data Science O mercado segurador vem adquirindo participação cada vez mais relevante no cenário econômico do país, com a participação no PIB crescendo significativamente nos últimos anos, e a Superintendência de Seguros Privados (Susep), órgão responsável pelo controle e fiscalização de todo o mercado, tem por objetivo zelar pela solvência das companhias seguradoras e garantir o interesse dos segurados. Neste contexto, prever com antecedência a ocorrência de problemas financeiros é fundamental para evitar a quebra de uma companhia e permitir que os consumidores de seguro tenham preservado seu direito a receber as indenizações ou a poupança acumulada por anos. O presente trabalho propõe a utilização de modelos preditivos, mais especificamente a classe de algoritmos baseados em Machine Learning (ML), para sinalização antecipada de situações de insuficiência de capital em sociedades seguradoras e resseguradoras. O caso foi transformado em um problema de classificação binária, cujas variáveis explicativas foram indicadores financeiros e macroeconômicos e outros indicadores que refletem o porte da empresa, pertencimento a conglomerados financeiros, atuação em determinados ramos de seguro e problemas relacionados a controles internos. Na modelagem, foram utilizados diversos algoritmos de aprendizagem supervisionada, desde mais simples, como Naive Bayes, a mais complexos, como Gradient Boosting. Os classificadores foram treinados e avaliados, sendo conduzida uma comparação das performances em diferentes abordagens, para a Recall, Precision e F1-Measure. O modelo de melhor performance foi capaz de atingir uma Recall de 92%, conseguindo prever 11 dos 12 casos de insuficiência no test set. The Insurance market in Brazil has been taking an even more relevant in the economic outlook, with its GDP participation growing significantly in the last years, and Susep, the entity responsible for monitoring and overseeing the whole market, has the objective of protecting the solvency of insurance companies e ensure the policyholders’ concerns. In this context, it is crucial to predict in advance the occurrence of financial difficulties in order to avoid the bankruptcy of a company and to permit the consumers to receive their claims or their savings accumulated over the years. This thesis aims to study the use of predictive models, more specifically the class of algorithms based on Machine Learning (ML), to create an early warning system for situations of violation of capital requirements in insurance and reinsurance companies. The case was designed to be a binary classification problem, whose independent variables were financial and macroeconomic indicators as well as further indicators that reflect the size of the company, participation in financial conglomerates, insurance lines of action, and internal control issues. In the modeling, a range of supervised learning algorithms was used, from the simplistic ones, like Naive Bayes, to the more complex ones, like Gradient Boosting. The classifiers were implemented and evaluated, by conducting a performance comparison for different approaches, using Recall, Precision, and F1-Measure metrics. The best model was able to reach a Recall of 92%, managing to predict 11 out of 12 instances of the positive class on the test set.
- Published
- 2023
7. Mineração de dados educacionais com aprendizagem de máquina
- Author
-
Vanessa Faria de Souza
- Subjects
Mineração de Dados Educacionais ,Data processing ,Data collection ,Computer science ,business.industry ,Big data ,Decision tree ,Context (language use) ,General Medicine ,Machine learning ,computer.software_genre ,Educational data mining ,Education ,Data set ,Set (abstract data type) ,Artificial intelligence ,Previsão de Desempenho ,Aprendizagem de Máquina ,business ,computer - Abstract
Com a o aumento da disponibilidade de dados, sobretudo no contexto educacional, surgiram áreas específicas para extração de informações relevantes, como a Mineração de Dados Educacionais (MDE), que integra inúmeras técnicas que dão suporte a captação, processamento e análises desses conjuntos de registros. A principal técnica associada a MDE é a Aprendizagem de Máquina, que vem sendo empregada a décadas no processamento de dados em diversos contextos, mas com o advento do Big Data houve uma intensificação na aplicação dessa técnica no intuito de extrair informações relevantes de uma enorme quantidade de dados. Nesse sentido, esse estudo tem como objetivo realizar a previsão do desempenho de alunos, em um conjunto de dados públicos, e comparar qual dos algoritmos de aprendizagem de máquina utilizados foi o mais eficaz, ademais indicar quais os principais atributos preditores para o desempenho dos alunos. Para isso foi implementado um processo de MDE baseado em 4 etapas: 1) Coleta de dados; 2) Extração de recursos e limpeza de dados (Pré-Processamento e Transformação); e 3) Processamento analítico e algoritmos; 4) análise e/ou interpretação dos resultados. Como resultado foi identificado que para o conjunto de dados utilizado neste estudo o algoritmo Árvores de Decisão foi o mais preciso – com uma acurácia de 87% – bem como foi constatado que atributos relacionados as atividades escolares são mais preditores para o desempenho dos alunos do que dados de características demográficas e socioeconômicas.
- Published
- 2021
- Full Text
- View/download PDF
8. A criação de um modelo de Natural Language Processing para extração de habilidades técnicas na área de Ciência de Dados
- Author
-
Araújo, Rennan Valadares Ornelas and Castelli, Mauro
- Subjects
Aprendizagem Profunda ,Machine Learning ,Habilidades Técnicas ,Deep Learning ,Artificial Intelligence ,Skills ,Technical Skills ,Habilidades ,Inteligência Artificial ,Aprendizagem de Máquina - Abstract
Dissertation presented as the partial requirement for obtaining a Master's degree in Data Science and Advanced Analytics, specialization in Data Science O trabalho surgiu da necessidade do homem de suprir suas necessidades básicas. Na antiguidade, época de Gregos e Romanos, era ensinado a prole como cuidar da terra e esse conhecimento era passado por gerações. Com a chegada da primeira revolução industrial e posteriormente com a popularização dos computadores, o trabalho se tornou o que conhecemos hoje. A forma de contratação mudou ao longo dos anos e com a chegada da tecnologia mais do que nunca, o mercado de trabalho está em constante mudança e como consequência disto as habilidades necessárias para estes trabalhos também seguem esta mudança. Grande parte das vagas de trabalho hoje estão anunciadas em sites de buscas de emprego como Indeed, Glassdoor e Linkedin. Um grande desafio atual, é prever as mudanças e tendências do mercado de trabalho em termos de habilidades, e a analise textual pode gerar uma vantagem competitiva neste sentido. A proposta deste trabalho é analisar através de técnicas de Natural Language Processing (NLP) diferentes oportunidades de emprego da área de Data Science a fim de obter um modelo que possa ser utilizado para extrair as habilidades requisitadas para esta área. Para alcançar este objetivo primeiro é feita uma revisão dos conceitos de Aprendizado de Máquina, Natural Language Processing, Transfer Learning e das técnicas de preparação de dados, e em seguida será apresentada a metodologia utilizada. Depois, são destacadas as técnicas que funcionam melhor para extração de habilidades, a escolha e criação do modelo, e por fim a apresentação de resultados. The work originated from man's need to meet his basic needs. In ancient times, the times of the Greeks and Romans, offspring were taught how to take care of the land and this knowledge was passed on for generations. With the arrival of the first industrial revolution and later with the popularization of computers, work became what we know today. The way of hiring has changed over the years and with the arrival of technology more than ever, the job market is constantly changing, and consequently, the skills needed for these jobs also follow this change. A large part of job vacancies today is advertised on job search sites such as Indeed, Neuvoo, and Linkedin. A big challenge today is to predict the changes and trends in the job market in terms of skills and textual analysis can generate a competitive advantage in this sense. The purpose of this work is to analyze through Natural Language Processing (NLP) techniques different job opportunities in the Data Science area to obtain a model that can be used to extract the required skills for this area. To achieve this goal first a review of the concepts of Machine Learning, Natural Language Processing, Transfer Learning, and data preprocessing, then the methodology used is presented. Next, the techniques that work best for skill extraction is highlighted, the choice and creation of the model, and finally the presentation of results.
- Published
- 2022
9. Automatic driving: 2D detection and tracking using artificial intelligence techniques
- Author
-
Pinto, José Miguel Fernandes Madeira, Alves, Victor, Lopez, Helena Fernandez, and Universidade do Minho
- Subjects
Artificial intelligence ,Visão por computador ,Condução autónoma ,Aprendizagem de máquina ,Machine learning ,Autonomous driving ,Computer vision ,Edge computing ,Inteligência artificial ,Computação de borda ,Engenharia e Tecnologia::Engenharia Eletrotécnica, Eletrónica e Informática - Abstract
Dissertação de mestrado integrado em Informatics Engineering, Road accidents are estimated to be the cause of millions of deaths and tens of millions of injuries every year. For this reason, any measure that reduces accidents' probability or severity will save lives. Speeding, driving under the influence of psychotropic substances and distraction are leading causes of road accidents. Causes that can be classified as human since they all come from driver errors. Autonomous driving is a potential solution to this problem as it can reduce road accidents by removing human error from the task of driving. This dissertation aims to study Artificial Intelligence techniques and Edge Computing networks to explore solutions for autonomous driving. To this end, Artificial Intelligence models for detecting and tracking objects based on Machine Learning and Computer Vision, and Edge Computing networks for vehicles were explored. The YOLOv5 model was studied for object detection, in which different training parameters and data pre-processing techniques were applied. For object tracking, the StrongSORT model was chosen, for which its performance was evaluated for different combinations of its components. Finally, the Simu5G simulation tool was studied in order to simulate an edge computing network, and the viability of this type of network to aid autonomous driving was analysed., É estimado que os acidentes rodoviários sejam a causa de milhões de mortes e dezenas de milhões de lesões todos os anos. Por esta razão, qualquer medida que diminua a probabilidade de acidentes ou que diminua a sua gravidade acabará por salvar vidas. Excesso de velocidade, condução sob influência de substâncias psicotrópicas e distração no ato da condução são algumas das principais causas de acidentes rodoviários. Causas essas que podem ser classificadas como humanas visto que são oriundas de um erro do condutor. A condução autónoma surge como solução para este problema. Esta tem o potencial de diminuir acidentes rodoviários removendo o erro humano da tarefa da condução. Esta dissertação teve como objetivo o estudo de técnicas Inteligência Artificial e redes Computação de Borda de forma a explorar soluções para a condução autónoma. Para tal foram estuados modelos Inteligência Artificial de deteção e rastreamento de objetos com base nas áreas de Aprendizagem Máquina e Visão por Computador e redes de Computação de Borda para veículos. Para a deteção de objetos foi estudado o modelo YOLOv5, no qual diferentes combinações de parâmetros de treino e técnicas de pré-processamento de dados foram aplicadas. Para o rastreamento de objetos foi escolhido o modelo StrongSORT, para o qual foi avaliada a sua performance para diferentes combinações das suas componentes. Por fim, foi estudada a ferramenta de simulação Simu5G, de forma a simular uma rede de computação de borda, e foi feita uma análise sobre a viabilidade deste tipo de redes no auxílio à condução autónoma.
- Published
- 2022
10. Pattern recognition on FPGA for aerospace applications
- Author
-
Alexandre Guirland Nowosad, Francisco de Assis Tavares Ferreira da Silva, Magno Prudêncio de Almeida Filho, and Antonio Macilio Pereira de Lucena
- Subjects
Inteligência artificial em tempo real ,Satélites inteligentes ,Inteligência artificial em hardware ,Visión artificial ,Computer science ,Morfología matemática ,Aprendizagem de máquina ,Image processing ,Mathematical morphology ,Aerospace applications ,Inteligencia artificial en tiempo real ,Artificial intelligence in hardware ,Modeling and simulation ,Reconhecimento de padrões ,Nanosatélites ,Pattern recognition ,Machine learning ,MATLAB ,Field-programmable gate array ,Remote sensing ,General Environmental Science ,computer.programming_language ,Intelligent satellites ,Pixel ,business.industry ,Visão computacional ,Real time systems ,Aplicaciones aeroespaciales ,Inteligencia artificial en hardware ,Morfologia matemática ,Nanosatellites ,Pattern recognition (psychology) ,Key (cryptography) ,General Earth and Planetary Sciences ,Aprendizaje automática ,Computer vision ,Artificial intelligence ,business ,computer ,Aplicações aeroespaciais ,Sensoriamento remoto ,Reconocimiento de patrones - Abstract
This paper presents a low power near real-time pattern recognition technique based on Mathematical Morphology-MM implemented on FPGA (Field Programmable Gate Array). The key to the success of this approach concerns the advantages of machine learning paradigm applied to the translation invariant template-matching operators from MM. The paper shows that compositions of simple elementary operators from Mathematical Morphology based on ELUTs (Elementary Look-Up Tables) are very suitable to embed in FPGA hardware. The paper also shows the development techniques regarding all mathematical modeling for computer simulation and system generating models applied for hardware implementation using FPGA chip. In general, image processing on FPGAs requires low-level description of desired operations through Hardware Description Language-HDL, which uses high complexity to describe image operations at pixel level. However, this work presents a reconfiguring pattern recognition device implemented directly in FPGA from mathematical modeling simulation under Matlab/Simulink/System Generator environment. This strategy has reduced the hardware development complexity. The device will be useful mainly when applied on remote sensing tasks for aerospace missions using passive or active sensors. El presente trabajo presenta una técnica de reconocimiento de patrones en tiempo real basada en Morfología Matemática-MM implementada en FPGA (Field Programmable Gate Array). La estrategia para la efectividad de este enfoque tiene que ver con las ventajas del paradigma de aprendizaje automática aplicada al modelo de correspondencia con la invariancia traslacional de operadores elementales da MM. El artículo muestra que las composiciones de operadores elementales simples de morfología matemática basadas en ELUT (tablas de consulta elementales) son adecuadas para integrarse en dispositivos FPGA. Este artículo también muestra técnicas de desarrollo de sistemas de reconocimiento de patrones, desde el modelado matemático de operadores morfológicos hasta la implementación del dispositivo electrónico utilizando el software System Generator. En general, las operaciones para el procesamiento de imágenes en FPGAs se implementan a un bajo nivel de abstracción de los lenguajes de descripción del hardware-HDL. Esto crea una gran complejidad en la implementación de operaciones en imágenes a nivel de píxeles. Sin embargo, este trabajo presenta un dispositivo reconfigurable de reconocimiento de patrones implementado directamente en FPGA a partir de simulación de modelado matemático en el software Matlab/Simulink/System Generator. Esta estrategia ha reducido la complejidad del desarrollo de hardware. El dispositivo será útil principalmente cuando se aplique en tareas de teledetección para misiones aeroespaciales utilizando sensores pasivos o activos. Esse trabalho apresenta uma técnica de reconhecimento de padrões baseada em Morfologia Matemática-MM, implementada em FPGA (Field Programmable Gate Array). A estratégia para o êxito dessa abordagem consiste na utilização das vantagens do paradigma de aprendizagem de máquina aplicado em operadores morfológicos de casamento de padrões invariantes à translação. Esse artigo mostra que a composição de simples operadores elementares da MM baseados em ELUTS (Elementary Look-Up Tables) são adequados para aplicações embarcadas em FPGA. Esse artigo também mostra as técnicas de desenvolvimento do sistema de reconhecimento de padrões, desde a modelagem matemática dos operadores morfológicos até a implementação do dispositivo eletrônico usando o software System Generator. Em geral, as operações para o processamento de imagens em FPGAs são implementadas em baixo nível de abstração das linguagens de descrição de hardware-HDL. Isto gera alta complexidade na implementação de operações em imagens ao nível de pixel. No entanto, esse trabalho apresenta um dispositivo reconfigurável aplicado ao reconhecimento de padrões implementado em FPGA, a partir da simulação da modelagem matemática usando o ambiente de software Matlab/Simulink/System Generator. Essa estratégia reduz a complexidade do desenvolvimento em hardware. O dispositivo apresentado deverá ser útil principalmente quando aplicado em tarefas de sensoriamento remoto para missões aeroespaciais através de sensores passivos ou ativos.
- Published
- 2021
11. Exploring text classification methods in oncological medical notes using machine learning and deep learning
- Author
-
Schwertner, Marco Antonio and Rigo, Sandro José
- Subjects
Artificial intelligence ,Oncologia ,Oncology ,Aprendizagem de máquina ,Machine learning ,Healthcare ,Deep learning ,Ciências Exatas e da Terra::Ciência da Computação [ACCNPQ] ,Aprendizagem profunda ,Inteligência artificial ,Saúde - Abstract
Submitted by Tatiane Vieira da Costa (tatianec) on 2020-11-25T17:48:54Z No. of bitstreams: 1 Marco Antônio Schwertner_.pdf: 4127467 bytes, checksum: c6e7aeeba688e0b908c7a977d0736822 (MD5) Made available in DSpace on 2020-11-25T17:48:54Z (GMT). No. of bitstreams: 1 Marco Antônio Schwertner_.pdf: 4127467 bytes, checksum: c6e7aeeba688e0b908c7a977d0736822 (MD5) Previous issue date: 2020-08-24 Nenhuma Com os avanços na medicina preventiva e personalizada, e as melhorias tecnológicas permitindo melhor interação do paciente com suas informações de saúde, o volume coletado de dados de saúde tem aumentado. Uma parte importante desses dados é armazenada em formato não estruturado em texto livre em linguagem natural, dificultando o processamento desses dados pelos Sistemas de Apoio à Decisão Clínica (SADC). Consequentemente, os profissionais de saúde ficam sobrecarregados tentando manter-se atualizados com as informações de saúde dos seus pacientes porque precisam de mais tempo para coletar e analisar esses dados manualmente. Definir um diagnóstico e tratamento oncológico é um processo de tomada de decisão complexo, pois é afetado por uma ampla gama de parâmetros. Para ajudar neste processo de tomado de decisão, esta pesquisa possui como principal objetivo aplicar diversos métodos de classificação de textos em corpora com registros médicos não sintéticos, para aprender e sugerir o diagnóstico baseado no histórico clínico do paciente. Primeiro, os corpora foram obtidos de um S-RES (Sistema de Registro Eletrônico em Saúde) Oncológico de três diferentes clínicas de oncologia. Foram criadas duas versões dos corpora: a versão por-evento-clínico com um registro médico de paciente por registro; e a versão porpaciente com um registro por paciente com seus registros médicos. Então, os corpora foram pré-processados para alavancar o desempenho dos classificadores. Por fim, diversos métodos de classificação de texto de aprendizagem de máquina e aprendizagem profunda foram treinados utilizando os corpora junto com o diagnóstico de cada paciente como dados enriquecidos. Diversos experimentos foram realizados, avaliando os seguintes métodos de classificação de textos de aprendizagem de máquina e de aprendizagem profunda: Multilayer Perceptron (MLP) neural network, Logistic Regression, Decision Tree classifier, Random Forest classifier, K-nearest neighbors (KNN) classifier, and Long-Short Term Memory (LSTM). Um experimento adicional com um classificador MLP foi realizado para avaliar a influência da etapa de pré-processamento nos resultados, e foi encontrado que a acurácia média do classificador foi alavancada de 26,1% para 86,7% com o uso do corpus por-evento-clínico, e 93,9% com o corpus por-paciente. O classificador com melhor desempenho foi o MLP com duas camadas ocultas (800 e 500 neurônios), que atingiu 93,90% de acurácia, um escore Macro F1 de 93,61%, e um escore Weighted F1 de 93,99%. Os experimentos foram realizados num conjunto de dados com 3.308 registros médicos de uma clínica de oncologia pequena. With the preventive and personalized medicine advances, and technological improvements enabling better interaction from patients with their healthcare information, the volume of healthcare data gathered has increased. A relevant part of these data is recorded as an unstructured format in natural language free-text, making it harder for Clinical Decision Support Systems (CDSS) to process these data. Consequently, healthcare professionals get overwhelmed keeping themselves updated with the patient’s healthcare information because they need more time to gather and analyze it manually. Furthermore, to define an oncology diagnosis and its treatment plan is a complex decision-making process because it is affected by a broad range of parameters. This research’s main objective is to apply several text classification methods in non-synthetic oncology clinical notes corpora to help with this decision-making process. First, the corpora were obtained from an Oncology EHR system from three different oncology clinics. Two corpora versions were created: the per-clinical-event version with each patient’s medical note per record; and the per-patient version with one record per patient with his or her medical notes. Then, these corpora were preprocessed to leverage the performance of the classifiers. As the last step, several machine learning and one deep learning text classification methods were trained using these corpora with each patient’s diagnosis as enriched data. The following machine learning and deep learning classification methods were applied: Multilayer Perceptron (MLP) neural network, Logistic Regression, Decision Tree classifier, Random Forest classifier, K-nearest neighbors (KNN) classifier, and Long-Short Term Memory (LSTM). An additional experiment with an MLP classifier was performed to evaluate the preprocessing step’s influence on the results, and it found that the classifier’s mean accuracy was leveraged from 26.1% to 86.7% with the per-clinical-event corpus, and 93.9% with the perpatient corpus. The classifier that best performed was the MLP with 2 hidden layers (800 and 500 neurons), which achieved 93.90% accuracy, a Macro F1 score of 93.61%, and a Weighted F1 score of 93.99%. The experiments were performed in a dataset with 3,308 medical notes from a small oncology clinic.
- Published
- 2020
12. Information retrieval with a semantic approach using natural language: artificial intelligence in information science
- Author
-
Coneglian, Caio Saraiva [UNESP], Universidade Estadual Paulista (Unesp), and Santarem Segundo, José Eduardo [UNESP]
- Subjects
Artificial intelligence ,Ontology ,Recuperação da informação ,Aprendizagem de máquina ,Natural language processing ,Machine learning ,Web semântica ,Information retrieval ,Inteligência artificial ,Ontologia ,Semantic web ,Processamento de linguagem natural - Abstract
Submitted by CAIO SARAIVA CONEGLIAN (caio.coneglian@unesp.br) on 2020-07-28T17:23:12Z No. of bitstreams: 1 Tese_Versao_Arquivamento.pdf: 3433272 bytes, checksum: 128caec393a9ad3e149d9956e809e6a4 (MD5) Approved for entry into archive by Telma Jaqueline Dias Silveira null (telmasbl@marilia.unesp.br) on 2020-07-28T18:11:06Z (GMT) No. of bitstreams: 1 coneglian_cs_dr_mar.pdf: 3433272 bytes, checksum: 128caec393a9ad3e149d9956e809e6a4 (MD5) Made available in DSpace on 2020-07-28T18:11:06Z (GMT). No. of bitstreams: 1 coneglian_cs_dr_mar.pdf: 3433272 bytes, checksum: 128caec393a9ad3e149d9956e809e6a4 (MD5) Previous issue date: 2020-07-03 Conselho Nacional de Desenvolvimento Científico e Tecnológico (CNPq) Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) A evolução das Tecnologias de Informação e Comunicação conduziu ao desenvolvimento de técnicas capazes de recuperar informações com mais eficiência, inclusive aproximando a linguagem computacional da linguagem natural. Nesse sentido, técnicas de recuperação da informação que utilizam processamento de linguagem natural, como o Question Answering, e a Web Semântica, podem ser utilizados em conjunto para aprimorar a satisfação das necessidades informacionais dos usuários. No âmbito da Web Semântica, as ontologias e o Linked Data podem ser utilizados como uma importante fonte informacional, por contemplar conhecimentos de diversas áreas do conhecimento. Somado a esse cenário, há a dificuldade eminente dos usuários utilizarem sistemas de recuperação da informação que não levam em consideração a sua linguagem natural, tampouco a semântica dos termos de busca e o contexto dos dados das fontes informacionais. Dessa forma, esta pesquisa apresenta como objetivo a proposição de um modelo de recuperação da informação que redesenha este campo de estudos, a partir da aproximação da linguagem computacional com a linguagem natural, utilizando os princípios da representação da informação, para que o significado e o contexto dos dados estejam explícitos para o processo da busca; para tanto, aproxima-se e relaciona-se aos processos de Inteligência Artificial, processamento de linguagem natural e às ferramentas da Web Semântica. Para o desenvolvimento deste trabalho, utilizou-se o método quadripolar, sendo um estudo exploratório e aplicado. Como resultados, criou-se este modelo de recuperação da informação, pautado no contexto semântico e na aplicação da Inteligência Artificial, capaz de tornar a linguagem natural a base do processo, e considerando o contexto e o significado dos termos para os usuários. Aponta-se que tal modelo é capaz de aprimorar a satisfação das necessidades informacionais dos usuários, utilizando as ontologias para contextualizar as informações, o Linked Data para fornecer dados estruturados e o processamento de linguagem natural para aproximar a linguagem computacional da linguagem natural. Outro resultado está na prova de conceito, que demonstra a validade e a aplicação do modelo, apresentando um caso real de como o processo de recuperação da informação ocorre neste modelo, com todas as possibilidades e como as diversas ferramentas, conceitos e tecnologias se vinculam e promovem o processo na prática. Conclui-se que um modelo de recuperação da informação, quando se utiliza da linguagem natural como padrão, quando apoiado pela Web Semântica e aprendizagem de máquina, torna o processo mais natural, eficaz e acessível, de forma que qualquer usuário será capaz de se utilizar dele, mesmo que não tenha domínio dos mecanismos de busca e recuperação. Além disso, aponta-se que o presente trabalho realiza uma importante aproximação entre a Ciência da Informação e a Inteligência Artificial, trazendo para seu escopo, em especial no âmbito da recuperação da informação, aplicações reais de como este segundo campo de estudos pode aprimorar a área como um todo. The evolution of Information and Communication Technologies has led to the development of techniques capable of retrieve information more efficiently, including bringing computational language closer to natural language. In this sense, information retrieval techniques that use Natural Language Processing, such as Question Answering, and the Semantic Web, can be used together to improve the satisfaction of users' information needs. Within the scope of the Semantic Web, ontologies and Linked Data can be used as an important information source, as it contemplates knowledge from different areas of knowledge. In addition to this scenario, there is an eminent difficulty for users to use information retrieval systems that do not consider their natural language, nor the semantics of search terms and the context of data from information sources. In this way, the present research has as objective the proposition of a model of Information Retrieval, that redraws this field of studies, from the approximation of the computational language with the natural language, using the principles of the representation of the information so that the meaning and the context of the data are explicit for the search process, for this purpose the Artificial Intelligence, Natural Language Processing and the Semantic Web tools are related and related. For the development of this work, the quadripolar method was used, being an exploratory and applied study. As results, this Information Retrieval model was created, based on the semantic context and the application of Artificial Intelligence, capable of making natural language the basis of the process, and considering the context and the meaning of the terms for users. It is pointed out that such a model can improve the satisfaction of users' informational needs, using ontologies to contextualize information, Linked Data to provide structured data and Natural Language Processing to bring computational language closer to natural language. Another result is in the proof of concept, which demonstrates the validity and application of the model, presenting a real case of how the information retrieval process occurs in this model, with all the possibilities and how the different tools, concepts and technologies are linked and promote the process in practice. We conclude that an Information Retrieval model, which when using natural language as a standard, when supported by the Semantic Web and machine learning, makes the process more natural, effective and accessible, since any user will be able to use, even if he has no control over search and retrieval mechanisms. Furthermore, it is pointed out that the present work makes an important approximation between Information Science and Artificial Intelligence, bringing to its scope, especially in the scope of Information Retrieval, real applications of how this second field of studies can improve the area as a whole.
- Published
- 2020
13. Multistage Quality Control Using Machine Learning in the Automotive Industry
- Author
-
Ricardo Silva Peres, Gisela Garcia, Jose Barata, and Paulo Leitão
- Subjects
0209 industrial biotechnology ,General Computer Science ,Computer science ,Aprendizagem de máquina ,media_common.quotation_subject ,industry 40 ,Control (management) ,Automotive industry ,Scrap ,02 engineering and technology ,Machine learning ,computer.software_genre ,020901 industrial engineering & automation ,Downstream (manufacturing) ,0202 electrical engineering, electronic engineering, information engineering ,General Materials Science ,Quality (business) ,media_common ,Predictive manufacturing system ,business.industry ,General Engineering ,Volume (computing) ,Quality control ,Information technology ,Controlo de qualidade ,automotive industry ,Random forest ,020201 artificial intelligence & image processing ,lcsh:Electrical engineering. Electronics. Nuclear engineering ,Artificial intelligence ,business ,lcsh:TK1-9971 ,computer ,multistage ,Sistema de fabrico preditivo - Abstract
Product dimensional variability is a crucial factor in the quality control of complex multistage manufacturing processes, where undetected defects can easily be propagated downstream. The recent advances in information technologies and consequently the increased volume of data that has become readily available provide an excellent opportunity for the development of automated defect detection approaches that are capable of extracting the implicit complex relationships in these multivariate data-rich environments. In this paper, several machine learning classifiers were trained and evaluated on varied metrics to predict dimensional defects in a real automotive multistage assembly line. The line encompasses two automated inspection stages with several human-operated assembly and pre-alignment stages in between. The results show that non-linear models like XGBoost and Random Forests are capable of modelling the complexity of such an environment, achieving a high true positive rate and showing promise for the improvement of existing quality control approaches, enabling defects and deviations to be addressed earlier and thus assist in reducing scrap and repair costs. info:eu-repo/semantics/publishedVersion
- Published
- 2019
- Full Text
- View/download PDF
14. Group Labeling Methodology Using Distance-based Data Grouping Algorithms
- Author
-
Aline Montenegro Leal Silva, Francisco Das Chagas Imperes Filho, Rodrigo Veras, Vinicius Ponte Machado, and Kelson Rômulo Teixeira Aires
- Subjects
Interpretation (logic) ,Similarity (geometry) ,General Computer Science ,Degree (graph theory) ,business.industry ,Group (mathematics) ,Computer science ,Context (language use) ,Composition (combinatorics) ,computer.software_genre ,Rotulação de Dados ,Definição de Dados ,Agrupamento de Dados ,Aprendizagem de Máquina ,Artificial intelligence ,Element (category theory) ,business ,Cluster analysis ,computer ,Natural language processing - Abstract
Clustering algorithms are often used to form groups based on the similarity of their members. In this context, understanding a group is just as important as its composition. Identifying, or labeling groups can assist with their interpretation and, consequently, guide decision-making efforts by taking into account the features from each group. Interpreting groups can be beneficial when it is necessary to know what makes an element a part of a given group, what are the main features of a group, and what are the differences and similarities among them. This work describes a method for finding relevant features and generate labels for the elements of each group, uniquely identifying them. This way, our approach solves the problem of finding relevant definitions that can identify groups. The proposed method transforms the standard output of an unsupervised distance-based clustering algorithm into a Pertinence Degree (GP), where each element of the database receives a GP concerning each formed group. The elements with their GPs are used to formulate ranges of values for their attributes. Such ranges can identify the groups uniquely. The labels produced by this approach averaged 94.83% of correct answers for the analyzed databases, allowing a natural interpretation of the generated definitions.
- Published
- 2020
15. Forecasting airborne pollutants via time-series models
- Author
-
Gregório, João Alberto Madeira, Gouveia-Caridade, Carla, Pereira, Jorge Luís Gabriel Ferreira da Silva Costa, and Caridade, Pedro Jorge dos Santos Branco
- Subjects
Artificial intelligence ,Poluição atmosférica ,Aprendizagem de máquina ,Modelos de regressão ,Machine learning ,Airborne pollution ,Time-series ,Inteligência artificial ,Regression models ,Séries temporais - Published
- 2017
16. Aprendizado por esforço aplicado ao combate em jogos eletrônicos de estratégia em tempo real
- Author
-
Botelho Neto, Gutenberg Pessoa and Siebra, Clauirton de Albuquerque
- Subjects
Artificial intelligence ,Aprendizagem de máquina ,Machine learning ,State Action Reward State Action - SARSA ,Inteligência artificial ,Real Time Strategy - RTS ,CIENCIA DA COMPUTACAO [CIENCIAS EXATAS E DA TERRA] - Abstract
Electronic games and, in particular, real-time strategy (RTS) games, are increasingly seen as viable and important fields for artificial intelligence research because of commonly held characteristics, like the presence of complex environments, usually dynamic and with multiple agents. In commercial RTS games, the computer behavior is mostly designed with simple ad hoc, static techniques that require manual definition of actions and leave the agent unable to adapt to the various situations it may find. This approach, besides being lengthy and error-prone, makes the game relatively predictable after some time, allowing the human player to eventually discover the strategy used by the computer and develop an optimal way of countering it. Using machine learning techniques like reinforcement learning is a way of trying to avoid this predictability, allowing the computer to evaluate the situations that occur during the games, learning with these situations and improving its behavior over time, being able to choose autonomously and dynamically the best action when needed. This work proposes a modeling for the use of SARSA, a reinforcement learning technique, applied to combat situations in RTS games, with the goal of allowing the computer to better perform in this fundamental area for achieving victory in an RTS game. Several tests were made with various game situations and the agent applying the proposed modeling, facing the game's default AI opponent, was able to improve its performance in all of them, developing knowledge about the best actions to choose for the various possible game states and using this knowledge in an efficient way to obtain better results in later games Coordenação de Aperfeiçoamento de Pessoal de Nível Superior - CAPES Jogos eletrônicos e, em especial, jogos de estratégia em tempo real (RTS), são cada vez mais vistos como campos viáveis e importantes para pesquisas de inteligência artificial por possuírem características interessantes para a área, como a presença de ambientes complexos, muitas vezes dinâmicos e com múltiplos agentes. Nos jogos RTS comerciais, o comportamento do computador é geralmente definido a partir de técnicas ad hoc simples e estáticas, com a necessidade de definição manual de ações e a incapacidade de adaptação às situações encontradas. Esta abordagem, além de demorada e propícia a erros, faz com que o jogo se torne relativamente previsível após algum tempo, permitindo ao jogador eventualmente descobrir a estratégia utilizada pelo computador e desenvolver uma forma ótima de enfrentá-lo. Uma maneira de tentar combater esta previsibilidade consiste na utilização de técnicas de aprendizagem de máquina, mais especificamente do aprendizado por reforço, para permitir ao computador avaliar as situações ocorridas durante as partidas, aprendendo com estas situações e aprimorando seu conhecimento ao longo do tempo, sendo capaz de escolher de maneira autônoma e dinâmica a melhor ação quando necessário. Este trabalho propõe uma modelagem para a utilização de SARSA, uma técnica do aprendizado por reforço, aplicada a situações de combate em jogos RTS, com o objetivo de fazer com o que o computador possa se portar de maneira mais adequada nessa área, uma das mais fundamentais para a busca da vitória em um jogo RTS. Nos testes realizados em diversas situações de jogo, o agente aplicando a modelagem proposta, enfrentando o oponente padrão controlado pela IA do jogo, foi sempre capaz de melhorar seus resultados ao longo do tempo, obtendo conhecimento acerca das melhores ações a serem tomadas a cada momento decisório e aproveitando esse conhecimento nas suas partidas futuras
- Published
- 2014
17. Machine learning in an environment for automated negotiations
- Author
-
OLIVEIRA, Rômulo Nunes de., COSTA, Evandro de Barros., GOMES, Herman Martins., LULA JÚNIOR, Bernardo., and FREITAS, Frederico Luiz Gonçalves de.
- Subjects
Machine Learning ,Ciência da Computação ,Negociação Automatizada ,Neural Networks ,Computational and Cognitive Models ,Artificial Intelligence ,Redes Neurais ,Automated Trading ,Inteligência Artificial ,Aprendizagem de Máquina ,Modelos Computacionais e Cognitivos - Abstract
Submitted by Severina Oliveira (severina.sueli@ufcg.edu.br) on 2019-07-09T19:47:15Z No. of bitstreams: 1 RÔMULO NUNES DE OLIVEIRA-DISSERTAÇÃO (PPGCC) 2006.pdf: 1847061 bytes, checksum: 268a4ee790d22b5101c154c65bd1abbe (MD5) Made available in DSpace on 2019-07-09T19:47:15Z (GMT). No. of bitstreams: 1 RÔMULO NUNES DE OLIVEIRA-DISSERTAÇÃO (PPGCC) 2006.pdf: 1847061 bytes, checksum: 268a4ee790d22b5101c154c65bd1abbe (MD5) Previous issue date: 2006-03-28 Capes A automatização do processo de negociação é um dos tópicos importantes e desafiadores no contexto da pesquisa em IA aplicada ao comércio eletrônico. Particularmente, um dos problemas relacionados à concepção de agentes de software negociadores diz respeito a dotá-los da capacidade de aprender e se adaptar ao dinamismo normalmente requerido no processo de negociação. Neste trabalho, propõe-se um ambiente para construção de agentes inteligentes dotados das capacidades de negociar e aprender. Foram realizados dois experimentos para demonstrar a factibilidade da nossa proposta. Os experimentos mostraram a capacidade de aprendizagem dos agentes, segundo as técnicas empregadas: Redes Neurais, Aprendizagem por Reforço (Q-learning), Raciocínio Baseado em Regras e Raciocínio Baseado em Casos. Automated negotiation is a hot research topic in AI applied to e-commerce. Particularly, one of the problems concerning the design of negotiation agents is to enclow them with learn ing and adaptation capabilities in order to face the dynamism often required by negotiation processes. This dissertation proposes an environment for building intelligent agents capable of ne gotiating and learning. Two experiments were done in order to demonstrate the feasibility of the proposed environment. The experiments show that the agents learned during the inter action process according to the used techniques: Neural networks, Q-learning, Rule-based Reasoning and Case-based Reasoning.
- Published
- 2006
18. Theory and application of support vector machines to learning and recognition of objects based on appearance
- Author
-
SANTOS, Eulanda Miranda dos., GOMES, Herman Martins., BARROS, Marcelo Alves de., and CARVALHO, João Marques de.
- Subjects
Machine Learning ,Ciência da Computação ,Artificial Intelligence ,Support Vector Machines ,Computer Vision ,Inteligência Artificial ,Visão Computacional ,Aprendizagem de Máquina - Abstract
Submitted by Severina Oliveira (severina.sueli@ufcg.edu.br) on 2019-06-11T18:21:41Z No. of bitstreams: 1 EULANDA MIRANDA DOS SANTOS-DISSERTAÇÃO (MESTRADO EM INFORMÁTICA) 2002.pdf: 1373175 bytes, checksum: b91de66747ca1eac6a105da2c5d80e1c (MD5) Made available in DSpace on 2019-06-11T18:21:41Z (GMT). No. of bitstreams: 1 EULANDA MIRANDA DOS SANTOS-DISSERTAÇÃO (MESTRADO EM INFORMÁTICA) 2002.pdf: 1373175 bytes, checksum: b91de66747ca1eac6a105da2c5d80e1c (MD5) Previous issue date: 2002-06-20 Support Vector Machines (SVM) é uma técnica de aprendizagem de máquina derivada de duas fundamentações sólidas: Teoria da Aprendizagem Estatísta e Otimização Matemática. SVM têm sido recentemente aplicado com sucesso a uma variedade de problemas que vão desde o reconhecimento de caracteres ao reconhecimento de objetos baseado na aparência. Alguns dos motivos para esse sucesso estão relacionados ao fato dessa técnica exibir bom desempenho de generalização em muitas bases de dados reais, é bem fundamentada teóricamente, o processo de treinamento elimina a possibilidade de mínimos locais, existem poucos parâmetros livres para ajustar e a arquitetura não precisa ser encontrada por experimentação. Entretanto, por tratar-se de uma abordagem relativamente nova, livros-texto e artigos estão geralmente disponíveis em uma linguagem que não é facilmente acessível para Cientistas da Computação. Portanto, um dos objetivos desta dissertação é prover uma introdução sobre SVM que apresente os conceitos e teoria essenciais à técnica e que seja mais didática. Estratégias de reconhecimento de objetos com base na aparência se aplicam a problemas em que há dificuldades na obtenção de modelos geométricos dos objetos, desde que as imagens utilizadas não apresentem oclusões. Algumas técnicas de aprendizagem de máquina têm sido aplicadas a este problema, tais como: PCA (Principal Component Analysis), PAC (Probably Approximately Correct) e Redes Neurais, mas nenhuma mostrou-se tão promissora quanto SVM. Dentro desse contexto, esta dissertação objetiva investigar a aplicação de SVM ao reconhecimento de objetos baseado na aparência. Apresenta resultados práticos de classificação utilizando inicialmente uma pequena base de dados e, em seguida, explorando todo o poder da técnica em uma base de dados relativamente grande. Esta dissertação também descreve resultados experimentais usando diferentes variações da técnica e compara o desempenho de reconhecimento de SVM com o desempenho de Redes Neurais do tipo Multilayer Perceptron Backpropagation. Support Vector Machines (SVM) is a machine learning technique derived from two solid backgrounds: Statistical Learning Theory and Mathematical Optimisation. SVM has recently been applied with success to a variety of problems, ranging from character recognition to appearance based object recognition. Some of the reasons for this success are related to the fact this technique exhibits good generalisation performance on many real-life data sets, is well-founded theoreticaly, the training process eliminates the possibility of local minima, there are few free paramets to adjust and the architecture does not have to be found by experimentation. However, since this is a relatively new approach, text books and papers are usually in a language that is not easily acessible to Computer Scientists. Therefore one of the objectives of this dissertation is to provide an introduction to SVM that presents the essential concepts and theory behind the technique and that is more didatic. Appearance-based object recognition strategies appear to be well-suited for the solution of recognition problems in which geometric models of the viewed objects can be difficult to obtain, although they are not naturally tolerant to occlusions. Some machine learning techniques have been applied in this problem like, Principal Component Analysis (PCA), Probably Approximately Correct (PAC) and Neural Networks, but none posed as promising as SVM. Within this context, this dissertation aims to investigate the application of SVM to appearance-based object recognition. It presents practical results of classification initially using a small dataset and then exploring the full power of the technique on a relatively large dataset. It also presents experimental results using different variations of the technique and compares the recognition performance of SVM with the performance of Multilayer Percep tron Backpropagation Neural Networks.
- Published
- 2002
19. S30: a method of searching for similarities in structured objects
- Author
-
CARVALHO, Joelson Nogueira de., FERNEDA, Edilson., MONGIOVI , Giuseppe., MONARD , Maria Carolina., and MEDEIROS, José Hamurabi N. de.
- Subjects
Machine Learning ,Artificial intelligence ,Ciência da Computação ,Sistema S30 ,Inteligência Artificial ,Aprendizagem de Máquina ,System S30 - Abstract
Submitted by Maria Medeiros (maria.dilva1@ufcg.edu.br) on 2019-06-10T11:43:45Z No. of bitstreams: 1 JOELSON NOGUEIRA DE CARVALHO - DISSERTAÇÃO (PPGCC) 1999.pdf: 8676197 bytes, checksum: bdd26c6f38f0edfece253dacdcf48931 (MD5) Made available in DSpace on 2019-06-10T11:43:45Z (GMT). No. of bitstreams: 1 JOELSON NOGUEIRA DE CARVALHO - DISSERTAÇÃO (PPGCC) 1999.pdf: 8676197 bytes, checksum: bdd26c6f38f0edfece253dacdcf48931 (MD5) Previous issue date: 1999-07-28 Apresentamos neste trabalho um sistema de aprendizagem de máquina a partir de objetos formados por exemplos e contra-exemplos do conceito a ser aprendido. Esses objetos são descritos estruturalmente em uma linguagem de descrição baseada em grafos e o conhecimento é encapsulado em uma estrutura que envolve classes de abjetos e relações sobre as mesmas. O sistema apresenta ainda um controle heurístico baseado na lógica majoritária e permite a interferência do usuário como meio de melhorar a aprendizagem. Esse tipo de sistema de aprendizagem pode ser utilizado em várias aplicações. Neste trabalho, em particular, apresentamos o mesmo como ferramenta de base para o sistema SAID, um sistema de apoio à descoberta científica baseado em aprendizagem de máquina. In this work we present a machine learning system which starts from a set of objects formed by positive and negative samples of the concept to be learned. Each of these objects is structurally described through a graph based language and the knowledge is fitted into a frame that involves classes of objects and relationships. The system also presents a majoritary logic based heuristic control and allows the user's interference as a mean for improving the learning. Such type of learning system can be used in several applications. In this work, in particular, it is presented as a base tool for the system SAID, a scientific discovery support system based on machine learning.
- Published
- 1999
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.